Interview:算法岗位面试—10.12上午—上海某科技公司图像算法岗位(偏图像算法,互联网AI行业)技术面试考点之LoR逻辑回归的底层代码实现、特征图计算公式
ML岗位面试:10.12上午—上海某科技公司图像算法岗位(偏图像算法,互联网AI行业)技术面试考点之LoR逻辑回归的底层代码实现、特征图计算公式
Interview:算法岗位面试—10.12上午—上海某科技公司图像算法岗位(偏图像算法,互联网AI行业)技术面试考点之LoR逻辑回归的底层代码实现、特征图计算公式
导读:其实,考察的知识点,博主都做过,但是,emmm,这些知识点,在我写代码中,几乎不会用到,so,会遗忘。所以,还需要下功夫,去多回忆回忆啦。
此次面试过程中,直接手推了整个CNN的发展历史,写满了整个黑板,还分开了单步骤、多步骤经典架构及其它们之间的关系。但是,面我的技术貌似没怎么理解,好像很不屑,此次面试,给我的整个感觉不太舒服。还包括,他才开始让我手推LoR模型,但是我说,我想采用数学公式推导,推导出来以后,说看不懂我写的数学公式,其实,LoR符合伯努利分布,可以数MLE化,取个log损失再平均,接着对系数进行求偏导。what?面试官竟然没看懂数学的推导,我讲解了一遍,并说出了为什么采用log损失,但是,他让我用Tensorfow写出该公式,这时候,我就感觉,这个面试官,emmmm。
还有个细节,在即将结束的时候,他应该让HR进来和我聊,但该面试官离开面试房间之前,要求让我把手推的CNN知识点—整个黑板,都全部擦掉。其实是可以在我最后离开面试房间的时候擦掉的,但是写完就让我擦掉,真是搞不懂该面试官的逻辑……
补充一句,让进入下一轮技术面的郑HR,感觉很nice,虽然没见过其人(可能在复旦叶耀珍楼面试中有见到过),但是通过短信或者邮件联系过程中,感觉该HR非常舒服哒。
知识点考察
1、特征图计算公式
往期文章:DL之CNN:卷积神经网络算法简介之原理简介(步幅/填充/特征图)、七大层级结构(动态图详解卷积/池化+方块法理解卷积运算)、CNN各层的作用等之详细攻略
2、RetinaNet的focal loss损失函数意义
往期文章:DL之RetinaNet:RetinaNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
手撕代码
1、机器学习岗位技术面试考点之LoR逻辑回归的底层代码实现
思维导图
代码实现
ML之LoR:利用LoR算法(tensorflow)对mnist数据集实现手写数字识别