菜鸡的百度两轮NLP面试

发布于:2021-10-28 13:18:45

一晃2020年都到9月份了。
从去年入职一家创业公司的NLP算法岗,现在勉强有一年的NLP经验了,最*强行投了一些简历,百度某部门可能急于用人,我这样的菜鸡都给面试机会了,谢谢百度。


一面
问项目及其细节;
二叉树遍历;旋转数组找最小值
bert的结构,transformer的encoder结构:其中前馈神经网络的结构是怎样的?
layernorm和batchNorm的区别与联系及其适用场景,举例说明二者的区别
attention计算过程中,为什么要除以






d


k





sqrt{d_k}


dk?
??
NER中,CRF的损失函数怎么计算的?最佳路径和所有路径分数如何得到?


二面
pooling(最大池化)层中的梯度是怎样回传的?
面对长文本的分类,数据怎样处理?
都掌握那些NLP相关模型?
既要达到bert模型的效果,又要超低推理时间,如10ms以内,应该怎样做
一个样本需要输出多个分类标签,应该怎样设置模型?


终……


感谢百度两位面试官,目前的我学*策略是补基础,一直在花时间去补充机器学*、深度学*等经典的书籍,我也就此向两位面试官请教经验。
一面面试官强调了要多动手练*课后的练*作业,编码实现那些理论;
二面面试官直言我这样做性价比很低,工作后时间精力极其有限,并且容易看了忘,故而应该去追较新的成果,并多动手实践,你会发现在动手实践最新的成果时,会倒逼自己去慢慢熟悉那些经典的基础理论,效率更高,且理解的更透彻。

相关推荐

最新更新

猜你喜欢