算法岗诸神黄昏,算法初级职位内卷,如何选择适合自己的方向?

2019 年 10 月 22 日 算法与数据结构

来自:知乎

链接:https://www.zhihu.com/question/343743405


作者:王喆
https://www.zhihu.com/question/343743405/answer/843638850


人才内卷,你得首先确定你是个人才啊。不是说名校毕业就是人才的,也不是说发过几篇文章就是人才的,更不是说你把各种模型原理背的滚瓜烂熟就是人才的。


企业招你是来干活的,不是来指导工作的,也不是被老员工捧着你,听你说怎么改进模型的。


很多同学说算法岗的面试是“面试造火箭,工作螺丝钉”,现在很多同学的问题是你大概知道怎么造火箭,但是是真的不会拧螺丝钉啊。


很多同学刚一毕业还看不起业务逻辑了,说实现业务逻辑就是浪费生命,为什么不让我改进模型。那我要问问了,对于一个广告系统,你说你要博弈论,你说你要各种出价模型,但你连你们公司最基本的商业模式都不一定搞明白,一头钻进算法里面,你能真的做出公司利益最大化的模型吗?对于一个推荐系统,你对于你们公司的业务场景,用户动机,数据特点的理解都不透彻,你怎么做出最合适和模型结构?


更有甚者还居然看不上开发岗了,说算法岗的开发能力够用就行了,这是我看到最荒谬的逻辑。你问问真正在各大一线做得好的算法工程师们,哪个不是“文体两开花”,“算法工程两手抓”。公司里你的工程能力差,写的代码不漂亮,是要被开发岗的同学们challenge的。


你说你要改进模型,其他工作看不上,我真的倒要问问了你觉得在一线互联网公司工作的工程师们都不看paper,都等着你来当救世主拯救世界是吧。拯救世界的事情都让应届生来做,资深工程师都为你打下手擦屁股是吧。


说这么多不是要喷谁,而是真的要好好端正一下同学们对于算法岗的态度,算法岗不是转行的避难所,算法岗是在工程岗的基础上利用算法实现公司利益最大化的工程师们,它不是简单的调调参,用tensorflow,pytorch做几个fancy的模型就完事了的。


我想肯定总是有既重视模型算法的知识,又有扎实的工程能力的同学。对于这部分人,人才内卷,不存在的。对于把算法岗当做入门快,转行易的“投机者”来说,还是先端正自己对于工程能力的态度,再讨论人才内卷的问题。还真好意思说诸神黄昏,我看这是有史以来神的标准最低的一次。



作者:霍华德
https://www.zhihu.com/question/343743405/answer/841052817

我想说两句。


首先是啥专业都在转算法,单就博士我就收到过北大光学、中科大粒子物理的,可能大家都感觉算法入门简单吧。这些是非科班的,科班的也奇怪,我面过实验室一直做计算机网络的,在算法领域没什么积累,他就应该出门右转去投网络平台部,毛问题没有。


其次,靠谱的lab其实没怎么增加。北大计算语言所,清华nlp lab,哈工大的scir,南大lamda,东北大学nlp lab,中科院计算所、自动化所,港中文mmlab里面出来的学生真是抢都抢不到,这些实验室都是在人工智能领域积累了十几年,甚至几十年了(哈工大从李生开始80年就开始做nlp了)。这些lab的学生供给量其实这么些年一直很稳定,早就被hr盯得死死的了。那新冒出来的学生都是哪里来的,很多都是老板看着人工智能智能火,想来分一杯羹人,结果导师自己连bias-variance trade off都弄不清楚那种,不是坑学生吗?


最后,对于那些非科班想转行窗口期的确已经过去了,15-17年那样对非科班比较宽容的日子已经过去了,哎



作者:纳米酱
https://www.zhihu.com/question/343743405/answer/841233808

从躺学的角度来讲,劝退是没用的。


英国科学家曾经证明过,植物不仅有感觉,还有幻觉,比如某些算法韭菜们,就总觉得自己会年薪百万。


既然是科学证明的,我们苦口婆心劝退是没有用的,我们也没资格劝,毕竟劝退的,像我这种,就是吃了早期红利,水平差到极点,进了公司工资实际不多,但是被算法真巨佬平均以后,就高的吓人,让每个新进来的青壮年韭菜,都幻想着靠 SOTA 的对城武器,一招 ex咖喱棒 秒杀我们,然后踩着我们的尸体,开着宇智波斑级的嘲讽,升职加薪,年薪百万。


我面试的时候,充分感受到的,一个 100 线公司的老弱病残,如何被不可一世的韭菜们鄙视成啥样(这个是真事):

  1. 面试官,你好,这是我的研究,你要是不懂,我来和你说说我思想的亮点,巴拉啦。。。

  2. 面试官,你好,我调过这些参数,巴拉啦,然后非常提点,你们公司用了肯定有收益

  3. 面试官,你好,我看过这些 xxx 原理,我来和你讲讲数学如何实现,首先和你讲xx数学原理。。

  4. 面试官,你好,我发表了多少。。。。


我全程跪着让他们说完,黑体字不仅产生暴击效果,还带溅射效果,我咬着手绢,补着血问:我们要求低,部门和其它地方比,技术还是在起步阶段,商业需求xxx,需要的技能xxx,祖国未来的花朵们,写个链表翻转就放你二面吧。。。


啥!没写过 c++。。。。我膝盖都跪缺钙了,特么你们忽然变成了钙片。。。呜呜呜,谢谢孩子们关心老人家膝盖健康问题。


最后,内卷成功的,都去其它更大的公司了。。。呜呜呜,面试一副要改造产业的样子,钱给不够的时候,跑的比谁都快。


想想也对,算法岗诸神黄昏,说到底,为了就是钱,我也一样。


算法岗位钱多吗?确实,新智元文章里面的人都很有钱,那些人的钱确实多,真的非常多,大部分人被平均了。


我蹭一波热点,加入来一打阿里算法 p8 丢到望京,然后你会发现望京算法岗平均工资平均暴增 5000 元。


我不是说 p8 多有钱,我是想说望京就没几个纯正算法岗位,很容易被平均。


回龙观另当别论,不过,来 100 个阿里 p8 也足够了吧。


你们有想过为何我只拿阿里 p8 做标杆,因为宇宙第一电商公司确实能够靠算法和技术赚点钱呀。


在北京,无人不知无人不晓,凡是自称宇宙系公司,都是靠推荐和广告赚了非常多钱。


其它行业呢?


无人驾驶,我最憧憬的产业,结果我现在也闹不清楚到底是传统车企赢,还是互联网会赢,还是充满野心的创业公司会赢。


或者这个产业讲求商战,讲谁赢谁输有意义吗?我们没有增量的时候,反而更加渴望 elon musk,来一打好吧,只会写 ppt 都要,宁愿被割韭菜都不想行业冷下来。


讲真,如果阿里没有电商,只是在传统行业的深水区作战,我铁定不会拿 p8 去平均,我只会拿 p100 去平均。


话说回来,中国年轻韭菜之所以是韭菜,还是内卷论反复的那一套,就是思想里面,刻骨铭心的记忆里就认为,拿着一种武器,把其他人都干翻了,就有白米饭吃。韭菜之不能理解这个世界存在微妙的平衡点,总觉得我们这些老人被优化了,就以为有坑给他们年薪百万了,人人 p8。我也承认世界老人占资源不是好事,我们老人越快被淘汰,行业进步越快,科学就是在葬礼的哀乐里前进。


可悲的是,社会完全是倒过来思考的,老人死得快的行业,年轻人过剩,工资不会高。老人多得行业,资源少,年轻人被压榨,工资也不高。


我是很丧,中国经济增量不行,货币超发,毛衣战。韭菜真的把社会,把公司当成学术界来玩了。。。。也不看看经济学。。。


但是,韭菜们有错吗?我们有必要劝退吗?


实话说,没有,他们只是在这个令人悲伤的时代里,极大化个人利益所能做的最优选择。


10 年前,去投行才是正经道路。做算法算个啥。


换成我,在这个增量红利不知道在哪里的时代,我会比这些韭菜更加向往镰刀。


最后,正经来说。


我们躺学家能做的,不是劝退,躺学已经不打算正面劝退了,每个行业似乎都不好过,劝到哪里都是害人,躺学家们终于深刻认识到,真正的劝退,不是让想爬山的人下山,躺学,是希望在人生的半山腰,给你一座凉亭,让人在不高的地方,欣赏不美的风景。


如果未来的年轻人还有气力,那就继续爬吧,因为这个时代,要继续维持表面的增量,真的需要倾尽我们这代人的力量。



作者:风之翼
https://www.zhihu.com/question/343743405/answer/841326148

此“算法”不同于彼“算法”啊。这一波算法热,主要还是dl带起来的,各种框架简单学一学,经典模型调一调,门槛很低。经典的算法,想要有突破,其实还是很难的。既然楼主问的是研究生,那就从学术圈的角度说说。


学术界现在确实是大跃进的态度,因为,高校对老师的考核就是论文,论文,论文。看看现在一个个传统的CS顶会接连失守,普遍侧重dl,大家拼命拼模型,调参,同质化严重,大部分都是靠实验说明问题,又没法给理论解释,比的就是谁模型花哨,故事讲得好,图做的漂亮。之所以近年来顶会投稿量连年暴增,就是因为大家看到往年收录的文章水平也不怎么样嘛,我也能发。然而从学校老师的角度看,这简直是盛宴,不需要强大的理论基础,不需要严密的逻辑分析,只需要会开脑洞,会写作,会作图,就能发顶会,自己就可以申经费拿帽子。学生也不需要经过经典计算机的训练,也不需要很强,我们组的学生没有一个是计算机科班的,什么机械的,土木的,来了学一周tensorflow就开始看论文,然后就开始天马行空开脑洞。确实顶会发了不少,不乏nips,kdd这种,老板十分高兴,不断营造这种盛世的氛围,不断制造竞争压力,经常说,你看xx会投稿量多少多少了,多火啊,你还不努力就被淘汰了哦,以前一篇A会就可以横行,现在谁不是3,4篇啊,你要是毕业不发个5,6篇,以后怎么竞争啊。可是,我们组的这帮人,连进程,线程都分不清,跑代码从来只用一个cpu核,简单的并行化一下都不会,用gpu一跑就是占满一整块,连tf里面的限制下显存都不会,就更别提别的更深入的计算机知识了(没有嘲笑的意思,这些当然也很容易学习,我只是强调你可以什么计算机基础都不会,就可以当调参侠发顶会)。就这水平的,都手握几篇kdd,aaai啥的了,老板还觉得学生牛。这帮人无论以后当高校老师还是进公司,除了制造内卷,看不出来能给整个AI行业带来什么好的改变。


通过我的描述,是不是感觉DL这一块很像天坑专业?基本具备了天坑专业的必备条件:劳动密集,门槛低(培训三个月就可以上岗),缺乏强理论性和强因果性,文章/引用量泛滥,高校老师乐此不疲地忽悠学生来。虽然有人说,还是跟天坑不同的,毕竟还是学了编程,还是业界需要的技能,比过柱子强,复现/验证个模型也没有开个实验周期那么长,体力劳动上没那么大强度等等,但是,更快的迭代意味着更严重的内卷。


本人也是被16-17年这一波忽悠上船的,之前一直做EE类的科研(不算科研新手,顶会文章也没少发),从来都是理论先行,创新也在理论突破上(说突破太抬举了,很多只是小的改进),实验只是辅助验证,极少出现前人的文章无法复现这种事情(dl已经遍地都是了)。有了对比,才能体会到DL这个圈子里的人(至少在学术界)都病的不轻。幸好我本科阶段辅修过很多计算机的基础课,算是半个科班了,对IT技术和经典的计算机科学依旧十分热爱(这也是促使我转行的一个原因)。做ee给人的感觉是,子方向之间差别很大,你最终会陷入一个非常窄的方向上,然后这个窄圈子里面的人都像是井底之蛙一样,一直守着传统的方法和规矩做科研,不会保持开放的思想来接受新事物。cs虽然也有很多方向,但是,没有ee里面的割裂那么大,很多东西是相通的,大家也乐意持续不断的接受新的思想和技术(这是我喜欢cs的地方)。


当然,不是说把dl一竿子拍死,dl确实有很多值得探索的东西,但是真的不是谁都玩儿的了的。dl想做好,需要很深厚的积累和强大的数理基础。学术界充斥着大量什么都不懂(或者只懂个皮毛),就看着容易发文章,就无脑转方向的老师。他们让学生all in ai,然后,还真的发了很多顶会,有了正反馈以后,继续加大投入,疯狂扩招,一个组里几十人都是正常规模,加重内卷。


很多学生第一次接触科研,就被领上了这条路,以为所有的科研都是这样的开脑洞,调参,写文章,冲顶会,中了就是牛逼,被全组人无脑跪舔,没中就是loser。科研品味都被带坏了。评价科研不是靠文章数量和所谓的顶会,而是看文章的impact。作为对比, 我前老板评上ieee fellow靠的是一篇发在某无名letters上的两页的文章,一共就两个图,说明我设计了个新方案,证明此方案可行。



●编号1042,输入编号直达本文

●输入m获取文章

程序员数学之美

程序员数学学习

锻炼数学逻辑思维

登录查看更多
0

相关内容

在数学和计算机科学之中,算法(Algorithm)为一个计算的具体步骤,常用于计算、数据处理和自动推理。精确而言,算法是一个表示为有限长列表的有效方法。算法应包含清晰定义的指令用于计算函数。 来自维基百科: 算法
【实用书】学习用Python编写代码进行数据分析,103页pdf
专知会员服务
190+阅读 · 2020年6月29日
打怪升级!2020机器学习工程师技术路线图
专知会员服务
96+阅读 · 2020年6月3日
《代码整洁之道》:5大基本要点
专知会员服务
49+阅读 · 2020年3月3日
准备了2个月,终于拿到了推荐算法岗的offer
算法与数据结构
7+阅读 · 2019年5月31日
看完这8本算法好书,才算真正懂了 AI
阿里技术
18+阅读 · 2018年8月15日
我们计划招收300名学员,免费攻读人工智能专业
大数据和云计算技术
3+阅读 · 2018年8月7日
如何入门并成为一名出色的算法工程师?
一个年薪30万的应届生告诉你应该如何学“算法”!
全球人工智能
4+阅读 · 2018年1月23日
机器学习/算法19家公司面试总结(内含薪资)
深度学习世界
12+阅读 · 2017年11月14日
TResNet: High Performance GPU-Dedicated Architecture
Arxiv
7+阅读 · 2020年3月30日
Deep Co-Training for Semi-Supervised Image Segmentation
Real-time Scalable Dense Surfel Mapping
Arxiv
5+阅读 · 2019年9月10日
Learning to Focus when Ranking Answers
Arxiv
5+阅读 · 2018年8月8日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Arxiv
6+阅读 · 2018年1月11日
VIP会员
相关论文
TResNet: High Performance GPU-Dedicated Architecture
Arxiv
7+阅读 · 2020年3月30日
Deep Co-Training for Semi-Supervised Image Segmentation
Real-time Scalable Dense Surfel Mapping
Arxiv
5+阅读 · 2019年9月10日
Learning to Focus when Ranking Answers
Arxiv
5+阅读 · 2018年8月8日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Arxiv
6+阅读 · 2018年1月11日
Top
微信扫码咨询专知VIP会员