最新新闻

ad

何恺明MIT求职演讲现场:提前三小时就有排队,超百页PPT回顾CV发展,

栏目:产业   作者:醉言   发布时间:2023-03-15 16:17 阅读量:18659   

感谢IT之家网友 Sancu 的线索投递!

何恺明 MIT 求职演讲,真成 AI 圈大型追星现场了!

据量子位身处现场的听众朋友传回的消息,有同学提前 3 个小时已经蹲在门口排队了。

到演讲开始前半个小时,门口的队伍据说都打了好几个弯……

后续更正,PPT 不止 129 页

来浅浅感受一下现场的氛围:

此前何恺明回归学界的消息传出,咱们就聊过,这次 Job Talk代表何恺明至少已经通过了 MIT 的简历筛选,研究成果和能力得到了初步认可。

对于这次演讲,何恺明也是准备了超 129 页 PPT,回顾了他在 CV 领域所做的工作,涵盖 ResNet、Faster RCNN、Mask RCNN、MoCO 和 MAE。

在谈到未来工作方向时,何恺明还提到了 AI for Science。

除了关心大神的演讲本身,还有网友注意到了何恺明的最新变化:

何恺明重返学界

目前,尚不能确定何恺明最后是否会和 MIT 成功牵手。但此次演讲,是他寻求教职传闻的靴子落地。

还有网友发现,如果何恺明最终成功入职,那么他将成为 MIT 被引次数最高的人。

目前,MIT 全校被引用次数最高的,是化学与生物医学工程系的重量级教授 Robert Langer,次数为 38 万 +。

而何恺明被引用次数高达 40 万 +。

其中,何恺明最出圈的研究,非 ResNet 莫属,在 2021 年底突破 10 万大关,如今已经涨到 15 万。

ResNet 本身虽为计算机视觉领域研究,但其核心思想残差连接已经跨界成为现代深度学习模型的基本组件。

开启上一次 AI 热潮的 AlphaGo Zero 就是结合了 ResNet + 强化学习 + 蒙特卡洛搜索共同完成。而开启最新 AI 热潮的 ChatGPT,其中的“T”也就是 Transformer 网络中同样使用了残差连接。

在计算机视觉上,何恺明的主要贡献还包括 Faster R-CNN 及后续的 Mask R-CNN 等一系列研究,在很多年都是目标检测的主流方法。

他的近期主要研究兴趣是无监督学习,21 年底提出的 MAE,将语言模型的掩码预训练方法用在视觉模型上,为视觉大规模无监督预训练大模型开路。最近他还将掩码方法引入众多 AI 绘画应用的基础模型 CLIP,把训练速度提升了 3.7 倍。

不过也有知乎匿名用户从现场发来看法:整个 Talk 的质量并不好,何恺明没用一个好的故事把工作串联起来。

这是不是说明就连何恺明也不知道怎么讲好 CV 故事了。

那么,这一次你在现场吗?评论区观后感走起~

免责声明:该文章系本站转载,旨在为读者提供更多信息资讯。所涉内容不构成投资、消费建议,仅供读者参考。

最新内容

ad

热点内容