摘要:同事把工牌往桌上一扔,群里瞬间炸锅:原来裁员名单是按“顶会数量”排序的,零篇=零缓冲。
“没发NeurIPS,直接走人。
”
这不是段子,是上周某大厂AI组的真事。
同事把工牌往桌上一扔,群里瞬间炸锅:原来裁员名单是按“顶会数量”排序的,零篇=零缓冲。
神经网络的江湖,卷到论文才算门票。
可论文那么多,到底哪几篇能救命?
把最近能翻到的五篇“硬通货”拆给你看,读完至少知道该往哪跑。
QSD-Transformer:把模型塞进手表
想象把ResNet-50塞进智能手环还能跑ImageNet,这就是QSD-Transformer干的事。
作者把脉冲神经元当开关,1比特权重+熵正则化,模型直接瘦身8倍,功耗砍到1/6。实验室里跑出来的80.3% Top-1,足够让老板闭嘴——毕竟“能跑在纽扣电池上”比“能跑在A100上”性感多了。
OT-Transformer:时间不再是切片
传统Transformer把句子切成一块块token,OT-Transformer偏不。
它把最优传输塞进微分方程,让模型像水流一样连续思考。
实测在点云分类里,离散版掉3个点,它反而涨2个点。
做时序预测的朋友直接喊:这不就是给股价、天气、脑电信号量身定制的吗?
NAS:炼丹炉自动点火
以前调网络像熬中药,一熬三天。
现在把搜索空间写成宏-微两层菜单,GPU自己点菜。
CIFAR-10上刷到97.6%,搜完只要4小时,比前辈快4倍。
更骚的是,搜完的结构直接搬到人脸识别门禁,准确率从92%干到96%,保安大叔以为换了新相机。
compleX-PINN:物理老师开始学AI
PINN原本被吐槽“解方程不如数值法”,compleX-PINN掏出复变函数里的柯西积分,把激活函数改成可学习的“复数弹簧”。
单隐藏层就能搞定传统PINN十层都学不会的湍流。
材料所的同学连夜跑去找导师:以后做电池仿真,是不是可以少啃一周的Fluent?
META:ViT的减肥餐
ViT吃显存像喝奶茶,META给它换了十字形注意力+共享层归一化,推理速度飙1.8倍,显存砍半。
语义分割任务里,Cityscapes mIoU反涨1.3。做自动驾驶的哥们笑疯:终于能在Orin上跑实时了,再也不用半夜偷A100。
彩蛋:硬件也在偷偷卷
QSD-Transformer的脉冲思路,已经被某国产芯片拿去流片,号称“一块电池跑一年”。
META的适配器块,被手机厂魔改后塞进拍照算法,夜景模式出片快了一倍。
论文不是终点,是下一轮内卷的起点。
一句话总结:想在大厂AI岗活过下一轮优化,至少得把上面五篇的GitHub star点到1k以上。
来源:平和处世