离谱!裁员裁出新高度

B站影视 日本电影 2025-09-11 20:05 1

摘要:同事把工牌往桌上一扔,群里瞬间炸锅:原来裁员名单是按“顶会数量”排序的,零篇=零缓冲。

“没发NeurIPS,直接走人。

这不是段子,是上周某大厂AI组的真事。

同事把工牌往桌上一扔,群里瞬间炸锅:原来裁员名单是按“顶会数量”排序的,零篇=零缓冲。

神经网络的江湖,卷到论文才算门票。

可论文那么多,到底哪几篇能救命?

把最近能翻到的五篇“硬通货”拆给你看,读完至少知道该往哪跑。

QSD-Transformer:把模型塞进手表

想象把ResNet-50塞进智能手环还能跑ImageNet,这就是QSD-Transformer干的事。

作者把脉冲神经元当开关,1比特权重+熵正则化,模型直接瘦身8倍,功耗砍到1/6。实验室里跑出来的80.3% Top-1,足够让老板闭嘴——毕竟“能跑在纽扣电池上”比“能跑在A100上”性感多了。

OT-Transformer:时间不再是切片

传统Transformer把句子切成一块块token,OT-Transformer偏不。

它把最优传输塞进微分方程,让模型像水流一样连续思考。

实测在点云分类里,离散版掉3个点,它反而涨2个点。

做时序预测的朋友直接喊:这不就是给股价、天气、脑电信号量身定制的吗?

NAS:炼丹炉自动点火

以前调网络像熬中药,一熬三天。

现在把搜索空间写成宏-微两层菜单,GPU自己点菜。

CIFAR-10上刷到97.6%,搜完只要4小时,比前辈快4倍。

更骚的是,搜完的结构直接搬到人脸识别门禁,准确率从92%干到96%,保安大叔以为换了新相机。

compleX-PINN:物理老师开始学AI

PINN原本被吐槽“解方程不如数值法”,compleX-PINN掏出复变函数里的柯西积分,把激活函数改成可学习的“复数弹簧”。

单隐藏层就能搞定传统PINN十层都学不会的湍流。

材料所的同学连夜跑去找导师:以后做电池仿真,是不是可以少啃一周的Fluent?

META:ViT的减肥餐

ViT吃显存像喝奶茶,META给它换了十字形注意力+共享层归一化,推理速度飙1.8倍,显存砍半。

语义分割任务里,Cityscapes mIoU反涨1.3。做自动驾驶的哥们笑疯:终于能在Orin上跑实时了,再也不用半夜偷A100。

彩蛋:硬件也在偷偷卷

QSD-Transformer的脉冲思路,已经被某国产芯片拿去流片,号称“一块电池跑一年”。

META的适配器块,被手机厂魔改后塞进拍照算法,夜景模式出片快了一倍。

论文不是终点,是下一轮内卷的起点。

一句话总结:想在大厂AI岗活过下一轮优化,至少得把上面五篇的GitHub star点到1k以上。

来源:平和处世

相关推荐