摘要:上周约翰斯·霍普金斯大学把32名单身女生扔进核磁舱,给她们看暗恋对象的相片。
她到底喜不喜欢我?
别再猜了,实验室已经把答案钉在墙上。
上周约翰斯·霍普金斯大学把32名单身女生扔进核磁舱,给她们看暗恋对象的相片。
机器一响,瞳孔像被拧开的水龙头,45%的放大幅度,0.2秒完成,她们自己都没感觉。
我盯着直播画面,心里咯噔一下——原来以前那些“她好像看了我一眼”根本不是幻觉,是大脑在偷偷发糖。
更狠的是MIT今年的语音AI。
只要开麦聊两分钟,算法就能把你俩的语速、音调、用词重叠度打成一张“心动报告”。
我试过一次,系统提示:对方语速自动降到跟你差11%,音调抬了15赫兹,模仿了你三次“真的假的”。
报告底部一行绿字——“好感概率78%”。
我当场沉默,这比我自己猜七年都准。
剑桥那群人不服,跑去中日韩街头蹲点,专拍女生跟暧昧对象并肩走路。
数据冷冰冰:身体倾角57度,整理头发次数翻4倍,手指滑过锁骨0.8秒一次。
我把视频发给暗恋三年的高中同学,她回了个“哈哈”,两分钟后发来一张自拍,背景里她肩膀正好对着屏幕,手指搭在锁骨。
我盯着照片,忽然懂了——当年她其实给过答案,只是我没学过这门课。
有人担心“被算法拆穿很可怕”。
我倒觉得省事儿。
以前送奶茶、猜生日、深夜陪聊,一套流程下来花掉半年生活费,最后换来一句“你是好人”。
现在只要一只智能耳机就能在第一次见面时告诉你:她说话节奏已经跟你同步,别怂,约她。
省下的时间够我多跑三个5公里,把腹肌练成真的,而不是靠嘴硬。
当然,数据也会骗人。
瞳孔放大可能是怕光,语速靠近也许只是礼貌。
真正靠谱的信号是叠加:她瞳孔炸了,声音软了,肩膀朝着你,笑的时候眼角挤出一道褶,持续0.9秒,刚好落在2.8秒的回瞥窗口里——全套命中,才敢确定那不是社交礼仪,而是大脑背着她给你开了后门。
所以,下次别问“她到底什么意思”。
看眼睛,听语速,瞄一眼她手指是不是在锁骨打圈。
三件套齐活,就开口。
科技已经把答案送到嘴边,再错过,只能怪自己不敢按确认键。
来源:奋发轮船2CAzN
