“无法将精灵推回瓶子里”:读者认为,阻止人工智能的发展已经太晚了

B站影视 电影资讯 2025-10-17 19:26 1

摘要:人类是否应该在人工智能(AI)危及人类生存之前对其踩下刹车?随着这项技术不断改变各行各业和日常生活,公众舆论对其未来的看法也出现了严重分歧,尤其是在能够匹敌人类智能的人工智能模型前景日益明朗的情况下。

超过 1,700 名读者参与了一项民意调查,其中 30% 的人认为停止人工智能 (AI) 的发展为时已晚。

人类是否应该在人工智能(AI)危及人类生存之前对其踩下刹车?随着这项技术不断改变各行各业和日常生活,公众舆论对其未来的看法也出现了严重分歧,尤其是在能够匹敌人类智能的人工智能模型前景日益明朗的情况下。

但是,当人工智能超越人类智能时,我们该怎么办?专家将这一时刻称为“奇点”,这是一个假设的未来事件,届时技术将超越通用人工智能(AGI),成为能够不断自我改进并摆脱人类控制的超级智能实体。

在9月5日发布的一项民意调查中,读者被问及是否应该允许人工智能达到这种智能水平。截至撰写本文时,已有1787位读者做出回应。其中,46%的读者认为我们必须立即停止人工智能的发展,因为它构成威胁的风险太大;30%的读者认为我们应该推迟其发展,直到制定出适当的保障措施。只有9%的读者认为这项先进技术的益处大于风险;5%的读者认为它根本不重要,因为我们永远无法达到奇点。

大多数读者在评论中认为,我们已经走得太远,甚至没有考虑延缓超级人工智能的发展轨迹。“太晚了,谢天谢地,我老了,活不到看到这场灾难的后果了,”凯特·萨金森写道。

与此同时, CeCe回应道:“我想每个人都知道,不可能再把那个精灵推回瓶子里了。”

其他人则认为对人工智能的担忧被夸大了。一些人将对人工智能的保留与公众对过去技术变革的担忧进行了比较。“每一项新兴技术都会有反对者、批评者,甚至常常会有疯子。人工智能也不例外,”佩格说道。

Instagram 的一些粉丝也认同这一观点。“你相信吗?当电刚刚出现时,很多人也问过同样的问题?人们对它非常恐惧,并做出了各种可怕的预测。其中大多数都成真了,”alexmermaid tales写道。

其他人则强调了这个问题的复杂性。“这是一场国际军备竞赛,相关知识就在那里。目前还没有好的办法阻止它。但即使人工智能只是简单地将我们挤出去,我们也需要小心(即使人工智能还没有超越人类智能或达到通用人工智能,数百万甚至数十亿的人工智能代理也可能对人类构成巨大的取代风险)。” 3jaredsjones3写道。

评论继续写道:“像英伟达这样的公司试图用人工智能取代所有员工,因此采取保障措施是必要的。尽管如此,人工智能给科学、健康、粮食生产、气候变化、技术、效率和其他关键目标带来的益处,或许可以缓解部分问题。它是一把双刃剑,既有极高的潜在回报,也蕴藏着更高的风险。”

一条评论建议采取监管措施,而不是彻底叫停人工智能。Isopropyl建议:“对封闭权重的 LLM(大型语言模型),包括训练和推理,征收重税,并且不对输出内容提出版权主张。同时,对更大规模的模型训练征收累进税,使其易于在消费级硬件(而非 HPC)上部署,并进行扩展。”

相比之下,他们建议规模较小、专业化的法学硕士学位可以由消费者自己管理,不受公司控制,以“帮助广大公众与人工智能建立更健康的关系”。

“这些都是好主意。如果能将追求通用人工智能的动力转移到让现有资源更实用上,那就太好了。” 3jaredsjones3回应道。

你怎么看?人工智能应该继续发展吗?请在下方评论区分享你的观点。

来源:科学从未如此性感

相关推荐