摘要:一些人想要让人们相信,人的作品(尤其是说话人自己的作品)具有不能被人工智能生成内容代替的特殊价值,从而维护人类创作者的(尤其是说话人自己的)经济利益、自我认同、价值观,诸如此类。
一些人想要让人们相信,人的作品(尤其是说话人自己的作品)具有不能被人工智能生成内容代替的特殊价值,从而维护人类创作者的(尤其是说话人自己的)经济利益、自我认同、价值观,诸如此类。
然而,这些人要么未能从使用价值上、从成本效益上、从美学上找到有说服力的理由,要么找不到适当的表达方式。
于是,他们诉诸虚无缥缈的“灵魂”或这问题下的一些回答复读的“感情”,想要靠共情、靠情绪乃至靠迷信说服一部分人。
另一些人在参与传播这类说法。这些人有的是被这类说法说服了、真的相信如此,有的只是人云亦云,有的利益相关,诸如此类。
我认为这类说法没有说服力。这和声称机器织的布没有灵魂具有同样的模式。实际上,人们经常难以有效地辨认人类作品和人工智能生成内容,误信机器生成的、水平并不高的虚假信息。可以参考这个收藏夹里的内容: 大模型编的
要让人对人工智能生成内容产生情绪、发生共情、进行代入之类,不需要让人工智能“理解”人的感情。朝阳、晚霞、风雨雷电、极光、沙丘、大海、月球、地球等事物都没有感情,这不影响地球上到处有人对它们大发感慨。况且,人工智能可以运用数据体现的、关于人的感情的统计规律,在结果上,人工智能可以比很多人更理解人的感情。
人工智能按照统计数据拼凑字词、像素、画面等要素,由此产生的人工智能生成内容携带的大多数模因是从人提供的数据继承的,少数创新主要来自错误,这和人的创新具有高度相似的模式。由于人对数据和数据的处理方式进行了选择、对输出进行了规范,人工智能生成内容往往具有超出人类生成内容的平均水平的质量。今后,人工智能生成内容的质量还会在能源效率可接受、边际成本尚未失控的范围内进一步改善——如果读者对此有不同看法,那么我们可以改为谈论人工智能拼凑出来的东西含有信息、不时含有人们还没尝试过的新信息,内含价值理论认为这样的东西有价值。
而且,人能够对人工智能生成内容进行编辑。如果你认为人创作的无论质量如何的作品有什么“灵魂”,那么人工编辑可以为人工智能生成内容注入“灵魂”。
2025 年 7 月 2 日发表于的一项研究称,基于 Llama 3.1 70B、用心理学数据集 Psych-101 微调的大语言模型 Centaur(半人马)可以在 32 项实验任务中的 31 项比过去的心理学模型更好地模拟人类受试者给出的选择,在变体任务中有类似的表现,或许能在任何使用自然语言的实验中生成类似人的行为。 https:// doi.org/10.1038/s4158 6-025-09215-4
一些学者并不感冒:
加拿大麦吉尔大学的计算神经科学家 Blake Richards 认为,该模型没有真正模拟人类的认知过程,不会总能产生与人类行为一致的结果。 英国布里斯托大学的认知科学家 Jeffrey Bowers 称,该模型在短期记忆测试中能够一次记住 256 个数字(人通常可以记住约 7 个),该模型在反应时间测试中的反应时间为毫秒级,这些都和人大相径庭。 马克斯·普朗克研究所的 Federico Adolfi 认为,Psych-101 不足以对应更严格的测试。对此,论文作者提出将来会使用明显更大的数据集。
读者不难注意到这些反对意见的模式,其中还有“你这个模型的一些认知表现比人强所以不能良好模仿人”的经典陈述。
来源:智慧芯片一点号