摘要:通过资助"人工智能道德"研究,OpenAI 正在涉足复杂的领域。OpenAI 的非营利机构 OpenAI 向杜克大学(Duke University)的研究人员提供了一笔名为"人工智能道德研究"(Research AI Morality)项目的研究经费。 这项
通过资助"人工智能道德"研究,OpenAI 正在涉足复杂的领域。OpenAI 的非营利机构 OpenAI 向杜克大学(Duke University)的研究人员提供了一笔名为"人工智能道德研究"(Research AI Morality)项目的研究经费。 这项工作隶属于一项更大的计划,该计划在三年内提供 100 万美元,用于研究如何让人工智能具有道德意识。
该项目由实践伦理学专业教授沃尔特-辛诺特-阿姆斯特朗(Walter Sinnott-Armstrong)和雅娜-斯凯奇-博格(Jana Schaich Borg)领导,两人在人工智能如何处理道德决策方面的工作都得到了认可。 辛诺特-阿姆斯特朗(Sinnott-Armstrong)在哲学领域大名鼎鼎,他深入研究了应用伦理学、道德心理学和神经科学等领域。 他在杜克大学的团队致力于解决现实世界中的两难问题,例如设计算法来决定谁应该接受器官移植,权衡公众和专家的观点来完善这些系统的公平性。
由OpenAI资助的项目旨在创建一种算法,预测人类在医学、法律和商业等领域的道德判断。 虽然这听起来很有希望,但历史表明这并非易事。 以艾伦人工智能研究所的 Ask Delphi 为例,它旨在提供道德答案。 虽然它能够解决简单的两难问题,但只需改变问题的措辞,就很容易被诱骗做出道德上可疑的回答。
局限性源于人工智能的运行方式: 机器学习模型根据训练数据预测结果,而训练数据往往反映了主流文化的偏见。 这一问题引发了人们对人工智能能否真正"合乎道德"的极大担忧,尤其是在不同社会的道德观各不相同,且缺乏普遍接受的框架的情况下。
人工智能能否以有意义的方式与人类价值观保持一致,甚至是否应该保持一致,仍然是一个悬而未决的问题。 但是,如果能做到这一点,其影响可能是深远的,它将影响我们在道德决策中如何信任机器。 现在,世界可能要等到 2025 年,也就是这项基金结束时,才能知道这个"道德人工智能"项目是否取得了突破性进展。
来源:cnBeta