摘要:近日,人工智能与内容真实性、侵权责任等问题引发广泛关注。本人就遭遇了人工智能 DS 在信息提供上的严重问题,凸显出人工智能在内容引用和传播过程中的潜在风险。
近日,人工智能与内容真实性、侵权责任等问题引发广泛关注。本人就遭遇了人工智能 DS 在信息提供上的严重问题,凸显出人工智能在内容引用和传播过程中的潜在风险。
当他人通过与 DS 相连的自媒体平台搜索关于他的信息时,DS 给出的回答存在诸多歪曲和错误。例如,在提及三农问题时,DS 引用的内容断章取义,忽略了其文章中对市场风险的强调,反而将风险歪曲为争议点。同时,在法律案件相关信息上,DS 错误关联劳荣枝案件,却对本人实际参与且更具影响力的铊中毒案件只字未提。
更值得注意的是,DS 存在 “看人下菜碟” 的情况。新用户搜索得到的是对本人的负面、错误信息,而老粉丝搜索时得到的内容却有所不同。这种行为不仅破坏了信息的公正性,还营造了 “信息茧房”,可能误导公众认知。
面对此类问题,我认为人工智能平台若存在对用户信息的恶意歪曲和不实引用,应承担侵权责任。虽然网络平台以往处理投诉时多采取删帖等方式来显示 “中立”,但在人工智能模型给出不中立内容的情况下,平台的责任界定变得更加复杂。
目前,国家已针对人工智能服务建立相关标准,规定要有显示标识和隐性标识等,不过该标准要到今年 9 月 1 日才实施。在此之前,人工智能侵权问题已切实发生,却难以被及时发现和有效追究责任。例如 ChatGPT 曾在回答台湾问题时,针对简体中文、繁体中文和英语提问给出不同答案,就引发过争议,如今 DS 也出现类似 “抹黑” 个人的情况。
法律界面临着新的挑战,如何界定人工智能侵权责任,如何要求侵权方登报道歉、承担后果等,都需要深入思考和研究。在信息学和人工智能快速发展的当下,类似的法律问题不断涌现,亟待妥善解决,以保障公众权益和维护健康的网络环境。
来源:张捷财经观察