摘要:似乎在每个广播和媒体大会上,几乎每个小组都会在某个时候讨论人工智能。关于人工智能的会议已经爆满,与主题无关的会议似乎必须提到人工智能才能显得相关。每当有一个话题如此彻底地占据了行业的话题时,我们律师往往会考虑法律影响。我们已经写过几次关于政治广告中的人工智能的
似乎在每个广播和媒体大会上,几乎每个小组都会在某个时候讨论人工智能。关于人工智能的会议已经爆满,与主题无关的会议似乎必须提到人工智能才能显得相关。每当有一个话题如此彻底地占据了行业的话题时,我们律师往往会考虑法律影响。我们已经写过几次关于政治广告中的人工智能的文章(例如,请参阅我们的文章,这里和这里)。毫无疑问,我们将写更多关于这个主题的文章(包括解决我们在这里写的联邦通信委员会关于这一主题的程序中的进一步行动,联邦选举委员会关于其单独的人工智能程序的未决行动,上周的会议再次推迟了对该程序的审议,以及国会关于在政治广告中解决人工智能问题的未决法案)。
我们还写了一些关于人工智能被用来冒充名人和创作与受版权保护的录音过于相似的音乐的担忧(例如,请参阅我们的文章)。在寻找新的创意方式来娱乐观众时,广播公司可能会试图利用人工智能的能力,通过某种形式的人工智能生成名人的声音,让名人在你的电视台上“说”些什么。正如我们在之前的文章中指出的那样,名人在许多州都保护了他们的身份利益,最近有很多活动是由易于访问的生成人工智能的出现引起的,它可以模仿任何人,以扩大对名人的声音、图像和其他可识别特征的保护。还引入了一项联邦《无假法案》,赋予个人更多的声音和肖像权。因此,在使用人工智能方面过于创新显然会引起人们的担忧。
今天,我们将对人工智能在创建和向广播电台提供节目方面的各种用途提出更多警告。这已经发生了,毫无疑问,它的使用在未来将更加普遍。两年前,我们大多数人在看科幻电影时只考虑过人工智能,尽管可以称之为人工智能的技术已经存在了半个多世纪。在广播领域,人工智能不仅被用于反映其在其他行业的用途,包括帮助理解大数据文件并为客户寻找提供建议。但是,这些用途中充斥着隐私和数据安全方面的法律问题,我们可能会在未来解决这些问题。人工智能甚至已经进入了编程领域,这也是今天文章的主题。我们已经看到了为广播电台提供人声DJ的服务,以及为电台服务区域提供本地化本地新闻和信息报道的其他服务。
利用人工智能提供引人注目的本地内容,将广播公司与其数字竞争区分开来,有望帮助广播公司保持与当地社区生存所需的关系,即使在广播预算紧张、难以雇佣员工提供本地服务的时候。如果人工智能能够以更低的成本提供与观众相关的内容,那么对于广播公司来说,这似乎是一个成功的主张。但是,与往常一样,广播公司需要确保他们认识到此类服务带来的风险,并确保他们购买的服务有保障措施,以尽量减少这些风险。此外,如果风险管理不当,他们应该寻求赔偿。
我们首先注意到,广播公司应该谨慎地使用人工智能。使用免费的人工智能工具创建内容会带来特殊风险。风险包括提供给任何公开可用的免费人工智能技术的信息的隐私和安全。由于这些技术大多从平台用户那里“学习”,将其用于专有目的可能会产生风险,即您输入到AI程序中的信息也可能被同一程序的其他用户从中导出。因此,例如,将您的所有销售数据输入免费的人工智能程序,或使用这些系统优化您的编程,很可能会使平台的后续用户(可能包括您的竞争对手)发现一些输入的信息。
人工智能从现有的数字化内容中学习受到一系列问题的影响,即用于训练人工智能的内容的所有者是否有权从人工智能系统的所有者那里获得补偿。这一领域已经引发了数十起诉讼,并引发了立法提案——这些主题尚未解决,值得单独讨论——我们将在未来某个时候加以解决。
但在考虑将人工智能用于节目编排目的时,请注意,免费的人工智能服务也可能不会定期更新新信息。因此,如果你试图使用这些服务来识别你所在市场的相关新闻,该产品可能会立即过时,或者更糟糕的是,它可能会编造一些东西(当我让一个免费的人工智能程序写一个博客总结最近出台的立法时,我就遇到了这种情况,这个博客听起来非常真实,除了它所有的事实信息都错了——它“幻觉”了关于立法的信息)。对我来说,我很快就认识到了这个问题,因为人工智能文章与我所知道的真实信息不符,但在快节奏的广播环境中,如果输出没有经过真人审查,你最终可能会在广播中看到虚假甚至法律上可疑的信息。
但是,无论谁创建AI产品来提供编程服务,如果去除人为因素,都会有陷阱。我已经听到当地电视台运营商报告说,他们的新闻报道已经开始出现在当地广播电台(以及使用人工智能提供的当地新闻服务的其他媒体)上——几乎是逐字逐句地背诵电视台的新闻报道。虽然事实信息本身不受版权保护,但该信息的表达可以受版权保护。当人工智能系统有许多关于当地事件的信息来源时,它可以从多个角度“学习”事件的事实,它可能能够用自己独特的语言合成关于该事件的故事。但是,特别是在当地事件信息来源很少的较小市场中,机器学习可能没有足够的信息来源来创建对事件的独特看法。如果人工智能使用许多与它收集信息的原始故事相同的单词来发回一个故事,而你在你的电视台上播放了这个故事,你可能会被追究侵犯版权的责任。
如果人工智能在没有明确内容指导方针的情况下被释放为直播“主持人”或“人才”,也可能出现问题。我们都听说过人工智能有“幻觉”,当被问及问题时,它会产生虚假陈述——这也是几个月前谷歌的人工智能搜索助手在为用户查询提供不准确(在某些情况下可能存在危险)答案时迅速被禁用的原因之一。同样,如果设立一个人工智能程序,为广播听众提供模拟的现场DJ体验,不仅对播放的音乐发表评论,还对当天的当地事件发表评论,那么根据系统的设置方式,总有可能出现一些幻觉,如果通过空中广播,可能会产生责任问题——无论是违反联邦通信委员会的规定,还是如果人工智能指控当地人没有做的事情,则可能会引发诽谤诉讼。已经有基于人工智能幻觉的诉讼(尽管据我所知,没有针对无线电操作员的诉讼),指控个人犯下他们没有犯下的罪行。
与您购买的任何技术产品一样,获取将用于为您的电台创建内容的任何AI程序的参考。确保提供工具的公司知道自己在做什么,并已采取措施将风险降至最低。查看合同,确保如果提供服务的公司的软件最终将你的编程带到了不应该去的地方,他们会向你提供赔偿。检查你的广播保险单,确保它们不仅在人类播音员在广播中说错话时保护你,而且在非人类人工智能程序犯下这些错误时也保护你。
人工智能为广播公司提供了许多机会,但与任何技术一样,你需要了解使用它的注意事项。随着问题的迅速发展,请关注这一领域的法律发展。
来源:方盒子电视