OpenAI转型:“公益公司”是最终答案?

B站影视 2025-01-13 12:19 2

摘要:2024年12月27日,OpenAI官网发布声明,宣布其将从“非营利主导营利公司”的结构中脱离出来,并新建一家可盈利的、注册于特拉华州的公益公司(Public Benefit Corporation,PBC)。

要AI造福人类,首先人类要抵抗金钱的诱惑

距离高层宫斗过去一年,OpenAI治理模式之争的靴子终于落地。

2024年12月27日,OpenAI官网发布声明,宣布其将从“非营利主导营利公司”的结构中脱离出来,并新建一家可盈利的、注册于特拉华州的公益公司(Public Benefit Corporation,PBC)。

当然,非营利组织的部分仍然存在。但原有的两个主体OpenAI Nonprofit和OpenAI LP之间的关系将从上下级变为并驾齐驱,且主要业务将由新成立的公益公司掌握。

一年前那次闹得满城风雨的“宫斗”,很大程度上也源于OpenAI的话事人们对于其商业目标和非营利初心之间的争论。毕竟,人工智能研发是非常烧钱的工程,仅靠慈善资金难以为继。可如何在获得足够资金来投喂研究的前提下,还能“抵抗金钱的诱惑”,守住最初的那个“让AI造福人类”的目标?

这是一个两难的问题,那么,选择成立一家公益公司,会是最终的答案吗?

与理想渐行渐远

2015年,OpenAI刚成立的时候,曾经被视作行业灯塔。

在人工智能赛道,科学家们的目光已经不止停留在利用这一技术去实现图像改造、声音复制等简单的任务。他们未来的愿景,是开发出通用人工智能(AGI),理想中的它将拥有与人类比肩的思维能力,能够在多个领域执行任务、思考并产生创新,大家熟悉的聊天AI如ChatGPT,或是通往AGI的重要一步。

而OpenAI有着更大的野心,不仅想做AGI的创造者,还希望能够做出一套安全可控的框架,避免拥有高智慧的人工智能引发危机。

相信自身有这个能力,是因为OpenAI的联合投资者们,确实是一群世界顶尖的科技大佬。除了现任的CEO山姆·奥特曼,早期的投资成员还包括著名投资人、PayPal联合创始人彼得·蒂尔,埃隆·马斯克,以及在科技界炙手可热的鲍勃·麦格鲁、伊尔亚·苏茨克维。他们把目标定为“以最有可能造福全人类的方式,推进数字智能,无需受到盈利目标的约束。”

宣布OpenAI成立那天,官网的第一篇文章这样写道:“AI的发展日新月异,很难预测什么时候会出现类人级别的AI。等它真的出现时,人类必须拥有一个领先的研究机构,让人工智能能够以产生有益社会的成果为重,而不是只考虑自身的利益。因此,我们希望OpenAI可以发展成为这样的机构。作为非营利组织,我们的目标是为所有人创造价值,而不是只考虑股东的利益。我们会鼓励研究人员发表成果(论文、博客文章、代码等),如果我们有了专利,也会和全世界共享。我们还会和其他相关机构或企业合作,来展开研究和新技术的应用。”

怀着崇高的理想,OpenAI选择以非营利组织的身份出现。它最初的启动资金,也来源于联合投资者们及亚马逊、微软、谷歌等公司的捐款。

但随着AGI研发工作的推进,科学家们开始发觉,研究比他们想象的还要烧钱。

伊尔亚曾在2017年的内部邮件里提到,如果OpenAI还想实现自己的雄心,就必须保证在技术上持续领先,而这需要大量增加GPU(图形处理器)和员工人数来支撑,GPU从600个增加到5000个,员工从55人扩大到200人。据伊尔亚估计,OpenAI每年起码要烧掉十亿美元。

事实证明,他们还是太过乐观。到了2018年底,预估的成本增加到一年大约100亿美元,仅靠无回报的捐款,研究将难以为继。OpenAI开始考虑重新规划公司的发展模式。

2019年,OpenAI做了第一次转型:创立了营利性公司“OpenAI LP”,置于原有的非营利组织(OpenAI Nonprofit)之下。

这两个实体之间,存在上下级的管辖。OpenAI LP被允许赚钱,但规定了利润的上限——首轮投资者的回报上限是其投资额的100倍,超出这个限额的利润,则全部归上一级的非营利机构所有。此外,营利公司的所有投资者和员工都要签署协议,承诺公司必须遵守非营利组织设置的章程,并且在必要时,做好牺牲盈利的准备。

转型之后,OpenAI很快就获得了来自微软的10亿美元投资,后来又获得了更多的投资方支持。2020年,他们发布了自己的第一款产品:OpenAI API(应用程序编程接口),程序员可通过此接口访问OpenAI的大模型,以开发自己的应用程序。

2022年,ChatGPT横空出世,轰动全球。

但是在OpenAI转型之后,来自公司内外的批评声不绝于耳,大部分指责其向商业妥协、背离初心。2020年底,当时担任要职的阿莫迪兄妹,也就是研究部门副总裁达里奥·阿莫迪和安全政策部门副总裁丹妮拉·阿莫迪出走,并在第二年创立了另一家AI公司Anthropic,与OpenAI分庭抗礼。

分歧在2023年再次集中爆发,最终以山姆·奥特曼的回归告终。一批对其经营理念不认同的成员当即出走,而留下来的团队则筹划着进一步改革自身模式。

这一次,他们认为有必要彻底跨过营利与否的门槛。

成立公益公司

OpenAI的新选择是公益公司(PBC)。

为了公司有足够的空间伸展拳脚,他们先对整体的结构做了调整:不再设置盈利上限,也不再要求非营利组织管辖PBC。

“PBC将掌握OpenAI的运营和核心业务,而非营利组织将聘请团队,在医疗保健、教育和科学等领域开展慈善活动。”官网这样解释。这意味着此前有上下级关系的两个实体,将各自独立地展开工作,彼此再无制约。

在声明中,OpenAI表示,要实现公司持续运营、经久不衰,还要同时推进AGI造福全人类的使命,PBC和非营利组织并行的结构,是他们当下认为的最佳方式。

公益公司(PBC)是美国《公司法》中的一种概念。它仍是营利性企业,需要对股东的利益和利润负责,但它和传统公司最大的区别,就是必须把公共利益和社会使命纳入考量。通常,PBC必须定期向股东报告其社会责任履行情况,并进行公开披露,否则股东有权问责。值得关注的是,成为公益公司,并不能享受任何税收优惠。

这和发源于英国的“社会企业(Social Enterprise)”有些相似,但社会企业泛指“运用商业手段,实现社会目的的企业”,囊括范围更大。

而公益公司,则可以看作是美国《公司法》为社会企业划定的具体运转模式。2010年,马里兰州在全美第一个通过PBC法,目前美国有36个州及华盛顿特区,已通过了PBC的相关立法。

PBC的典型代表是美国的户外服装品牌Patagonia,这家企业从1985年开始,每年都会捐出1%的销售额支持环保组织,累计捐赠额已经超过1亿美元。2022年,创始人伊冯·乔伊纳德宣布放弃对这家市值30亿美元公司的所有权,将它“捐”出去,由信托基金和非营利组织共同管理,以更好地开展环保行动。

从法律角度,只要满足条件就可注册成立公益公司,但为了对PBC进行规制,美国社会和企业自发形成了一套认证流程,即由社会组织B Lab进行资质审核,通过的企业将会得到一份证书,成为“B Corp(国内通常译为‘共益企业’)”。

这次OpenAI公益公司的注册地特拉华州,也是不少PBC会选择的“出生地”,特拉华州本身就有灵活且完善的企业法,对经商者非常友好。2013年7月,随着该州公益公司相关法律的出台,创业者们终于可以“鱼与熊掌兼得”,在享受特拉华的优惠政策同时,选择更有利于社会责任的公司结构。

为鼓励更多企业转型以关注公共利益,特拉华州曾两次降低PBC的准入门槛,目前的法律要求PBC在成立时取得半数以上的股东同意,在公司宗旨中需明确希望促进的公共利益,并要求至少每两年向股东报告一次成果。

对于OpenAI而言,成为公益公司后,尽管需要在股东的利益回报和AI社会利益议题之间寻求平衡,但摆脱了非营利的规制,将能像普通公司那样获得融资,填补资金缺口。

AI规制,前路漫漫

OpenAI的这次转型又在业内引发了激烈讨论。

曾经在该公司工作六年、担任过安全政策高级顾问的迈尔斯·布伦达奇(Miles Brundage),第一时间就在社交媒体上表达了他的看法。

“AI的确烧钱,当年OpenAI成立时,行业烧钱程度还没那么明显。所以对结构进行调整和简化是合理的。”他写道,“但我仍然有比较大的担忧。因为保留一个非营利组织进行慈善活动,并不意味着PBC就能在遵循其社会使命的轨道上前进。那么除了董事会,这家公司还有哪些措施和结构设置,能保障自身不轻易脱轨呢?”

在他看来,目前OpenAI所公布的公司转型方案,仍然缺乏具体的治理细节。他还指出,OpenAI非营利组织未来所关注的领域,和其最初宏大的愿景相比,已缩小了很多,且并未强调在AI安全政策相关领域的投入。

公益企业的确是得到普遍认可的一种企业模式,在人工智能研发行业也不例外——Anthropic和Inflection AI已经先于OpenAI注册成为了公益企业。但问题在于,获得法律认可的PBC身份后,公司究竟要依照怎样的规则进行自治,来确保其公共利益目标的达成?

对于人工智能研发领域的公司来说,要实现这一目标,恐怕面临的挑战相较其他公司更为艰难,其原因在于新科技面临的巨大风险和不确定性:2023年5月,OpenAI、Google DeepMind、Anthropic三家世界顶尖的人工智能公司高管,曾经与350多名行业人员一同签署了一封公开信。

信的内容很短,但警告意味强烈。它指出,全球目前的首要任务之一,是大家必须一起想办法,降低人工智能的风险。否则,AGI能够引发的危机将是“毁灭性”的,堪比传染病大流行或核武器战争所带来的灾难。

这指向两方面的担忧。第一,人工智能的性能极速发展,安全性的研究却难以跟上其步伐,如何保障AGI能够为人所用、造福社会,而不是产生无法预估的危害?

第二,掌握新技术可以带来庞大的权力。为了防止某一个AI商业公司一家独大、为所欲为,未来该用怎样的治理手段进行制衡?

两个问题目前都没有公认的答案。因此,未来,无论是OpenAI的公司治理细节,还是其产品方案,都如迈尔斯所言,仍然是未知数。

但或许存在一份可参考的路径——阿莫迪兄妹成立的Anthropic,已经先于OpenAI做了探索。自2021年创办以来,Anthropic就着重专注于AI的安全研究。

媒体曾笑称他们是“AI末日论的中心”。由他们开发的AI聊天机器人Claude,仿佛拥有一个古板老学究的人格,聊起天来总是显得非常紧张,放不开手脚。

“虽然它客观上是做出了正确的决定,但会显得很枯燥且爱说教,”《纽约时报》专栏作家凯文·鲁斯写道,“每次我引导它说点不正经的话,它都会对我进行一番道德教育。”

但对于Anthropic的这份谨慎,学界普遍认为,对安全承诺的恪守,实际上是一种更加对社会负责任的态度。

这家公司在成为PBC之后,也开创了一套全新的治理模式,名为“长期利益信托(Long-Term Benefit Trust ,简称LTBT)”。这套模式在公司之外再设立一个独立的信托基金机构,由五名受托人组成,他们必须具有人工智能安全、国家安全、公共政策和社会企业领域的背景及专业知识,代表社会和公共利益发声。

信托机构会获得拥有决策权的“T类”股票,有权任免一部分董事会成员。同时董事会也必须新设一个额外席位,由C轮融资及后续投资者推举产生,以在董事会中代表投资者进行利益考量。Anthropic试图通过这样的模式,在股东利益和社会利益之间达成平衡,也希望通过外部中立力量制约人工智能科技发展所产生的权力。

AI规制还有漫漫长路要走,仅仅依靠“公益公司”的制度,恐怕还不足以解决背后的难题。在人工智能彻底变革时代之前,业界和学界认为,必须发动地球上的“最强大脑”们思考、打磨出一套合适的制约方案了。也正因为如此,未来OpenAI究竟会给出怎样的解题思路,值得期待。

来源:中国慈善家

相关推荐