近日,一篇名为“How OpenAI Sold its Soul for $1 Billion”(OpenAI 是如何因为 10 亿美元出卖自己的灵魂)的文章在 Reddit 上引起了热议。
文章作者 Alberto Romero 抨击知名的非营利机构 OpenAI 为了金钱而出卖自己原有的“为人类造福”宗旨。
OpenAI 成立于 2015 年,创立之初便将自己定位为“非营利组织”,目标是以安全的方式实现通用人工智能(AGI),使全人类平等收益,而不是为公司的股东创造利润。
但在 2019 年,OpenAI 违背了它的初衷,成为了一家名为“OpenAI LP”的营利性公司,由一家名为“OpenAI Inc”的母公司控制。这时,OpenAI 成了一家有利润上限的机构,股东的投资回报被限制为不超过原始投资金额的 100 倍。也就是说,如果你投资 1000 万美元,你最多能得到 10 亿美元的回报。
OpenAI 的结构改了之后,没几个月,微软就注资了 10 亿美元。而微软与 OpenAI 的合作关系,是基于一个重要前提,即微软有权将 OpenAI 的部分技术商业化,比如 GPT-3 与 Codex。今年 5 月末,微软的官方网站便报道了他们用 GPT-3 的技术赋能内部商业产品,为用户服务:
当 OpenAI 因金钱关系与大型商业公司达成合作协议,我们还能相信他们会信守承诺,从全人类的福祉出发来发展人工智能吗?亦或是,技术终将沦为资本的俘虏,情怀也难逃被出卖的命运?
文章作者 Alberto 指出,OpenAI 的技术野心,决定了它难逃要与资本合作的宿命。
作为一个高定位的人工智能研究实验室,OpenAI 的雄心壮志要求它必须获取足够的资源支持,其中,金钱始终是排在第一位。比方说,去年夏天火热全网的 GPT-3,在训练阶段就已花费了大约 1200 万美元:
GPT-3 是一个大规模语言模型,光参数量就已达到 1750 亿。如果不寻求交易,他们很难获得这么雄厚的研究经费。所以,在他们意识到需要投资时,发现微软当时正等着给自己提供云计算服务,交换条件是微软届时能将它们尚未成熟的系统商业化。这时,一方可以获得计算资源,一方可以达到盈利,何乐而不为呢?
早在 2020 年 2 月,麻省理工科技评论的记者 Karen Hao 就发表了一篇文章,探究了 OpenAI 与微软的合作。Karen Hao 在“The messy, secretive reality behind OpenAI’s bid to save the world”一文中明确指出,经过对 OpenAI 内部员工的数次采访,她发现 OpenAI 的公开宣称内容(实现通用人工智能、使人类平均受益)与内部的运营方式存在不一致之处。
为什么一家以造福全人类为基础的公司突然需要大量的私人资金?要知道,从创立之初,Open AI 就获得了马斯克、Sam Altman 与 Peter Thiel(Paypal 创始人)等人 10 亿美元的私人投资。OpenAI 从非营利到营利的转变,不仅引起了公众舆论的不解,也在公司内部遭到了批评。
艾伦人工智能研究所的所长 Oren Etzioni 在得知微软注资 OpenAI 时,当时即表示怀疑态度,称:“我不同意非营利组织不具备竞争力的观点…… 如果规模更大、资金更多就代表(这个机构)会发展地更好,那 IBM 就不会被挤下第一名的位置。”
Vice News 的知名撰稿人 Caroline Haskins 也认为,OpenAI 已经违背了他们当初的使命:“(我们)从来没有试过靠风险投资者来改善人类的命运。”
我们不得不承认,OpenAI 将研究重点放在需要由更大算力与更大数据驱动的神经网络上,这必然需要很多金钱。但是,Alberto 也指出,如 Oren Etzioni 所言,金钱并不是取得最先进的 AI 成果的唯一途径。更多时候,你需要的是极富创造性的想法,而不是靠堆更多的算力,或更多的数据。
2019 年初,已经成为营利性公司的 OpenAI 发布了一个强大的语言模型 ——GPT-2,能够生成达到人类水平的文本。尽管 GPT-2 在当时是一个巨大的飞跃,但也有许多研究人员将其比喻为一只“危险的怪兽”,无法与大众共享。比如,他们担心 GPT-2 会被用来“传播假新闻、垃圾邮件与虚假信息”。
但这份担心很快就被打消。GPT-2 没有被广泛证明有滥用的风险,所以研究人员还是纷纷使用了 GPT-2。
罗格斯大学的教授 Britt Paris 曾评论,GPT-2 的诞生似乎不是为了造福人类,反而像是 OpenAI 利用了人工智能可能会给人类社会带来的恐慌,从而引起媒体的注意。他们认为,GPT-2 并不像 OpenAI 声称的那样强大,但是,从营销的角度来看,他们可以吸引媒体的关注。
如果 GPT-2 没有他们宣称的那么强大,那为什么要让它看起来更危险呢?Alberto 认为,单从这一点来看,OpenAI 就已经没有遵守自己的道德标准。
2020 年 6 月,GPT-3 发布,比 GPT-2 大了 100 倍,更强大,本质上也许更危险。但 OpenAI 似乎认为新系统足够安全,可以与世界分享,所以通过 API 发布。他们设置了一个候补名单来逐个审查访问请求,但这并不能控制系统最终被用于何处。
在“Language Models are Few-Shot Learners”一文中,他们甚至承认,如果 GPT-3 落入坏人之手,可能会带来不好的后果,比如“错误信息、垃圾邮件、网络钓鱼、滥用法律和政府程序、欺诈性学术论文写作和社会工程托辞”,或加剧性别、种族偏见。
论文地址:https://arxiv.org/pdf/2005.14165.pdf
他们认识到问题的存在,但仍然允许用户对系统进行试验。关于通过 API 发布,OpenAI 当时的回应是“支付他们接下来的 AI 研究、安全与政策制定等工作”。
一句话总结,就是说:“负责”保护人类免受 AI 侵害的公司决定让人们使用一个能够造成虚假信息和危险偏见的系统,以便他们可以支付昂贵的维护费用。这还是“对所有人都有价值”吗?
所以,当时社交媒体上很快就出现了关于 GPT-3 可能造成的潜在问题的激烈讨论。Facebook 人工智能研究的负责人 Jerome Pesenti 当时就写了一条推文,在推文中举了一个例子,谈到 GPT-3 可能会生成加剧种族与性别歧视的文本:
UC Berkeley 的计算机系学生 Liam Porr 还用 GPT-3 写了一篇能提高写作效率的文章,与订阅者分享,但没有透露其中的技巧。这篇文章在 Hacker News 上排名第一。如果 UC Berkerley 的大学生都会设法用人工智能编写的作品欺骗所有人,那么一群有恶意的人会做什么呢?
除了传播假新闻,GPT-3 的另一个危害是传播人类无法区分的假新闻。这一点也被 OpenAI 在“Language Models are Few-Shot Learners”一文中认可、甚至强调了:
[M]ean human accuracy at detecting the longer articles that were produced by GPT-3 175B was barely above chance at 52%. This indicates that, for news articles that are around 500 words long, GPT-3 continues to produce articles that humans find difficult to distinguish from human written news articles.
(人类在检测 GPT-3 175B 生成的较长文章时的平均准确率仅略高于 52%。这表明,GPT-3 能够继续生成人类难以区分的、长度约为 500 字的新闻文章。)
今年他们也做了类似的事情。
几周前,OpenAI、GitHub 和微软联合发布了一款编程工具 Copilot,这款工具基于 GitHub 及其他网站的源代码,可根据上文提示为程序员自动编写下文代码!被称为是结对编程的虚拟版本。
结对编程是一种常见的敏捷软件开发技术 —— 即两个开发人员在同一个项目上并肩协作,轮流编写代码并检查合作伙伴的输出。
抛开可能对开发者造成的潜在威胁不谈,这款工具仅发布几天后便遭到了猛烈的抨击,原因是它在未经许可的情况下,使用了公共的 Github 存储库的开源代码。
当时,GitHub 的首席执行官 Nat Friedman 公布这则消息后,Hacker news 上已经有不少网友在讨论,Copilot 可能会存在潜在的法律风险。
比如,一位网友就指出了多个疑问:
AI 生成的代码属于我?还是 GitHub?
生成的代码属于哪个许可证?
如果生成的代码侵权,谁来承担法律责任?
一位从事开源工作的开发者 Armin Ronacher 直接在 Twitter 上分享了一个示例,表明 Copilot 确实存在剽窃版权代码的可能。
下面也有一位网友评论说:“我们也发现 Copilot 直接复制了一段 GPL 代码,这说明它在商业使用上是有风险的。
其实,就算 Copilot 没有逐字复制代码,也会产生一个道德问题:GitHub 或者 OpenAI 等公司是否有权使用数千名开发者的开源代码对自己的系统进行训练,并将这些系统的使用权卖给开发者自己?
一位开发者兼游戏设计师 Evelyn Woods 对此评论说:“他们好像在把开源当成一个笑话!”
OpenAI 现在真正的意图是什么?
Alberto 发出疑问:
难道他们已经与微软的利益捆绑在一起,以至于忘记了最初“造福人类”的宗旨?还是他们真的以为自己拥有最好的工具和人才可以独自开拓这条道路,这是否意味着 OpenAI 出卖了自己的灵魂?他们是按照自己的意愿来建设未来,还是考虑到了更多人?更重要的是,他们是否想从中获取巨额利润?
OpenAI 在迈向更复杂人工智能的道路上占据了主导地位,当然,也有许多其他有潜力的机构在做相关的工作,这些机构并没有与金钱产生直接的联系,因而也受到了外界广泛的关注。
就目前来看,大型科技公司的目标似乎是并不是建立一个满足科学好奇心的通用人工智能,也不是建立一个最安全、最负责、最道德的人工智能。他们的首要任务是赚钱!
当然,这本身并不违法,但在道德上需要警惕,因为他们可能会不惜一切手段去实现目标,而这个过程可能会对大多数人产生不利影响。
之前 OpenAI 联合创始人埃隆・马斯克(Elon Musk)就曾批评其称:OpenAI 应该更加开放!
在 Reddit 上,Alberto Romero 的文章也引起了网友的讨论。
网友纷纷称:OpenAI 早已应该更名为“ClosedAI”。
也许 OpenAI 公司仍在坚持他们最初的使命,但他们也应该意识到:不能为了达到目的而不择手段,因为不合理的手段可能会损害更远大的目标。
毫无疑问,科学家们都希望实现通用人工智能。科学的好奇心是没有限度的,但我们也应该对潜在的风险保持警惕,就像核聚变是了不起的发明,但核聚变炸弹不是。
换一个角度来讲,我们愿意为了实现通用人工智能而付出任何代价吗?至少从道德上,很多人是不愿意的。科学家们或许更应该注意到这一点。
我们正在快速地更新这些深刻改变人们生活的技术。但是,如果只关心自己的利益和目标,无论是 OpenAI 还是其他人,最后都应该对后果承担很大的责任。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“物联之家 - 物联观察新视角,国内领先科技门户”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场。
延伸阅读
版权所有:物联之家 - 物联观察新视角,国内领先科技门户