·虽然技术是实打实的,但围绕它的金融泡沫正在迅速扩大。投资者大肆押注,认为生成式AI可能会像微软Windows 95或第一部iPhone一样撼动市场。但这种疯狂的淘金热也可能演变成灾难。在一场赢家通吃的权力争夺战中,大型科技公司及为其提供风险资本的支持方有可能重蹈覆辙,引发像社交媒体一样的问题。
·不同的地方在于,AI背后的技术对消费者来说已经有实际用处,并且其技术能力正以惊人的速度优化。正是这种巨大的力量,让当下时刻如此震颤人心,也如此危险。
【编者按】“支持者认为这仅仅是个开始:生成式AI将再次改变我们工作的方式、我们与世界交互的方式,激发创造力和科学发现,并让人类实现以前无法想象的壮举。”2月16日,《时代》周刊发表封面文章,关注由ChatGPT带火的AI领域——生成式人工智能。
这篇标题为“人工智能军备竞赛正在改变一切”的文章,尽管强调了生成式AI的重要意义:标志着自社交媒体产生以来最重要的技术突破,但也指出了它带来的危险。
文章作者之一安德鲁·R·周(Andrew R. Chow)在该媒体的Newsletter中写道,他和另一位文章作者比利·佩里戈 (Billy Perrigo) 非常担心,微软和谷歌等大型科技公司推出人工智能技术的速度令人眼花缭乱,陷入了人工智能霸权的争夺战。“在优先考虑增长和速度的过程中,大型科技公司冒着在AI中犯下与社交媒体兴起时相同错误的风险。”他写道,当时本应带来受欢迎的、前所未有的人与人之间联系的平台们,变成了为广告进行优化的地狱景观。
值得一提的是,《时代》周刊特别在封面注明这两位作者是“人类”。
以下为这篇文章的内容,由澎湃科技(www.thepaper.cn)编译:
最新一期封面里《时代》与ChatGPT对话的文字:
ChatGPT:你好啊!今天我能帮到你什么忙?
《时代》:你觉得给《时代》周刊的封面文章起一个“AI军备赛正在改变一切”的标题,怎么样?
ChatGPT:作为一个AI语言模型,我不持有个人观点或信仰,但关于这个问题我可以提供一些背景和信息。
“AI军备赛正在改变一切”作为一个关于AI的封面文章的标题,可能可以吸引读者的关注,引人思考。《时代》周刊这样被广泛阅读的出版物上的封面文章,可以帮助加强公众对这一趋势潜在风险和好处的认识,并引发大众讨论如何以负责任和道德的方式开发、部署AI。
需要注意的是,文章的标题也可能被解读为耸人听闻或危言耸听,可能无法准确反映复杂的情况。
创造是人类的天性。在过去30万年间,我们在创造艺术、美食、宣言、社会的能力方面一直是独一无二的:我们在前所未有的领域设想和创造新东西。
现在我们有伴了。当你在读这句话的时候,人工智能(AI)程序正在绘制宇宙画像,回复电子邮件,做报税准备,录制金属摇滚。它们正在写演讲稿,调试代码,勾画建筑蓝图,并提供健康建议。
人工智能已经对我们的生活产生了无处不在的影响。AI被用来为药品和房屋定价,组装汽车,决定我们在社交媒体上看到什么广告。但是,生成式AI,是一类可以通过指令创造全新内容的系统,它的出现要新得多。
这一转变标志着自社交媒体产生以来最重要的技术突破。近几个月来,好奇、震惊的公众如饥似渴地使用生成式AI工具。这要归功于ChatGPT和Dall-E这样的程序。前者对几乎任何查询都能做出连贯的回应(但不一定总是准确),后者则能呈现出任何你想象出的图像。今年1月,ChatGPT的月用户数达到1亿,比Instagram或TikTok的用户增长速度更快。数百个同样惊人的生成式AI正在争抢用户,包括Midjourney、Stable Diffusion和GitHub的Copilot,用户可以使用这些AI工具将简单的指令变成计算机代码。
支持者认为这仅仅是个开始:生成式AI将再次改变我们工作的方式、我们与世界交互的方式,激发创造力和科学发现,并让人类实现以前无法想象的壮举。普华永道的预测者预测,到2030年,AI可促进全球经济增长超过15万亿美元。
这股热潮似乎把那些在AI领域投资了数十亿美元的科技公司都打了个措手不及——并在硅谷引发了一场激烈的军备竞赛。在短短几周内,微软和Alphabet旗下的谷歌已经改变了公司的整体战略,以夺取他们认为将成为经济新基础设施的控制权。微软向ChatGPT和Dall-E的创造者OpenAI投资100亿美元,并宣布计划将生成式AI整合于其办公软件和搜索引擎必应。为了与ChatGPT竞争,谷歌宣布了一个企业级紧急预警,并推出自己的搜索型聊天机器人巴德(Bard)。微软首席执行官萨蒂亚·纳德拉(Satya Nadella)2月7日说,“比赛从今天开始”,向谷歌抛出了挑战。“我们要行动,而且要迅速行动。”
华尔街也做出了类似的热烈反应。分析师们提升了那些在计划中提到AI的公司的股价,并惩罚了那些发布不可靠AI产品的公司。虽然技术是实打实的,但围绕它的金融泡沫正在迅速扩大。投资者大肆押注,认为生成式AI可能会像微软Windows 95或第一部iPhone一样撼动市场。
但这种疯狂的淘金热也可能演变成灾难。公司急于改进技术并从增长中获利,却搁置了关于这些工具的安全性研究。在一场赢家通吃的权力争夺战中,大型科技公司及为其提供风险资本的支持方有可能重蹈覆辙,比如社交媒体的重罪:把增长的优先级置于安全之上。虽然这些新技术有许多潜在的乌托邦式特点,但即使是出于善意设计的工具,也有可能造成不可预知的破坏性后果。淘金热的故事一般都是这么开始的,历史也会告诉我们故事接下来的走向。
事实上,生成式AI非常了解社交媒体的问题。AI实验室已经闭门研究了好几年不同版本的工具。他们研究了这些工具的潜在危险,包括错误信息、仇恨言论,以及无意中造成滚雪球般的地缘政治危机。
这种保守主义部分源于神经网络的不可预测性,以及来源于人脑的计算范式,即现代AI的基础。传统的计算机编程方法依赖于精确的指令集以生成可预测的结果,而神经网络则有效地教会自己发现数据中的模式。向这些网络提供的数据和计算能力越多,它们的能力往往就越强。
2010年代初期,硅谷意识到,想要发展更强大的AI,相比传统的编程方法,神经网络显然更有前景。但早期的AI很容易受其训练数据中的偏见影响:吐露错误信息和仇恨言论。微软在2016年发布聊天机器人Tay,不到24小时,它就在推特上说:“希特勒是对的,我恨犹太人”,女权主义者应该 “全部被烧死。”OpenAI在2020年发布的ChatGPT的前身也表现出类似的种族主义和厌女症。
2020年左右,神经网络设计方面出现关键进展,数据获得便利程度日益提升,科技公司愿意为超级计算能力付费。得益于这些因素,AI真正开始迅速发展。但AI的弱点仍然存在。AI令人尴尬的历史表现使许多公司,包括谷歌、Meta和OpenAI,大多不愿意公开发布其尖端模型。2022年4月,OpenAI发布了Dall-E 2,一个可以生成逼真图像的文本生成图片的AI模型。但它最初仅向 “受信任的 ”用户开放。OpenAI表示,这些用户的使用将帮助Dall-E 2 “了解并解决DALL-E从其训练数据中习得的偏见。”
尽管在(2022年)7月之前已经有100万用户加入了Dall-E,但更广泛的AI社区的许多研究人员已经对OpenAI和其他AI公司“只可远观不可亵玩”的做法感到失望。2022年8月,Stability AI,一个位于伦敦的小初创公司一反常态,向大众发布了一个文本生成图片工具Stable Diffusion。根据一个日益壮大的学派的观点,公开发布AI工具将允许开发人员从用户处收集有价值的数据,并给社会更多时间来应对先进的AI会带来的巨大变化。
Stable Diffusion迅速引发互联网热议。数以百万计的用户被其看似从零开始的艺术创作能力所吸引,且随着用户对不同指令和概念的不断尝试,该工具的产出不断引发病毒式传播。内森·贝纳奇(Nathan Benaich)是一名投资者,也是《2022年人工智能状况报告》的共同作者。他说:“这个生成式潘多拉盒子被打开了。OpenAI和谷歌都被震惊了,因为现在世界能够使用他们所控制的工具了。一切都超速发展了。”
OpenAI迅速效仿,放开了Dall-E 2的限制。之后,在(2022年)11月,据说是为了应对迫在眉睫的竞争,它向公众发布了ChatGPT。OpenAI首席执行官山姆·奥特曼(Sam Altman)在采访中强调,使用AI程序的人越多,AI进步就越快。
用户立即涌向了OpenAI及其竞争对手。社交媒体上充斥着AI生成的图片,其中一张甚至赢得了艺术比赛;电影剪辑师开始使用AI辅助软件制作好莱坞的热门电影,如《瞬息全宇宙》。建筑师正在设计AI蓝图;程序员正在编写AI脚本;出版机构正在发布AI测试和文章。风投人员捕捉到了这一风向,并向可能释放下一个巨大生产力提升的AI公司投资超10亿美元。中国科技巨头百度和阿里巴巴宣布将推出自己的聊天机器人,推高了股价。
近期生成式AI产品发布信息时间线。Lon Tweeten/《时代》
图片上的文字:
2021年5月 谷歌宣布推出聊天机器人,但未公开发布
2022年4月 OpenAI展示Dall-E 2,但未大规模开放
8月 初创公司Stability公开发布文本生成图片工具Stable Diffusion
9月 OpenAI发布了Dall-E 2供公众使用
10月 OpenAI公开发布ChatGPT
11月 Meta发布聊天机器人Galatica,但其回答错误遭受强烈批评,后被下线
2023年1月 微软向OpenAI注资100亿美元
2月 微软宣布集成ChatGPT的新必应搜索引擎预告
3月 谷歌宣布推出Bard,一项对话型AI辅助搜索服务
与此同时,微软、谷歌和Meta正将这一热潮推向极端。虽然多年来这些公司都在强调AI的重要性,但他们似乎仍对令人眼花缭乱的关注和使用激增感到惊讶——而且现在他们似乎更在乎发展速度,而不是安全性。今年2月,谷歌宣布推出应对ChatGPT的竞争对手巴德的计划。据《纽约时报》报道,谷歌公司在一次演讲中称,在发布基于AI技术的工具时,将 “重新调整”它愿意承担的风险水平。而在Meta最近的季度收益电话会议上,首席执行官马克·扎克伯格(Mark Zuckerberg)宣布他的目标是让公司“成为生成式AI的领导者”。
在这种匆忙的情况下,科技公司引发的错误和伤害已经增多——反噬也同样增加。当谷歌展示巴德时,它的一个回答出现了一个关于韦伯太空望远镜的事实性错误--Alphabet的股票随之暴跌。微软的必应也很容易返回错误结果。Deepfake——用AI生成的拟真虚假图像或视频,被用于骚扰或传播错误信息:一个被广泛分享的视频显示,乔·拜登谴责变性人,令人震惊但又十分可信。
包括Stability AI在内的公司正面临来自艺术家的诉讼,那些反对自己的作品在未经许可的情况下被用于训练AI模型的权利人也提起了诉讼。《时代》周刊一项调查发现,OpenAI曾雇佣肯尼亚的外包员工,他们拿着低于2美元的时薪,审查不良内容,包括性虐待、仇恨言论和暴力。
尽管目前的这些问题令人担忧,但如果这场竞赛继续加速,与接下来可能出现的情况相比,它们就显得微不足道了。如今,大型科技公司所做的许多选择与以往并无二致,以往的选择早已产生破坏性的连锁反应。
社交媒体——硅谷最近一个真正改变世界的创新,带来了第一个宝贵的教训。它建立在这样的愿景上:人们通过社交媒体建立连接,我们的社会会更健康,个体会更快乐。十多年后,我们可以看到,大众对其创造的社交连接是非常欢迎的,它失败的原因在于科技公司将其商业化的手段:通过逐步微调我们的新闻信息流来优化互动,让我们滑动手机屏幕浏览病毒传播式内容,并在其中投放定向在线广告。我们的信息流中真正的社交连接已经变得越来越稀少。与此同时,我们的社会不得不处理第二阶段的影响:新闻业支离破碎,错误信息层出不穷,青少年心理健康危机愈发严峻。
不难看出,科技巨头的AI产品也会走上同样的道路。Alphabet和微软对AI如何使其搜索引擎更有价值最感兴趣,并展示了谷歌和必应的演示内容,其中用户看到的第一个搜索结果是由AI生成的。但AI开发平台Hugging Face的首席伦理科学家玛格丽特·米切尔(Margaret Mitchell)认为,搜索引擎是应用生成式AI的 “绝对最糟糕的方式”,因为它经常出错。米切尔说,像ChatGPT这样的AI的实际优势,如辅助创意、构思和琐碎的任务等方面正在被搁置,技术正在被塞进科技巨头的赚钱机器中。
如果搜索引擎成功地整合了AI,这种微妙的转变可能会削弱许多依赖搜索的企业,无论是广告流量还是业务推荐。微软首席执行官纳德拉曾表示,以AI为导向的新必应搜索引擎将为出版商和广告商带来更多流量,从而带来更多收入。但是,目前对AI生成艺术的反对浪潮正在持续发酵。同样的,许多媒体人现在也担心,未来科技巨头的聊天机器人会蚕食新闻网站的内容,但并不提供回报。
AI公司目前也面临将其项目盈利的难题。目前,大多数产品都可以免费使用,因为他们的创造者遵循硅谷的游戏规则:一方面,风险资本公司提供巨额投资补贴,另一方面,公司对产品收取很少费用或不收取任何费用,以应对竞争。虽然采用这种策略但并不成功的公司在慢慢流失资金,但赢家往往最终在他们认为合适的情况下牢牢掌控了市场。目前,ChatGPT是无广告的,可以免费使用。但它也在持续烧钱:据OpenAI首席执行官说,每一次对话都要花费公司至少几美分。该公司现在有承受巨大损失的能力,这部分归功于微软的慷慨解囊,也给了它巨大的竞争优势。
今年2月,OpenAI为其聊天机器人的订阅用户设置了每月20美元的定价模式。谷歌已经优先考虑了在搜索结果中投放付费广告。它对AI生成的结果做同样的事情,也并非难以想象。如果人类开始依赖AI获取信息,就会越来越难以分辨哪些是事实,哪些是广告,哪些是完全捏造的。
目前科技公司看重利润,而非安全,因此一些技术专家和哲学家提醒大众警惕人类的存在风险。许多AI公司,包括OpenAI,它们的明确目标是创造一个通用人工智能,即AGI。它可以比人类更有效地思考和学习。如果未来的AI获得了在没有人类指导或干预的情况下迅速提高自己的能力,它们就有可能消灭人类。一个经常被引用的构想实验是,一个AI在接到命令后,最大限度地增加它能生产的回形针数量,使自己成为一个主宰世界的超级智能,收割其掌握的所有碳,包括来自地球上所有生命的碳。在2022年对AI研究人员的一项调查中,近一半受访者表示,AI有10%或更大的可能性导致这样的灾难。
在最尖端的人工智能实验室内,一些技术人员正在努力确保如果AI最终超越了人类的智慧,仍能与人类的价值观 “保持一致”。他们正在设计仁慈的神,而不是被恶意的神。但是,AI安全组织Conjecture与《时代》周刊分享的数据估计,世界上只有大约80至120名研究人员在全职从事AI安全校准工作。而与此同时,随着AI竞争愈演愈烈,数以千计的工程师正在努力提升AI能力。
“当涉及到非常强大的技术时——显然人工智能将成为有史以来最强大的技术之一——我们需要谨慎。”谷歌旗下AI实验室DeepMind的首席执行官德米斯·哈斯比斯(Demis Hassabis)去年年底告诉《时代》周刊,“不是每个人都在考虑这些事情。就像实验主义者中许多人并没有意识到他们持有危险材料。”
即使计算机科学家成功确保了AI不会消灭我们,它们在全球经济中发挥的作用也愈发重要,控制它的科技巨头会因此变得更加强大。他们不仅可能成为世界上最富有的公司,还可能对AI这一关键基础设施的商业用途收取任何费用,更有可能成为与民族国家相抗衡的地缘政治行为者。
OpenAI和DeepMind的领导人已经暗示,他们希望AI带来的财富和权力能够以某种方式重新分配。而另一方面,控制钱包的科技巨头高管们主要对其股东负责。
当然,许多声称会改变世界的硅谷技术并没有实现。我们并非都生活在元宇宙里。讽刺非加密货币用户要“享受贫穷”的加密货币兄弟,有些正在忍受他们的损失,有些甚至在监狱里煎熬。世界各地城市的街道上到处都是失败的电动滑板车初创公司的残骸。
但是,尽管AI也经历了类似的令人窒息的炒作阶段,但不同的地方在于,AI背后的技术对消费者来说已经有实际用处,并且其技术能力正以惊人的速度优化。研究人员称,AI的计算能力每6到10个月就会增长一倍。正是这种巨大的力量,让当下时刻如此震颤人心,也如此危险。