特斯拉(Tesla)创办人马斯克上周携千名科技人士发表公开信,呼吁立即暂停比GPT-4更强大的人工智能(AI)系统的训练至少六个月。按照公开信的设想,在这段暂停期间,行业专家应该共同开发一套安全协议,以确保AI未来发展是安全的。“只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。”
关于如何安全使用人工智能,马斯克很早就开始了探索。2015年,他就向“未来生命研究所”捐助700万美元的资助,旨在研究AI造福人类的课题。2017年1月,未来生命研究所曾在加州召集了经济学、法律、伦理学和哲学领域的思想领袖和研究人员,讨论和制定有益人工智能的原则。最终由与会的2000余位业界人士共同制定了23条的《阿西洛马人工智能原则》(Asilomar AI Principles),被视为AI治理的重要参考。
对齐道德规范
不同于打工人对AI“抢饭碗”的焦虑,多数行业人士还是持“科技向善”的态度,所谓担忧主要集中在两项技术性关切:
一是道德对齐问题。人类在漫长的历史中,大量的道德规范固化在文化传统之中,尽管平时很难察觉,但实时引导着人们的日常行为。但对人工智能而言,并没有经历过“道德观”的灌输,这就需要让AI的道德规范与人类的道德规范进行对齐。《阿西洛马人工智能原则》也强调,“自主系统的设计应反映人类的价值观。”在专家学者眼中,GPT类产品如同一个生下来就有超能力的小孩,不加以管教就会变成风险。
避免寡头垄断风险
二是寡头垄断风险。目前业内形成的共识是,AI应该尽可能使更多的人受益,并应该为人类作出贡献,而不是仅仅得益于某些组织或个人。事实上,正是为了避免Google旗下的DeepMind在人工智能领域一家独大,马斯克才联手山姆.阿尔特曼(Sam Altman)创立了OpenAI,旨在降低AI技术被垄断的可能性。而如今,推出ChatGPT的OpenAI俨然已成为整个人工智能行业的“人民公敌”。
互联网企业竞争加剧
公开信发表之后招来非议颇多,并遭到包括AI领军人物、前百度公司首席科学家吴恩达在内的多名业内专家的质疑。更关键的问题是,“暂停训练六个月”的呼吁很难对AI企业形成强约束,这更像是针对OpenAI设计的“紧箍咒”。
自ChatGPT横空出世后,全球互联网企业都产生了严重的竞争压力。大语言模型(LLM)的研发门槛本身就很高,被视作是技术密集型(至少需要1万枚A100芯片)、资本密集型(单次训练成本超1200万美元)、劳动力密集型(须僱佣外包团队人工调试)的复合型产业。
因此,OpenAI的先发优势很可能会成为与其他科企的技术鸿沟。百度CEO李彦宏接受采访时也承认,初时感觉文心一言与ChatGPT在技术上也就是一两个月的差距,但随着大量人群参与到ChatGPT的测试,这个差距有被拉大的趋势。
在此背景下,行业内部自然希望OpenAI能够歇歇脚,给予竞争者追进度的空间。但AI产业很难覆製龟兔赛跑的故事,未来数年内将迎来更加激烈的军备战竞赛。芯片厂商自然会受到市场追捧,英伟达(NVDA.US)可持续关注。