长期以来,科幻小说中的人工智能(AI)一直是有意识的。如今,随着AI的快速发展,这不再是异想天开,甚至得到了AI领域研究人员的认可。例如,开发ChatGPT的美国OpenAI公司首席科学家Ilya Sutskever就曾在推特上说,一些最尖端的AI网络可能“有点儿意识”。许多研究人员表示,AI还没有达到有意识的程度,但其进化速度让他们开始思考:如果AI有了意识,我们如何知道呢?
为了回答这个问题,一个由19名神经科学家、哲学家和计算机科学家组成的小组提出了一份标准清单,如果达到这些标准,就表明一个AI系统具有意识的可能性很大。8月17日,他们在预印本服务器arXiv上公布了临时指南,以供同行评审。
合著者之一、美国非营利研究组织人工智能安全中心哲学家Robert Long说,他们之所以这样做,是因为“关于AI意识,似乎真的缺乏详细、基于经验、深思熟虑的讨论”。
该团队表示,识别AI系统是否有意识具有重要的道德意义。合著者之一、美国加利福尼亚大学欧文分校神经科学家Megan Peters表示,如果某个东西被贴上了“有意识”的标签,“那么作为人类,我们应该如何对待这个实体将发生很大变化”。
Long表示,据他所知,构建先进AI系统的公司没有付出足够多的努力来评估意识模型,并制订计划以防AI具有意识。他补充道:“尽管如此,如果你去听听一些前沿实验室负责人的言论,他们确实对AI意识或AI感知很感兴趣。”
美国微软公司的一位发言人表示,该公司开发AI的核心是以负责任的方式协助人类提高生产力,而不是复制人类的智能。这位发言人表示,自从GPT-4推出以来,“在探索如何充分发挥AI潜力、造福整个社会之际,需要新的方法评估这些AI模型的能力”。
研究AI意识的挑战之一是定义什么是意识。Peters说,在这份报告中,研究人员关注的是“现象意识”,也就是所谓的主观体验。这是一种存在的体验,即成为一个人、一只动物或一个AI系统是什么感觉。
有许多基于神经科学的理论描述了意识的生物学基础,但对于哪一个是“正确的”,人们并没有达成共识。因此,为了建立框架,作者使用了一系列这样的理论。他们的想法是,如果一个AI系统的运作方式与这些理论的许多方面相匹配,那么它很有可能有意识。
他们认为,这是一种评估意识的更好方法,而不是简单对一个系统进行行为测试。比如,询问ChatGPT是否有意识,或者观察它是如何反应的。这是因为AI系统已经变得非常擅长模仿人类了。
英国萨塞克斯大学意识科学中心主任、神经学家Anil Seth说,研究小组提出了一种很好的方法,但“我们需要更精确、更经得起检验的意识理论”。
为制定标准,作者假设意识与系统处理信息的方式有关,而不管它们是由什么构成的——神经元、计算机芯片或其他东西。科学家还认为,基于人类和动物脑部扫描及其他技术的神经科学意识理论可以应用于AI。在这些假设的基础上,研究小组选择了其中的6个理论,并从中提取了一系列意识指标。
Seth对团队提出的标准印象深刻。“它是经过深思熟虑的,没有夸大其词,而且它的假设非常清晰。”他说,“我不同意其中的一些假设,但这完全没关系,因为我很可能是错的。”
作者说,这远不是评估AI意识的最终结论,希望其他研究人员能帮助他们完善该方法。不过,现在已经可以将这些标准应用于对AI系统有无意识的评估——至少目前还没有任何AI系统具有意识。
相关论文信息:
https://doi.org/10.48550/arXiv.2308.08708
(原标题为《如果AI有意识,我们如何知道 科学家和哲学家提出基于人类意识理论的标准清单》)