·蚂蚁集团启动大模型伦理共建计划,采用国家法律法规数据作为训练资料,提供给大模型学习,已在前期共建了超过150个法律法规和司法解释相关的语料库。
人工智能在快速迭代和发展的同时,也给人类社会的伦理和治理带来挑战。
9月8日上午,外滩大会“AI科技伦理”见解论坛在上海举行。众多专家在会上提及近期引发热议的“AI换脸”、人脸识别等问题。同时,蚂蚁集团在论坛上宣布启动大模型伦理共建计划。
蚂蚁集团研究院院长李振华在启动仪式上表示,蚂蚁大模型伦理共建计划采用了国家法律法规数据作为训练资料,提供给大模型学习。通过法律专家为大模型出考题,让大模型了解伦理方面的问题,做出相应解答。
李振华称,伦理共建计划将持续收集用户反馈和时事热点信息,动态更新不断优化大模型伦理知识体系,以提升大模型在处理实际问题方面的基本表现。在共建大模型伦理计划时,可利用平台优势,让用户深度参与其中,为模型构建提供相关反馈和意见。
李振华透露,蚂蚁集团在前期已经进行了一些尝试,共建了超过150个法律法规和司法解释相关的语料库。
今年,“AI换脸孙燕姿”曾在B站等网络平台走红,视频上传者通过使用AI音色替换技术生成了高度还原孙燕姿音色的翻唱歌曲;“AI换脸”也被不法分子利用,冒充领导干部行骗、诈骗等,为公安机关、检察机关侦查案件增添不少难度。为限制人脸识别技术过度采集、滥用。8月8日,国家互联网信息办公室起草《人脸识别技术应用安全管理规定(试行)(征求意见稿)》,公开对外征求意见。
围绕如何发展更安全、负责、可信的AI这一主题,论坛现场众多专家展开讨论。
在外滩大会“AI科技伦理”见解论坛上,围绕如何发展更安全、负责、可信的AI这一主题,众多专家展开讨论。
关于AI科技伦理,中国信息通信研究院华东分院院长廖运发指出,大模型的发展进一步加大了人工智能的固有风险:一方面,随着参数规模扩大,训练数据的细节得以体现在参数中,多模态增加了模型的供给面。另一方面,随着大模型训练数据集的快速增长,难以对人工标注进行检查,训练数据侵权也构成了产业发展的隐忧;此外,大模型使人工智能训练的算力成本急速提升,在导致碳排放问题的同时,也使得中小企业越来越难以参与其中。
中国科学院计算技术研究所研究员、副所长程学旗认为,人工智能目前已经走进日常生活,“我们的出行、调度、指挥系统,人工智能都发挥了很多作用,但同时也带来了很大的安全风险。”常见的安全风险聚焦在:第一,个人数据、隐私被泄漏;第二,在某些特定的自动化交易场景中,某个线路出现故障会连带后台的调度系统,产生重大风险,这类AI模型算法出现的安全风险问题也需重视。
如何应对人工智能带来的安全和伦理风险?程学旗认为,社会治理和技术治理应当同步推进,前者的目标是治理的自动化与常态化,后者则需要实现治理标准化与系统化。
多位专家也指出,随着大模型应用场景与应用案例的积累,相关的伦理规则也将进一步丰富和完善,最终形成技术、社会、行业等不同层面的具体要求。