AI要立规矩?OpenAI、谷歌、微软等16家公司签订人工智能安全承诺

AI快讯 2024-05-24

近日,在备受瞩目的“人工智能首尔峰会”(AI Seoul Summit)上,来自全球各地的16家知名企业,包括OpenAI、谷歌、微软及智谱AI等,共同达成并签署了一项具有深远影响的前沿人工智能安全承诺(Frontier AI Safety Pledges)。此举被视为AI研发领域的一大飞跃,旨在强化人工智能技术的安全性和透明度。

image.png

承诺的核心内容

责任治理与透明度:该承诺强调了建立负责任的AI治理结构和保持透明度的必要性,以确保前沿AI技术的安全应用。

风险评估框架:基于一套明确的人工智能安全框架,各签署方承诺将负责任地评估前沿AI模型可能带来的风险。

风险缓解机制:为了应对潜在风险,承诺中还包括了建立明确的风险缓解流程和机制。

图灵奖得主Yoshua Bengio对此表示高度赞赏,他认为这一承诺的签署是迈向国际AI安全治理体系的重要一步。OpenAI的全球事务负责人Anna Makanju也强调,这是推动AI系统安全实践向前发展的关键步骤。

背景与动机

近期,AI领域的两位重要人物——OpenAI的联合创始人兼首席科学家Ilya Sutskever以及OpenAI超级对齐团队的领导人Jan Leike相继离职,其中Leike公开批评OpenAI对安全问题的忽视。这一事件引起了业界的广泛关注和深思,凸显了当前AI安全问题的紧迫性。

此外,包括Yoshua Bengio、Geoffrey Hinton和姚期智等在内的业内专家在知名科学期刊《Science》上发表文章,呼吁全球领导人采取更加积极的行动来应对AI带来的风险。他们警告说,AI的无序发展可能会对生命和生态系统造成不可估量的损害。

在这一背景下,中国的大模型公司智谱AI也积极响应,签署了前沿人工智能安全承诺。在ICLR2024这一顶级会议上,智谱AI分享了他们在AI安全方面的具体做法,强调了超级对齐技术在提高大模型安全性方面的重要作用。智谱AI透露,其GLM-4V模型内置了先进的安全措施,旨在防止有害或不道德行为,并保护用户隐私和数据安全。

与此同时,全球范围内对于AI的监管也在不断加强。就在签署安全承诺后不久,欧盟理事会正式通过了《人工智能法案》(AI Act),这是全球第一部全面的AI监管法规,并将于不久后生效。该法案采用了“基于风险”的监管方法,要求对社会影响较大的AI技术遵守更为严格的规则,并对违规行为实施严厉处罚。

比利时数字化大臣Mathieu Michel表示,这部法案是世界上第一部此类法规,旨在应对全球性的技术挑战,同时为社会和经济创造新的机遇。随着全球对AI安全的关注度不断提升,我们有理由相信,未来AI技术的发展将更加稳健、安全和可持续。

@版权声明:部分内容从网络收集整理,如有侵权,请联系删除!

相关文章