全球巨头联手!大模型安全国际标准正式发布

科技 2024-04-23 15:47 阅读:26

在瑞士日内瓦举行的第27届联合国科技大会上,世界数字技术院(WDTA)以“塑造AI的未来”为主题召开了AI边会。会上,WDTA发布了《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准,标志着全球人工智能安全评估和测试迈入新的阶段。

这两项国际标准是由OpenAI、蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等数十家单位的专家学者共同编制而成。其中,《大语言模型安全测试方法》由蚂蚁集团牵头编制,为大模型本身的安全性评估提供了全面、严谨且实操性强的结构性方案。

WDTA人工智能安全可信负责任工作组组长黄连金表示,随着人工智能系统的不断发展,确保其安全性变得至关重要。这两项国际标准的发布填补了大模型安全领域的空白,为业界提供了统一的测试框架和明确的测试方法,有助于提高AI系统的安全性,促进AI技术的负责任发展。

作为标准参与单位代表,蚂蚁集团机器智能部总经理、蚂蚁安全实验室首席科学家王维强在会上发言,强调了生成式AI带来的新风险。他表示,大型科技公司应在生成式AI安全和负责任发展中发挥关键作用,推动最佳实践,构建一个优先考虑安全、隐私和道德考量的生态系统。蚂蚁集团自2015年起就投入可信AI技术研究,目前已建立了大模型综合安全治理体系,并发布了业界首个大模型安全一体化解决方案“蚁天鉴”。

这次发布的国际标准为大模型及生成式AI应用的安全测试提供了重要指导,为全球人工智能领域的安全发展奠定了基础。