全球大模型安全标准出炉,科技巨头联手推动AI安全新纪元

不同的视角,不一样的世界。

在瑞士日内瓦举行的第27届联合国科技大会上,一项具有里程碑意义的成果引发了全球科技界的广泛关注。世界数字技术院(WDTA)正式发布了《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准,标志着人工智能安全领域迎来了新的国际标准。这一成果的诞生,离不开OpenAI、蚂蚁集团、科大讯飞、谷歌等科技巨头的共同努力与贡献。

这两项国际标准是众多科技巨头共同智慧的结晶。它们不仅汇聚了全球AI安全领域的专家智慧,还填补了生成式AI应用和大语言模型安全测试领域的空白。通过制定统一的测试框架和明确的测试方法,这两项标准有助于提高AI系统的安全性,促进AI技术的负责任发展,并增强公众对AI技术的信任。

具体来看,《生成式人工智能应用安全测试标准》为测试和验证生成式AI应用的安全性提供了一个全面的框架。该标准定义了人工智能应用程序架构每一层的测试和验证范围,涵盖了从基础模型选择到应用运行时安全的各个方面。这将确保AI应用在整个生命周期内都能免受威胁和漏洞的侵害,为用户提供更加可靠和安全的体验。

另一项《大语言模型安全测试方法》则针对大语言模型本身的安全性进行了全面评估。该标准提出了大语言模型的安全风险分类、攻击的分类分级方法以及测试方法,并给出了不同攻击强度的攻击手法分类标准。这将有助于开发人员和组织识别和缓解潜在漏洞,从而提高使用大语言模型构建的人工智能系统的安全性和可靠性。

值得一提的是,参与制定这两项国际标准的科技巨头在AI领域均有着深厚的积累和技术实力。以科大讯飞为例,作为中国领先的智能语音和人工智能企业,其在语音识别、自然语言处理等领域拥有丰富的技术积累和实践经验。科大讯飞深度参与了《生成式人工智能应用安全测试标准》的制定,不仅展示了其在AI安全领域的实力,也为中国在全球AI治理领域树立了良好的形象。

此外,蚂蚁集团作为另一家参与制定标准的中国企业,在金融科技和人工智能领域同样具有显著的影响力。蚂蚁集团牵头编制的《大语言模型安全测试方法》为大模型的安全性评估提供了全面、严谨且实操性强的结构性方案,有助于推动大语言模型的安全可控发展。

随着人工智能技术的快速发展和广泛应用,安全问题日益凸显。这两项国际标准的发布,将为全球AI产业的发展提供有力的安全保障,推动AI技术更加安全、可靠地服务于人类社会。未来,我们有理由相信,在科技巨头的共同努力下,AI安全领域将迎来更加美好的发展前景。(数据支持:天眼查)

格隆汇声明:文中观点均来自原作者,不代表格隆汇观点及立场。特别提醒,投资决策需建立在独立思考之上,本文内容仅供参考,不作为实际操作建议,交易风险自担。

相关阅读

评论