7月13日消息,《生成式人工智能技术的开发、部署和使用原则》由美国生成式人工智能协会(Association for Generative AI)计算机器全球技术政策委员会(ACM TPC)发布。ACM的美国技术政策委员会(USTPC)和欧洲技术政策委员会(Europe TPC)通过了该原则。
被称为“世界上最大的科学和教育计算协会”的ACM成立于1947年,拥有约110000名学生和专业会员。他们认为,生成式 AI 日益强大,或将对社会构成严重风险。
目前的技术安全使用指南不足,因此需要建立新标准,以确保可规避该技术可能带来的危害,这也是他们发布该原则草案的初衷。
此次发布的原则中,有四项原则专门针对生成式 AI,另外四项原则改编自 TPC 2022 年的 《负责任的算法系统声明》原则。
生成式 AI 特定原则
●部署和使用的限制和指南:应与所有利益相关者协商,审查和应用书面或修订的法律和法规,以在需要时限制生成人工智能技术的部署和使用,以最大程度地减少危害。如果没有明确和充分的保障措施,包括“human in the loop”以及相关利益相关者之间的明确共识,即该系统的好处将大大超过其潜在的负面影响,则不应允许任何高风险的人工智能系统运行。一种方法是定义风险等级,最高级别为不可接受的风险,最低级别为最小风险。
●所有权:知识产权 (IP) 法律和法规尚未充分考虑生成式人工智能系统的结构和功能的固有方面。
●个人数据控制: 生成式人工智能系统应该允许人们选择不使用他们的数据来训练系统或促进其信息生成。
●可纠正性: 生成人工智能系统的提供者应创建和维护公共存储库,可以记录系统所犯的错误,并可以选择进行更正。
改编的先前原则
●透明度: 任何使用生成式人工智能的应用程序或系统都应向适当的利益相关者明确披露。
●可审计性和可质疑性: 生成人工智能系统的提供者应确保尽可能记录系统模型、算法、数据和输出(适当考虑隐私),以便在适当的情况下对其进行审计和 / 或质疑。
●限制环境影响: 鉴于生成式人工智能模型对环境的巨大影响,建议就方法论达成共识,以衡量、归因并积极减少此类影响。
●更高的安全性和隐私性: 生成式人工智能系统容易受到各种新的安全和隐私风险的影响,包括新的攻击向量和恶意数据泄露等。
编辑点评:互联网不是非法之地,人类如此,AI也是如此,毕竟AI是模拟人的技术,既然跟人类接近甚至能够完全模仿人类,那么也要受到法律的制约和束缚,一旦对他人造成伤害,也要实质性的考虑其责任,以及使用的人的连带责任。
新的时代,AI切不能成为害人的利器,而应该是解放生产力的新工具。