人工智能|聚焦AI治理|产学界呼吁构建统一的AI模型安全评估准则

澎湃新闻采访人员 张唯
近日 , 腾讯研究院高级研究员曹建峰在首届清华大学人工智能合作与治理国际论坛分享对算法偏差和深度合成的看法 。 他建议业界探索开发隐私保护型的AI技术方法 , 在隐私保护与数据利用之间实现更好平衡 。
在清华大学人工智能合作与治理国际论坛 “人工智能与数据安全”分论坛上 , 相关学者与产业届人士聚焦讨论数据与人工智能的近期与远期风险、安全挑战及对策 。
分论坛由中科院自动化所中英人工智能伦理与治理中心主任曾毅主持 。 剑桥大学智能未来研究中心研究员丹尼特·加尔(Danit Gal)、荷兰埃因霍温科技大学教授文森特·穆勒(Vincent Muller)、北京师范大学网络法治国际中心执行主任吴沈括等人参与交流 。
与会专家认为 , 人工智能和数据安全的治理需要世界各国和组织联合起来 , 制定更加明晰有效的法律法规 , 构建统一的人工智能模型与系统的安全评估准则和标准 , 在全球范围内用更加开放协同的方式进行科学研究和技术交流 , 推动人工智能技术在安全的基础上更快速的落地 , 构建更安全、更美好的世界 。
人工智能|聚焦AI治理|产学界呼吁构建统一的AI模型安全评估准则文章插图
以下是各位人工智能学者与产业界人士的发言集锦:
丹尼特·加尔:AI的内部风险与外部防御挑战
剑桥大学智能未来研究中心研究员丹尼特·加尔(Danit Gal)重点总结了人工智能安全相关的内部风险与外部防御的近期挑战 , 并对各国数据规制应当形成全球协作提出建议 。
她在主旨演讲中区分了人工智能安全的两大重要概念(Safety和Security)的概念 。 Safety更偏向内部 , 针对的是一些无意伤害的预防措施 , 从系统中保护环境 。 Security更倾向于对外部攻击的防御 , 聚焦在那些有意对个人、组织和财产施加伤害的行为 , 从环境中保护系统 。
她认为 , 科技影响着我们所有人 , 它的安全和保障也是如此 。 然而 , 我们应对这些影响的能力远远落后于开发和使用 。 人工智能和数据流进一步复杂化了这一动态 , 引入并连接了新的机会和新的漏洞 。 丹尼特·加尔建议 , 应加强交流、推动合作 , 以减少脆弱性 , 在全球范围内倡导并激励数据安全治理工作 。
文森特·穆勒:通用AI的长远风险极不确定
荷兰埃因霍温科技大学教授文森特·穆勒(Vincent Muller)在演讲中指出通用人工智能和超级智能的长远风险具有极大不确定性 。
他分成两步介绍了超级智能和通用人工智能的长期风险 , 即从超级智能到技术奇点 , 再从技术奇点到生存风险 。 超级智能指的是在许多非常普遍的认知领域远远超过当今人类最佳智力的人工智能 。
从超级智能到技术奇点 , 他强调了三个前提假设 , 分别是我们拥有更快的速度和更多的数据 , 不需要认知科学 , 以及应用十分紧急 。 从技术奇点到生存风险 , 他强调了两点前提假设 , 理性主体决策理论适用于人工智能 , 以及智能和最终目标的正交性 。
罗曼·扬波尔斯基:超级智能意味着超级控制
美国路易斯维尔大学教授罗曼·扬波尔斯基(Roman Yampolskiy)谈到人工智能、安全和防御的未来 , 并表达了对于人工智能的担忧 。
他在主旨演讲中表示 , 当前超级智能正在来临 , 超级智能意味着超级聪明、超级复杂、超级快速、超级控制、超级病毒 。
他谈到关于人工智能的担心 , 重点介绍了最近的几项研究工作 , 包括通往危险的人工智能的路径分类学、人工智能安全不可能的结果、缓解负面影响、人工智能的限制问题等 。
他认为 , 人工智能失败的时间轴呈指数趋势 , 人工智能失败的频率和严重程度都会增加 , 这与人工智能的能力成比例 。
曹建峰:AI开发与隐私保护存在紧张关系
腾讯研究院高级研究员曹建峰在会上分享了对算法偏差和深度合成(deep synthesis)的看法 , 并提出了解决问题的建议 。