从全球范围来看,利益相关体已经提出了诸多人工智能治理原则以试图通过“软体系”的方式应对人工智能发展和应用所引发的伦理问题与安全风险。本文指出,人工智能的主体性挑战、代码作为规则重要性的提升以及“黑箱性”的存在构成了以“软体系”应对人工智能伦理问题与安全风险的特殊原因,而推进理念共识、 聚焦局部议题、创新治理机制则构成了其具体内涵。虽然现有方案有利于推动人工智能伦理问题与安全风险的治理进程,但其在关键概念上的模糊、具体内容上的缺失或争议以及决策过程的不足,也引导人们产生更多反思。中国近年来在三个方向积极推进并于 2021 年初形成了《网络安全标准实践指南——人工智能伦理安全风险防范指引》的阶段性成果,该文件界定了人工智能治理的相关主体范围,总结了人工智能伦理问题与安全风险的具体类型,并明确了相关主体所应履行的治理职责。结合全球比较和中国实践的分析,文章进一步对未来人工智能伦理问题与安全风险治理的发展可能提出了三点展望。
清华大学文科资深教授、苏世民书院院长、人工智能国际治理研究院院长薛澜与合作作者贾开在《公共管理评论》上发表文章题为《人工智能伦理问题与安全风险治理的全球比较与中国实践》。“清华大学人工智能国际治理研究院”将文章转载如下,以飨读者。