北京时间2022年12月9-10日,由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,联合国开发计划署(UNDP)作为国际支持机构的第三届人工智能合作与治理国际论坛在线召开。9日晚21:00-24:00,专题论坛6围绕“跨文化人工智能伦理与治理”为主题展开在线论坛。该论坛由远期人工智能研究中心、中国科学院自动化研究所人工智能伦理与治理中心、剑桥大学智能未来研究中心和面向可持续发展的人工智能国际合作网络共同主办。论坛由中国科学院自动化研究所人工智能伦理与治理中心主任曾毅和剑桥大学智能未来研究中心项目主任肖恩·S·赫格提(Seán S. ÓhÉigeartaigh)共同主持。论坛邀请了联合国教科文组织驻华代表处、人文与社会科学部项目官洪智伟(TEE WEE ANG);巴西驻美国旧金山副总领事;联合国大会前和平与安全问题高级顾问尤金尼奥·巴尔加斯·加西亚(Eugenio Vargas Garcia);剑桥大学未来智能研究中心研究员、联合国秘书长办公室前人工智能负责人丹妮特·加尔(Danit Gal);乌得勒支大学研究员、联合国“全球脉动”计划人工智能与大数据专家组成员亚瑟·巴格瓦(Arthur Gwagwa);新西兰奥克兰大学教授,强人工智能实验室主任迈克尔·威布罗克(Michael Witbrock);俄罗斯人工智能伦理委员会主席安德烈·涅兹纳莫夫(Andrey Neznamov);艾伦·图灵研究所道德与责任创新研究主任戴维·莱斯利(David Leslie);未来社会合伙人塞缪尔·M·柯蒂斯(Samuel M. Curtis)出席。
会议主席曾毅研究员介绍到:这是跨文化人工智能伦理与治理论坛第三次举行。首次举行是2019年在剑桥大学,去年和今年分别在线举行。联合国教科文组织人工智能伦理建议书的正式发布使得全球初步达成共识。部分更严格执行的法律,如欧盟人工智能法案也在欧盟范围内取得重要进展。中国外交部发布的加强人工智能伦理治理方面的立场文件也为国际共识的形成贡献了中国智慧。全球的努力形成了互补性的愿景,每个国家所做出的努力都将为形成跨文化的人工智能伦理与治理国际协作贡献出独特的观点与力量,各国如何在自身经验基础上交流互鉴是未来重要的国际议题。
会议共同主席肖恩·S·赫格提表示,世界各国在新冠疫情、经济衰退等方面都面临诸多挑战,要应对这些调整就必须要合作。通过跨地区、跨文化的交流,可以相互学习经验,了解不同文化当中有效的、良好的应对方法,为大家带来切实的利益。在经济和科技之间,我们也能够看到现在取得这些成就的经济意义以及对政府的作用。我们在人工智能的领域合作应当促进人类之间的合作,不同地区的人们,不同文化背景人们的合作,这才是真正有意义的。需要通过联合国、经合组织等国际组织、政府间组织建立分享渠道、合作网络。关于这个议题,我们必须采取具体行动了。
洪智伟介绍了《联合国教科文组织人工智能伦理建议书》及相关进展。他指出:联合国的宗旨是确保伦理是科学和技术进步的指导原则。《建议书》经历了193个联合国教科文组织成员国共同长时间磋商后,在2021年11月23日正式通过。在这个过程中公民、社会组织、专家及公众都有机会发出声音。他指出,尊重自由和人的尊严、保护人类权利,维护环境与生态系统的繁荣发展,确保多元性和包容性是国际社会共同的价值观,应体现于人工智能的技术生命周期每个环节。确保人工智能治理机制的包容性、透明性、跨专业性、多边性反映了人工智能技术的跨文化特点。他特别指出,中国近期发布的立场文件提到加强人工智能伦理和法律等基础理论研究,对AI服务加强监管与充分评估,设立应急机制和补偿机制等方面的倡议与联合国教科文组织的人工智能伦理建议书的实质是趋同的。
安德烈·涅兹纳莫夫介绍:为了能够执行和落实联合国教科文组织人工智能伦理建议书,俄罗斯已经采取了一些有意义的步骤。第一,2021年我们发布了人工智能的伦理原则。现有约160个缔约方,包括有大量的利益相关方、行为方,如科研与教育机构、商业企业等。我们还有150名人工智能伦理官员,建立了民选的国家人工智能伦理委员会。第二,面对伦理上经常遇到的两难局面,我们通过投票的方式选出不同方案,希望多方共治的社群的不同态度。第三是对应一些具体规则,包括自我监管,以及何时改用法律法规干预。
丹妮特·加尔介绍到:随着AI的快速发展,我们现在实质上还是停留在一个没有完全达成共识的阶段。教科文组织是一个卓有成效的协调机制,它可以把各个国家政府组织起来。另外,很多国家把AI作为一种关系到国家竞争的武器。我对这种现象感到非常的失望。此外,我完全同意在人和AI的互动中人一定要保持对于AI的控制权,即人的自主性。例如日本通过一系列原则保证人能够获得最终控制权,这是非常重要的一个进展。因为AI技术发展的很快,所以我们的监管不一定能够跟上。我们其实担心一些不良趋势,比如说AI的战争游戏可能会破坏人们的行为模式,潜在影响人的行为。我们还是要紧跟AI的发展,而不是静态地推行一套策略。
尤金尼奥·巴尔加斯·加西亚认为:跨文化机制是非常有意义的,国家、公民社会组织和私营部门的参与者,都应当参与到这个共识的形成当中。不过,我们也看到在G20这样的组织中存在协调一致的挑战,如何把高级别的原则转化成具体政策,具体国家的路径,在这个层面上,联合国教科文组织的人工智能伦理建议书本身是不具有约束力的。第一,我们要找到一种全球协作的方式,解决现在过于碎片化的现状;第二,我们要对这些差距进行弥合,或者对于AI的政策制定有更加多视角、多边的机制道路;联合国在这方面应该建立一个与教科文组织不一样的平台。
亚瑟·巴格瓦:我觉得非洲存在一些独特的价值观,主要是不同部落社区的价值观。部落社区共同体对应了很多概念,比如相互关联、你中有我、我中有你是比较流行的价值观。泛非洲主义其实并不是一个非常古老的概念,或者是一种古老的教义,事实上是非洲人民政治主观能动性的体现。我认为最重要的一个价值观就是向善,或者说不伤害。有时非洲似乎是被排除在外了,因为非洲鲜有技术,也无数据,缺乏具体的知识和经验,但我们希望人工智能是多元、包容的,能够包容非洲的语言、文化、概念。
戴维·莱斯利说:如果我们看一下数据化对全球社区带来的影响,我们也就应该去探讨它带来的相关的无孔不入的对社会正义的影响。我们需要更加以社区为中心去思考这个问题,建立更多的相互联系。一个是在战略层面,现有的标准仍然是由大科技公司、北方国家主导,我们需要考虑南方国家的利益,公民社会组织的声音,尤其是非洲、南美这些地区的国家,他们的声音也应该得到充分的体现。另外,我们也必须要意识到我们子孙后代的需求,现在做出的人工智能相关决策,对我们子孙后代的福祉是有影响的。
迈克尔·威布罗克说:目前最重要的一个人工智能方面的考量,就是它很大程度上提升了我们的能力,也很有可能能够提升危害的风险。我不确定我们现在使用的方法、工具是否有效,监管是不是真正能够在这些方面带来好处。大部分在人工智能治理方面或伦理方面的工作,就是我们建立可解释性的系统。一方面阐释的内容彼此之间紧密的联系,让我们能够了解这个系统运行、操作的方式。另外一点,系统行为要足够简单。我们要非常小心谨慎地去讨论、建立监管体系。
塞缪尔·M·柯蒂斯:我们发现数据管理以及隐私保护等方面,都已经越来越能够引发人们的兴趣和关注。我们正在迅速进入这样一个时代,技术能够非常自主的进行非常大规模的活动,而这些活动有可能会对人类社会是有害的,那么它需要得到好的治理和制约。首先,实验室本身应该负起责任来,他们在不同技术开发过程中一定要负起主体责任。如果人们在一个地域当中对人工智能技术滥用,事实上负面影响是能够穿越国境到其他地方的。我非常高兴得看到中国外交部最近发布了立场文件,促进了进一步加强人工智能领域的治理。
最后论坛主席曾毅研究员回顾了他参与联合国教科文组织全球伦理建议书形成过程中来自东方文化的“和谐共生”与“和平共生”观念的交互的过程,并倡议东方文化应当更多地融入全球共识当中。他介绍了人工智能作为工具和未来社会人类伙伴的愿景,还阐述了他对未来通用人工智能和超级智能应从儒家君子、佛家觉者、道家真人、以及西方绅士的思想中获得启发的展望。与会者表示跨文化人工智能伦理与治理的讨论在全球范围内具有重要意义,更应当从讨论到实践促进更紧密地交流与协作。