北京市海淀区清华大学01062794781i-aiig@tsinghua.edu.cn

分论坛四|人工智能治理国际合作

2020年12月19日,“人工智能治理与国际合作”分论坛在线上成功举行。本次分论坛由联合国儿童基金会全球创新主任托马斯·戴文(Thomas Davin)主办。本分论坛包括两名主旨发言人,洛克菲勒基金会高级副总裁齐亚·汗(Zia Khan)和新加坡信息通信媒体发展管理局(IMDA)首席执行官助理杨子健(Zee KinYeong)。其他参与讨论的嘉宾有韩国延世大学未来的政府研究院主任文宰教授(JaeMoon)、哈佛大学肯尼迪学院未来协会AI倡议的副主席与主任赛勒斯·霍德斯(CyrusHodes)、马来西亚数字经济公司的苏里纳·舒克里(Surina Shukri)、Omdena创办人鲁德拉德·米特拉(Rudradeb Mitra)、新加坡管理大学法学教授兼人工智能与数据治理中心主任马克·芬德利(Mark Findlay)、香港中文大学教授兼数据可信与政策研究项目项目总监黄伟豪(WilsonWong)和南非韦伯·温策尔(Webber Wentzel)公司首席信息官沃伦·海罗(Warren Hero)。主题发言人和小组成员被要求回答有关AI治理国际合作的三个问题:(1)对于AI而言,哪些主要问题或挑战需要更加跨国和全球化的应对方法?(2)我们如何从人工智能领域更大的国际合作与协作中受益?(3)这样的合作,特别是对这种新兴技术的更大的全球治理中存在哪些挑战和障碍?(4)是否存在联合国等国际机构提出的现有举措或工作?这些举措或工作为全球人工智能合作提供了哪些可借鉴的方法?

汗先生主题演讲

汗先生介绍了在大规模疫情爆发之后AI如何助力全球复苏,以及应对贫困、饥饿和社会流动的全球挑战中取得的进展。含相声同时探讨了如何通过制定相关法规与创新性方案来解决AI带来的负面影响。人工智能在解决许多现有社会弊端方面具有提升社会公益的巨大潜力,但同时也对政府开发新的工具、机构和知识来应对负面影响提出了新的要求/例如算法偏差,失业,网络成瘾和自动武器系统等。有效的AI治理是充分发挥AI在全球范围内实现社会公益的唯一途径。

寻找技术解决公共卫生和紧迫的社会挑战的应用程序,一直是基金会在全球范围内最为重要的一部分工作。这项工作是与学术界和政府合作完成的。例如,一百多年前,基金会与中国政府合作成立了中国医学委员会和北京协和医学院。基金会在印度与芝加哥大学和印度卫生部合作,创建了一个AI驱动的生态系统,为印度和其他发展中国家制定了路线图,通过采用AI为印度服务不足的地区和发展中国家提供更好的医疗保健。 洛克菲勒基金会(Rockefeller Foundation)还与斯坦福大学(Stanford University)和多伦多大学(University of Toronto)开展了一项示范工程,通过AI技术弥合不同群体和不同语言之间的理解差距。

同时,需要一个全球监管和协调系统来推动国际合作和AI治理的发展。 人工智能伦理问题正在被广泛讨论,但付诸于实践的案例却非常少见。 政府、利益相关者和专家们需要努力为AI领域的投资构建一个可预期的市场,最大程度地降低风险,快速适应AI治理需求以及提高政策解决方案和相应机构的能力。这个系统必须能够从失败中快速学习如何应用AI或如何收集数据以促进社会公益。各国政府和社会需要提升和实施敏捷应对的能力。这涉及有效的利益相关者管理,公私伙伴关系以及建立本地技术知识。国际合作在机构间达成的共识基础上为敏捷AI治理提供了机遇。

最后,汗先生指出,治理AI面临三个特别的挑战。首先,我们不知道“好的AI”应该具有什么效果。换句话说,我们真的不知道AI治理的目标是什么。人工智能作为技术的背景和用途对于政府来说至关重要。国际机构可以就如何管理和制定人工智能的管理标准进行对话。其次,人工智能不是单纯的应用技术。不是说“好的AI”和“坏的AI”与“好电”和“坏电”有什么不同,它取决于使用AI的具体环境和方法。最后,人工智能的快速发展(通常无法理解的方式)要求通过国际合作对监管进行创新,以填补政策工具和经验分享方面的治理空白。克服这些挑战需要就共同的结果达成共识,即使不是共同的治理方法也需要达成共识。这些目标之间可能存在竞争性,而且会存在文化和理念方面的壁垒。即使如此我们仍然需要克服这些挑战。

杨先生主题演讲

杨先生通过新加坡在AI治理模型方面的经验案例,简要介绍了国际AI治理。 演讲的重点是致力于合作和协调国际AI治理框架,以促进创新和跨境贸易。提出的解决方案是“适应性国际AI治理框架”。其定义为“具有前瞻性,开放性和可互通的AI和数据国际治理框架,支持以人为本的AI创新和应用”。 可以在不同地区和不同级别的技术水平上应用。” 该模型基于原则,平台和合作伙伴的组合,以创建,制度化和实施为兴起的监管生态系统。 该方法是必需的,因为AI是一种应用技术,并且仍在不断改进的过程中被纳入新加坡模型中。

在谈到治理原则时,杨致远认为,建立共同道德框架是关键所在。原则之所以重要,是因为它们构成了AI伦理学的基础,而AI伦理学必须考虑到文化和地理差异,这些差异可能导致原则在实践中的表现方式发生变化。 经合组织(OECD)之类的地区性原则和联合国教科文组织(UNESCO)等组织的全球性原则为达成共识提供了有益的阶梯。但这些原则并未提供实用的指南或数据来指导政府和用户公司如何实施以及规避相应的风险。 鉴于不同政府面临的特殊情况,原则的制定还必须考虑到文化和哲学的多样性以及对不同方法的宽容性。

平台提供了参与国际合作的机会。一些特殊的问题向AI工程师提出了挑战。包括数据共享,如何使用数据和算法提高法规的清晰度。 一种可能的解决方案是创建用于控制和共享数据的平台。人工智能伙伴关系允许围绕治理原则进行国际对话和有意义的参与,并深入探讨特定情况下使用人工智能所产生的问题。

伙伴关系也许比原则和平台都重要。我们需要创建和使用原则和平台,但是如果没有合作伙伴,对现实世界的影响将是有限的。在国内层面,政府应通过加强问责制,有效执法,增强消费者权益和支持通过数据创新来寻求数据保护,并通过开发可信赖的数据共享框架,数据监管组合为企业提供指导来AI在可信赖的前提下发展。在国际上,伙伴关系在利益相关者参与中产生,并在AI治理问题上与外国政府和公司进行有效沟通,从而协调治理原则和实践。

杨先生表示,营造一个进步和值得信赖的环境是新加坡在保持社会信任的同时实现AI技术进步的战略的一部分。这是通过一个由学者,公司,社会利益相关者和政府专家组成的AI伦理咨询委员会来完成的,他们都对伦理问题提出了自己的独特见解,确定了要坚持的价值观,并找到了平衡各方利益的解决方案。由于这种多利益相关方方法的参与和平衡,与社会不同阶层的合作将使最终的治理模式可持续。参与AI和数据治理的研究计划有助于增进对如何对政策进行微调和实质调整以应对不同挑战的理解。有一套AI治理计划可用于启动有关数据使用的对话并与新加坡及世界各地的私营部门合作。

杨先生表示,新加坡的IMDA和个人数据保护委员会(PDPC)针对这种情况制定了一系列指导文件,以帮助业界以负责任和合乎道德的方式开展AI技术,包括新加坡AI治理模型,详细解释模型的伴随报告,和两个用例研究纲要。 该纲要通过展示像Microsoft这样的公司如何开发负责任的AI模型来提供实用建议,其中包括人为机制、专业的公司结构、利益相关者的参与以及减轻偏见的保障措施。 这些出版物提供了AI应用中面临潜在问题的现实世界场景,旨在帮助AI治理从业者和利益相关者进行交流,实现AI协作治理。

政府的另一个优先事项是开始讨论人工智能时代的工作重新设计。首先,我们必须考虑如何将人类工作转变为与AI协同工作。 信息技术专业人员的认证对于确保员工具有必要的能力至关重要。 其次,必须绘制工作之间的路径,以帮助工人在必要时过渡。 第三,采用人工智能给员工带来的挑战必须通过培训或正规教育以及新的制度实践来应对。 最后,雇主和雇员必须拥有有效的沟通渠道和机会,以解释实施AI的目的和雇员遇到的问题。

AI人才的培训和认证是AI治理的另一个重要领域。 新加坡已经编制了有关人工智能和数据伦理的课程,供未来的人才使用和学习。 对技术工人进行未来职业教育的方式可能会影响他们将要从事的实践和组织。 这将帮助AI人才的雇主了解潜在员工的寻找条件,考虑到他们在AI产品的开发和部署中的核心作用,这可能会涉及产品经理。

总之,杨先生强调需要与业界合作开发相关的AI治理工具,共同推动对AI的负责任使用,并积极审查和微调实践以确保当前治理模型的相关性。 重要的是要超越原则,并与所有利益相关者一起积极实施,以平衡从创新中获取价值的需求,同时处理其他复杂问题。 以人为中心将是新加坡如何实施AI治理的关键,世界应将其视为AI开发和部署的受益者。

关于人工智能治理国际合作的专家讨论

在回答研讨会的第二,第三和第四个问题时,每位小组成员根据自己的独特经历阐述了他们的答案。霍德斯先生认为,联合国提出的可持续发展目标为政府在人工智能治理的框架内追求的目标提供了明确的目标。可持续发展目标是指导应该追求什么样的结果,并允许联合国充当继续参与人工智能治理原则的平台。

文教授指出,鉴于在宏观问题上已达成广泛共识,因此有必要就AI治理的微观层面上的差异进行研究。 在政府管理AI的方式中,必须有一个平衡点,那就是过于放任和过于家长式。 必须纠正发达国家和发展中国家与AI技术和数据丰富的国家与这些资源较少的国家之间的差距,以实现包容性发展。 经济上和人工智能资源贫乏的国家必须被允许参与并获得收益,因为它们往往是通过人工智能实现的社会创新而受益最大的国家。

舒克里女士基于她在华尔街的多年工作和目前在政府中的作用,考虑了国际AI治理问题。 关键是集中精力在公司,政府和非政府组织之间就实践和经验进行知识交流,以在过去的实践基础上发展,并避免他人重复犯下的错误。 部分解决方案来自培训审计和风险专业人员,以评估和预测治理问题,,因为政府对人工智能治理的挑战缺乏了解。 各国政府必须让跨国公司开发和使用AI来实现社会包容,遵守AI伦理以及与AI共同为社会带来好处。

米特拉先生从他的平台Omdena着手解决问题,该平台是一家协作企业,在本地层面汇集了AI人才和问题解决者,以为当地社会问题创建支持AI的解决方案。 问题在于,AI治理过于受政府和大型科技公司从上而下看待问题的支配。 必须给予基层方法更多的信任,并允许它们从本地化的角度帮助解决问题。

芬德利教授认为,大型科技公司之间存在普遍的信任差距,这些大型公司通过在公共广场上主导AI治理辩论来谋取私利。 政府和公司需要更诚实地说明为什么以及如何部署AI及其对社区的影响。 对人工智能的了解不多,沟通不畅,因此国家机构框架将对解决每个国家的信任问题最有帮助。 另一个问题是数据主权,在这种情况下,数据丰富的国家保留其数据,而数据贫乏的国家则由于差异而无法进行AI开发和部署。

黄教授指出,发展中国家需要制定国家人工智能战略,将战略同样集中于人工智能的经济利益和人工智能可以帮助他们实现的社会公平。同时,政府应该启动计划,使人们过渡到AI很快无法完成的工作,特别是在需要创造力的领域。 该解决方案需要利用来自政府和行业的开放数据来提高容量,这些数据包含非常大量的数据。 鉴于瞬息万变的世界中AI治理的多面性,应该容忍政府对策的多样性。

讨论人员在分论坛结束时同意,人工智能治理必须以人为中心,通过改善人工智能信息的传播来建立信任,并需要就治理原则、工具和机构进行持续对话。