北京市海淀区清华大学01062794781i-aiig@tsinghua.edu.cn

分论坛二|人工智能治理促进可持续发展

分论坛二:人工智能促进可持续发展会议纪要

2020年12月18日,由清华大学人工智能国际治理研究院(I-AIIG)主办,联合国开发计划署支持的清华大学人工智能合作与治理国际分论坛二于清华大学主楼后厅,以线上线下混合的形式召开。会议以人工智能治理促进可持续发展为主题,由联合国开发计划署助理驻华代表张薇主持,邀请到了各界专家交流意见。在联合国儿童基金会创新主任托马斯·戴文,麻省理工学院物理学教授马克斯·泰格马克,以及中国科学院自动化研究所中英人工智能伦理与治理中心主任曾毅分别作专题报告后,六位座谈专家就人工智能为可持续发展带来的潜在益处和挑战、政策制定、数据鸿沟等相关议题进行了进入探讨。

一、专题报告一

联合国儿童基金会创新主任托马斯·戴文提到,人工智能提供了之前未曾设想过的解决方案,重塑了人们对于数字与社会问题关系的理解,对于社会福利的作用潜力是巨大的。人工智能发展的关键在于如何释放和控制潜能,这其间有一些挑战,包括:

第一,目前世界对于挖掘人工智能发展潜力的能力仍然不足。人工智能所释放的能够促进社会进步的能力还没有完全展现,人才缺口巨大。现在,世界上仅有30万人工智能工程师,然而所需要的工程师人数在百万以上,差距非常之大。在这方面,通过资金投入的市场手段来培养和吸引人工智能专家。但很多的发展中国家无法做到这一点,不仅存在人才短缺的问题,还有人才流失的问题。

第二,技术发展不平衡。当前世界上有一半人无法连接到互联网,约有37亿人,而人工智能的发展和机器学习是基于数据集的,因此目前数据集大多来自富国。机器的假设、预测和分析也是针对这些富裕的国家,而对低收入人群的行为并不了解。因此在运转质量分析和预测的时候,机器针对低收入人群的预测效果大幅降低。另一方面,数据的产生也并不平等。即使单论能够联网的人群,富裕的人也会比贫穷的人产生更多数据。例如50%的出行数据中,都是由20%的富裕人群生产出来的。低收入情境的数据匮乏导致了数据鸿沟,这或许要依靠改变算法来解决。

托马斯·戴文也提到了目前可以努力发展的几个方向:

首先,普及知识或建立辅助工具来帮助中低收入人群使用人工智能,使得人工智能的使用更加民主化、广泛化。更庞大的用户平台也能够提供不同的视角,甚至提供为发展提供更好的解决方案。其次,要建立好政府与企业的制衡体系,去了解算法是否有效、完整,是否存在歧视、偏见等权益问题。也可以引入第三方进行独立的评估,保证人工智能的使用不倾斜于富裕群体,而是真正有需要的人群。最后,搭建不同合作伙伴之间的平台,积极沟通。联合国儿童基金会也在投资一些人工智能项目,以期了解技术是如何成熟的。

二、专题报告二

麻省理工学院物理学教授马克斯·泰格马克关于人工智能主要提出了两点:一是要有一个共同而积极的愿景,二是要有一个清晰的使用红线。

关于第一点,马克斯教授提出人工智能并不是一场零和游戏,一个国家赢而另一个国家输,而是各国都能通过合作收益,也都会因为技术的误用而受损。要实现协作就需要有一个共同积极的愿景。例如欧盟正是有着不同利益的国家基于共同积极的愿景而成立的,如今在全球层面上对于人工智能的问题也应当如此,即使是在当前地缘政治紧张的局势之下。例如,在过去的一百年当中天花导致了5亿人的死亡,最终因为疫苗的出现,现在天花几乎从世界上消失了。这正是来自来自苏联和美国的科学家携手合作的成果。最近在自然杂志上发表的论文指出,AI在很多方面都能够助力可持续发展目标的实现。因此”AI for SDGs”智库的成立非常必要,它也能够帮助人们识别可能损害可持续发展目标实现的相关陷阱。

关于第二点,仅有积极的愿景是不足够的,我们需要了解问题是什么,如何避免,红线在哪里,划定能做和不能做的界限。不光是人工智能,所有的技术都具有两面性,需要经历这样划定红线的探讨。就如同生化技术可以被造成武器,也可以被造成疫苗一样。中国已经同很多国家一道人工智能武器化的使用。目前一些关于AI发展的原则已经被制定出来,包括被1000多家AI研究机构签署的阿西洛马人工智能原则,以及面向儿童的人工智能原则等。

AI带来的颠覆性影响是人类所面临的共同问题,没有国家能够单枪匹马地解决。中国古老的文明使其拥有了长远规划的传统,另一方面,中国也是人工智能发展的重要引擎,因此要欢迎中国的智慧和领导力来帮助开发全球性的人工智能原则。这次疫情让人们意识到了当下世界各国已经变得息息相关,一荣俱荣,一损俱损,需要全球各国共同努力来避免争端,实现发展。

三、专题报告三

中国科学院自动化研究所中英人工智能伦理与治理中心主任曾毅主要探讨了负责任的人工智能可持续发展。在AI的远景规划里有不同的流派,左边以人为中心,右边则相反。而可持续的人工智能的概念靠近右边,提出要更多地去关照生态和环境。

在制定联合国教科文组织关于AI给政府的建议时,“和谐”被作为一个重要概念提出。从中国儒家的角度,和谐意味着自我和谐、家庭和谐、政府和谐,不同种族、不同国家之间的和谐,还有人与环境的和谐相处。目前,人类与人工智能之间也需要和谐。“和谐”也意味着在一个群体内团结一致,成员更注重维持社群的和谐而不是个人的利益。成员属于更大的整体,并且跟其他成员一荣俱荣,一损俱损。

在可持续发展人工智能智库的建设过程中,需要把所有相关案例搜集在一起,研究17个可持续发展目标是如何与AI相关联的,提炼出结论。可以看出当前只有少数可持续发展目标得到了人工智能较多的支持。比如说卫生、教育等等,而在很多方面比如说陆地上的生命、水下的生命,气候行动、零饥饿等等是缺少研究的。

并且,目前对于可持续发展人工智能的研究并不平衡,800多万跟人工智能相关的论文中只有0.1%是关于可持续发展目标的。所以关于AI的研究目前并没有和SDG有很强的关联。所以通过AI来实现可持续发展目标也是我们的责任。这也是我们关注人工智能对儿童的影响的原因。因为下一代是最弱势的群体也是我们的未来。儿童对对于人工智能知之甚少,一旦做出决策也无法按他们的意愿进行,因此更需要加以保护。我们发布了面向儿童的人工智能北京共识,联合国儿基会也付出了很多努力。

另一个值得关注的角度是面向生物多样性的人工智能。例如,澳大利亚大火导致了30亿个生命体死亡,30亿动物死亡。强大的人工智能并没有没我们用来去拯救这些生命,因此 我们提议要面向生物多样性来使用人工智能,不止是要保护野生动物,同时保护家养动物。

最后,确保机器赋予是设计的目的,这样才是负责任的人工智能。我们要思考人和人工智能的长期关系。不同国家赋予了人工智能不同的意义,日本提到人工智能可能是伙伴,西方认为人工智能是工具,中国将其视为伙伴和工具之间的定位,在科幻设定中人工智能是竞争对手。伙伴和对手之间都是未来发展的方向。未来是一种共生的社会关系,我们希望实现人、动物、人工智能以及其他生物之间的和谐共生。

四、座谈研讨

在座谈部分,会议邀请到了联合国全球脉动行动数据隐私专家米拉·罗曼诺夫,北欧人工智能研究所执行董事克里斯蒂安·古特曼,清华大学公共管理学院副院长、清华大学全球可持续发展研究院执行院长朱旭峰,斯里兰卡技术基础设施智库主席罗罕·萨马拉吉瓦,地平线首席战略官郑治泰,以及瑞典大使馆创新参赞南南·伦丁六位专家。

南南·伦丁提出,在讨论实现可持续目标时,要注意可持续发展目标并不是一个目标清单,在目标实现后一一将其划掉,而是要以此来实现一个变革性的长久变化。在此背景之下,需要像人工智能这样的工具来帮助实现这个变化,应对这些转变的复杂性,形成合力并且作出权衡。因此,政府决策者需要把人工智能当成一个赋能的工具,也需要就清晰的路径来达成一致意见,划定实现可持续发展目标的框架。

目前存在的一个问题是对技术缺乏了解。政策制定者需要了解这些可持续发展目标的系统体系以及人工智能技术,实现政策和技术两端的对话,搭建互相理解的桥梁。否则,人工智能就不能够真正促进可持续发展目标的实现。现在,政策对话比以往更加重要。原因在于人工智能是一个新型的、演进非常快速的技术。所以决策者需要看到所有的可能性、限制性还有问题,了解在研究人员看来人工智能的潜力和限制是什么。同时,还需要跟技术人员从政策侧解释在实施可持续发展目标方面有什么需求,以及想要得到技术侧什么样的支撑,目前的困难。所以人工智能更多是一个赋能的工具,而且必须是一个赋能的工具。

罗罕·萨马拉吉瓦通过斯里兰卡的例证说明了技术运用和数据集建设的重要性。可持续发展目标第11项是防灾减灾,目前斯里兰卡发生了非常严重的洪灾,造成的经济损失甚至超过了海啸。在此背景下,如何使用技术,如何将技术本地化来帮助当地人撤离、带走重要的资产显得尤为重要。在和谷歌联系后,谷歌在印度和孟加拉河流中利用人工智能、机器学习的技术部署了一套系统来研究上游和降水的数据,为之后的洪灾发布预警,这成为了一个非常很好的应用案例。

另一方面,斯里兰卡也面临数据缺少的问题。如果有足够的数据集,应该能取得更大的进展,在一些下游的南面河流是没有充足数据的,就不能对模型进行训练,也不能预警。因此作为政府,我们应该努力获得这些数据,保证这些数据用来完成人工智能数据模型的训练。

米拉·罗曼诺夫作为数据专家也强调了数据获取的重要性,提到了必须要有合适的数据对人工智能进行训练。在与非洲政府的合作中,已经实现了通过人工智能技术来减少饥荒,实时追踪食品价格来助力食品安全。类似的还有帮助实现负责任的生产消费以及性别平等的项目,使用电商交易来了解节能生产,使用用户的信息来了解到经济波动对男性和女性产生的影响。在现在全球都关注的公共卫生问题上,人工智能技术也被证明是能够有效帮助控制疫情的。

现在较大的问题在于,第一,人工智能的使用还没有主流化、标准化和广泛化,没有达到实现可持续发展或疫情防控所需要达到的水平。第二,在使用人工智能是缺少信任。因此,就不敢通过使用或释放数据来帮助实现可持续发展目标。治理框架的搭建能够帮助获取高品质的数据,也保证人工智能的可信任度。第三,人工智能治理还需要体现包容性。在非洲实验室和雅加达实验室的经历使人意识到对于人工智能治理的相关问题,全球各地的认识并不一致。这不光体现在各地对于人权、伦理理解的差异,也体现在各国能力的差距。一些国家在制定人工智能战略方面还比较落后,从而不能保证人工智能的实施,以帮助可持续发展目标的实现。因此,考虑到需求、文化、背景、能力等差距,在设定人工智能策略时,包容性尤为重要。

郑治泰提出在数字时代,如何使人在数据的拥有和使用方面和机器是平等的也是一个挑战。在人机交互方面,目标应该是人类得到机器和机器人的服务,同时不以牺牲隐私为代价,所有的计算等等数据的分析都是基于终端,可以节省能源和交通的成本。

欠发达的地区往往缺乏通讯技术。如果基于计算的AI可以被应用到这些地区,人们就可以得到优质服务,但是同时可能存在安全问题。因此要去报人们使用机器的同时还在控制机器。我们的长期目标是AI要为人类造福,而不是人类为AI服务。不管老人还是小孩,都拥有平等使用机器人的权利,这是我们长期的愿景。

克里斯蒂安·古特曼提出,人工智能并不是帮助我们实现目标的工具。从企业家的角度而言,在用AI武装自己的同时也要对其进行管控。企业家们已经在实践过程中面临了许多具体的问题,对技术的管控可能会给他们带来额外的挑战。因此在设定法律法规时要尽量让相关利益方、商业领袖加入,并充分考虑可行性。另外,如果可持续发展及其影响跟商业社会相关,就需要向社会不断重申和强调这些影响。

在数据方面,有时数据偏见被过多地强调了。因为数据本身有不同的形式,人工智能也以不同的方法来使用数据,如果只运用一种数据的话,就限制了人工智能技术的发展。并且很多时候人工智能的发展程度并不一定基于使用的数据量。不是所有的人工智能技术都要求海量数据。中国在数据量上有优势,能够进行模型训练,但可能这一点并不是必须的。有时可能只需要一次性或几次的学习,而不需要几百万次的学习就可以实现人工智能的训练。

朱旭峰提出可持续发展目标提供了一个整合性的框架,是一系列的指数来帮助不同的国家来实现相关的目标。这些目标的本质就意味着实现一个目标的背后,有一系列的其他的目标,和相关的一些妥协。例如在减贫以及加大社会的包容性的过程中,可能必须排放更多的二氧化碳。所以不同的可持续发展目标之间有千丝万缕的联系,中间也会有一些妥协,不能只思考人工智能和每一个可持续发展目标之间一对一的关系,而要注意AI对每一个可持续发展目标,都会影响到另外的目标。因此,要以个性的和实际的看法来思考AI如何帮助可持续发展目标的实现。

目前朱旭峰的团队已经搜集了两百多个全球的案例,希望把它整合成一个数据库来帮助全球的决策者,作出更好的决策。同时识别出AI如何影响相关的目标的实现,潜在的损害在哪里。

关于如何寻找控制技术与促进创新的平衡点,专家们提出了各自的宝贵意见。郑治泰的看法是要让商业案例在前,政策规定在后。在技术发展伊始,不要采取强监管手段,而是应当在基本政策下进行发展,同时寻求一个能够开发技术并保护隐私的政策法规。克里斯蒂安·古特曼认可监管与创新的作用,并希望能够增加投资的机会,让技术发展能够提速进行。因为监管的强硬程度对于投资有很强的引导性,因此监管需要具备预测性。在考虑现状的同时预测人工智能日后的发展。医疗行业的监管发展了很久,较为成熟,一般是先进行实验,再在分析结果后批准使用,这一方式值得借鉴。罗罕·萨马拉吉瓦提出要鼓励行业和政府官员之间进行互动,尤其在立法之前,政府要与行业人士之间进行交流问答,从而去了解双方的意见。机器训练是围绕着数据的合成进行的,因此政府需要确保合成数据后果的可控性。

最后,专家们就人工智能如何扬长避短,在造福个人和社会的同时,减少负面影响分享了观点。南南·伦丁指出监管方和创新方需要改变思维,相互支撑而非相互弥补,形成互通的话语体系,团结各界。例如瑞典已经设立了推动对话的委员会,中国也有了类似的委员会。最后,我们还需要摒弃所谓的追赶思维,合作共同创造价值。朱旭峰提出人工智能的负面影响来自于两方面,一是直接的恶意使用,例如利用人工智能犯罪、刺杀、战争等。另一类是人工智能带来的意料之外的负面社会变化,例如人工智能在促进经济发展的同时也加剧了社会不公,在增进公共健康时也导致了社会老龄化。因此需要严格监管,防止技术落入错误的人手中,同时也要建立政府框架,形成具有适应性和敏捷性的治理,以理解和引导创新。