北京市海淀区清华大学01062794781i-aiig@tsinghua.edu.cn

从发布方案到正式组建,中国国家科技伦理委员会在一年多时间里快速推进;国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》,则提出了人工智能治理的框架和行动指南。在国家层面不断推进科技伦理治理体系建设的背景下,科技企业也在结合自身的业务情况进行科技伦理方面的探索和尝试。

对科技企业而言,如何面对内外部环境的变化?在推进科技伦理机制建设中,如何让参与各方更好达成共识?带着这些问题,我们访谈了清华大学苏世民书院院长、国家新一代人工智能治理专业委员会主任薛澜教授。

薛澜教授为清华大学文科资深教授,清华大学人工智能国际治理研究院院长,清华大学中国科技政策研究中心主任,清华大学工程科技战略研究院副院长,同时兼任国家战略咨询与综合评估特邀委员会委员及美国布鲁金斯学会非常任高级研究员等职务。

其研究领域包括:公共政策与公共管理,科技创新政策,危机管理及全球治理。曾获国家自然科学基金委员会杰出青年基金,教育部“长江学者”特聘教授和复旦管理学杰出贡献奖等奖项。

以下为详细访谈内容:

(访谈人:腾讯研究院 蔡雄山、刘金松、周政华)

落实治理最有效率还在企业

腾讯研究院:疫情期间,人工智能在医学诊断、药物研发、公共管理等场景中得到广泛应用。但与此同时,人脸识别等技术的应用也引发了一些争议。从您的角度怎么看这种现象?

薛澜对于人工智能在疫情期间的应用,社会公众的态度总体是比较积极的。从药物研发、抗疫信息交流沟通,这些工具都发挥了很大作用。作为公共管理工具,人工智能在防止疫情传播方面也做出了很大的贡献。当然这个过程中,人脸识别等技术的应用也存在争议。但总体来讲,中国社会对人脸识别的应用,包括追踪密切接触者的技术,还是比较宽容的。

疫情期间,我们是处于应急状态下。为了更有效地去拯救生命、减少给社会带来的损失,个人确实需要让渡一些权利,世界上大部分国家在紧急状态下都会出现这种情况。但政府部门和公司在收集数据的过程中要充分认识公众是在特定情况下让渡了权利的背景,非常明确收集数据的特定目的,尽可能缩小收集数据的范围。数据收集以后,政府和相关的技术公司应该采取相应的措施去保证数据安全。

腾讯研究院:在国家层面,有哪些措施和规划来推动人工智能伦理的落地和实施?

薛澜2017年公布的《国家新一代人工智能发展规划》明确提出要求,必须高度重视人工智能可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。去年6月,科技部人工智能治理专业委员会发布了《新一代人工智能治理原则》。这八条伦理准则是比较宏观、总体性的指导原则。最近,《个人信息保护法(草案)》也提交全国人大常委会审议,并公开征求意见。

这些法律、原则和规范会逐渐对人工智能从设计、开发到应用的各环节提出新的要求和指导,从而给企业提供宏观方向的指引和参照。目前从国家层面来看,要做的是一些宏观的、机制性的框架设计。企业在人工智能技术的开发和应用方面更活跃,落实人工智能治理最有效率的可能还是去推动企业行动起来。

从发展型向规制型转变

腾讯研究院您是科技政策方面的专家,你刚才也提到社会整体对科技行业的发展非常包容。那在面对新一代科技发展中,整体的外部环境会有哪些变化?

薛澜:其实我们看到所有科学技术的应用,它在带来巨大收益的同时也带来一些潜在风险,最核心问题是怎么能够在享受收益的同时让风险最小。我们国家处在在一个转型的过程,科技的创新发展对促进我们经济转型有非常大的推动作用,前些年中国社会对科技创新的发展非常包容,主要有两方面的原因,第一,对处于在发展阶段的国家而言,发展是第一要务,对能推动经济社会发展的技术,我们在应用和推广这些技术的社会都非常积极,努力创造更为有利的外部环境。这些技术带来的一些负面影响我们觉得与其带来的价值相比可以忽略不计。也就是说,在我们的成本效益分析里,我们会把个人隐私、信息安全等潜在的风险成本的比较低,与获得基本生活保障的收益相比,不那么重要。

在经济社会发展达到一定程度后,成本效益权衡已经开始不一样了。原来考虑不多的因素现在权重在开始提高,百姓对个人隐私、信息安全等原本忽略的因素更加关注,促使我们要对科技创新在社会应用方面所产生的风险和不利因素有更全面的分析和规制,从发展型国家向规制型国家转变,整个国家的规制体系建设,包括安全、伦理问题也开始不断推进。当然,相比于其他国家用几十年来完成的这个转变,我们的过程被大大压缩,要在很短时间内完成其他国家很多年完成的事情。

腾讯研究院:在从发展型向规制型转变的过程中,怎么样在鼓励创新和规制做一个平衡?

薛澜:在政策导向上,我们比较强调“包容审慎”。对于以互联网为基础的创新,政府的政策和社会的态度总体来讲非常宽容,从大的发展趋势来讲,这一点我相信不会变。但是另外一方面,我们也能看到政府对明显危害公众利益的事情也会坚决治理。我们这些年一直在鼓励敏捷治理。如果对于行业野蛮生长不管不顾,直到发展成很糟糕的局面,引起社会群情激愤之后,不得不出重手、严打击,最后的结果对于社会和企业都是很大的伤害和损失。但如果政府、企业和社会之间有更好的沟通,政府在看到不良苗头时就及时规制,就可以避免前面的情况。

讲到规制,有些学者把规制分成两种,一种是经济性规制,还有一种是社会性规制。经济性规制就是维护公平的、竞争的市场,确保更好、更便宜的产品或服务提供给大众。社会性规制是保证公众的利益和安全不会因为产品的负外部性而受到损害。在敏捷治理的背景下,规制者跟企业不是零和博弈的对立关系,企业要主动地帮助规制者了解技术趋势和有效治理的方法,规制者也可以基于此制定更好的政策,更好地保护公共安全。

腾讯研究院:从国际上来看,目前的人工智能伦理讨论中,不同国家之间也有一些分歧,包括一些国际性的人工智能伦理宣言中,并没有中国企业参与其中。怎么看这种现象?

薛澜:这确实部分反映了实际情况。我觉得可以从两个方面考虑这个问题,第一,不排除这可能是某些企业国际竞争策略中的一部分,企图遏制中国企业在新兴科技领域发展的势头;第二个,也不排除这些国际企业背后有国家意识形态的考虑,希望国际社会以意识形态划线。当然,我们的一些企业也可能存在不完善的地方,导致国际社会在一些问题上对我们有误解。

但我个人认为也不用特别担心这个问题。首先,像目前针对中国企业在国际市场的一些极端压制手段极大地违反了国际商贸准则,很难长久,后续还是会向比较理性的方向回归。即使在目前这样比较特殊的环境下,我接触到的国际上很多同行其实是愿意,甚至特别期待中国同行的加入。因为对他们来讲,人工智能这些领域规则的制定和讨论,如果没有中国的加入,其实是很大的缺憾。

从长远的角度来讲,这对国际社会也是很大的潜在风险。如果我们全世界有两套互相不通气的科技社会系统,这很可怕的事情。以核武器为例,当年即使在冷战的情况下,美苏仍然签订了核武器控制的相关协定,即使是在两国关系很紧张的情况下,双方依然保持着在核技术方面的交流机制。就是避免互相不了解而可能导致的严重后果。所以理性的国际社会,不管是企业还是政府,都希望有沟通和交流的机制。当然,我们自身也有需要改进的地方。在国际形势越不明朗的情况下,我们的企业越需要做得更好。如果中国企业自身做好了,海外企业跟中国企业在接触的过程中,就可能从怀疑逐渐转为理解,最后在理解的基础上尊重中国企业。我们的头部企业不仅在商场上要做得好,还要依靠我们的价值理念去赢得人家真正的尊重。

机制建设要有透明度

腾讯研究院:从科技行业来看,很多企业也在积极探索人工智能伦理如何在企业层面落地。但从提出伦理原则到落地执行,其实中间还有比较多模糊、甚至是有争议的地带,对这个现象你怎么看?

薛澜:其实所有的伦理问题都是模糊的,如果不模糊就是法律的问题。关于伦理问题,大家如果有不同的想法,是很正常的。在出现争议的情况下,机制和规则恰恰可以发挥作用。以医学研究为例,对于特定的研究是否符合伦理原则,大家可能有不同的看法,无法形成统一的意见。但是如果我们有一个审查机制,通过这个机制做出了判断之后,大家都遵守。这个机制就可以把一些严重违反社会公认准则的可能性排除,而且机制本身也在不断学习、不断完善。

企业在伦理机制建设方面的工作应该要更主动去做。我们已经看到,在现代科学技术的发展过程中,有些技术由于在风险沟通和治理机制建设的工作没有做好,导致这些技术的研究和应用受到很大的限制。这些教训使我们看到,科学界如果不能向社会、公众说清楚到底技术是否有风险、有什么风险、该怎么去防范风险,最终就有可能导致公众对技术不信任,导致创新技术无法得到应用。

在人工智能领域,在一些西方国家,已经出现了一些人脸识别技术应用的限制。从企业的角度,科技行业和龙头企业应该要形成共识,在这方面应该更主动地做出长远的规划。

腾讯研究院:在第三次文化升级中,腾讯把科技向善方面写入了公司的使命愿景,从你的角度,有哪些建议?

薛澜:腾讯在这方面的探索和创新,我们大家都是受益者。我觉得从解决社会痛点的角度来看,企业应该花一点精力探讨,在社会比较关注但是没有商业利益的领域,是否可以做一些事情。举个例子,我始终觉得中国偏远农村的基础教育的确是一个问题。边远地区人员比较稀少,比较难有高质量的教育。在医疗方面也是类似的问题。这些问题在传统商业模式下很难被解决,但是如果可以利用现在新兴的技术手段,有可能去探索一些新路。

现在的互联网教育,更多的还是市场利益驱动,给城市的孩子提供教育培训的产品很多。但怎么把高质量的基础教育引到边远地区,可能还需要更多的努力。这不一定需要花很多钱,需要的是公司和教育主管部门深入讨论,充分发挥企业的创新能力。

腾讯研究院:您提到企业的科技伦理机制建设非常重要,对于企业推进、落实科技伦理机制建设,您有什么建议?

薛澜:首先,企业要意识到伦理机制建设的重要性。第二,机制建设也要有一定的透明度,让社会相信这个机制是在真正发挥作用的。此外,现在很多企业都会发布企业社会责任白皮书。科技伦理机制也应该纳入到企业社会责任当中。

企业在推进伦理机制的落地方面,应该要让员工对于科技伦理有基本的了解。最好的办法可能是把一些案例整理出来给大家分享。伦理准则比较抽象,讲道理也不一定很容易。如果有一些特定的案例,把这些案例背后的伦理困境分析清楚,那么员工就能从中意识到产品中潜在的伦理问题。

在这个过程中,员工甚至可能逐渐形成科技伦理观念,能够意识到一些事情长远来看弊大于利。有了这种意识,很多问题就可以被发现,避免发生。在科技伦理机制建设上,行业的头部公司应该更主动地实践,在行业内树立标杆,如果更进一步的话,可以推动形成行业联盟,在科技伦理方面达成共识。

更多消息 敬请关注

清华大学人工智能国际治理研究院

上一篇:梁正教授接受央视《法治在线》采访谈人脸识别

下一篇:傅莹新书《看世界2》发布暨研讨会举行

关闭

相关文章

读取内容中,请等待...