北京市海淀区清华大学01062794781i-aiig@tsinghua.edu.cn

undefined


人工智能技术与算法息息相关,算法到底是什么?为什么它可以决定我们看什么、买什么?我们会被算法“算计”吗?对于普通人来说,算法这把“双刃剑”在给生活带来诸多便利的同时,也自带“黑箱”属性,难免引发人们的担忧。


3月9日,南都举办“两会大家谈”之人工智能专场——如何不让算法成为黑箱?清华大学公共管理学院教授、人工智能国际治理研究院副院长梁正教授与来自哲学界、法学界的专家学者针对相关问题展开深入交流。现将梁正教授的部分精彩观点整理如下,以飨读者。

undefined


3月初,《互联网信息服务算法推荐管理规定》(下称《规定》)正式施行,要求算法推荐服务提供者以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。算法已经渗透到公众生活的方方面面,但是,什么是适当方式、公开到何种程度等问题仍有待细化。


会上,专家认为,我国的治理原则与国际通行的监管思路相近,在步伐上已经比较靠前。但在算法治理上,我国“强监管”的特色也带来“弱自律”的弊端,未来需强化行业和公民社会的自律机制。另外,从制定政策的过程来看,未来需要全行业加强交流和研究,确保政策的可行性。


算法治理要了解业界,考虑政策可行性


《规定》作为算法治理领域的首个系统性文件,已经正式施行。规定涵盖了目前互联网算法的五个子领域,囊括了大部分的算法应用,它实施起来会有哪些困难?未来会否有更细化、更具体的文件出台?


梁正教授认为,《规定》的出台意义很大,体现了一种积极的预见性治理思路。其中一些要求对业态的影响非常直接,这些要求本身是从平衡公众、产业、社会福利的最大化出发的。


然而,对于新技术治理,一些要求可能有可行性的问题。例如对于备案的要求,《规定》要求,算法推荐服务提供者的备案信息发生变更的,应当在变更之日起十个工作日内办理变更手续。而备案要求在算法领域可能会难以落地。


他举了自动驾驶中高清地图的例子。“如果按照传统地图的管理规定,那么高清地图也是有一个版本就要做一次备案。但实际上高清地图每天都在变。因此我们听到业界常说,你不去了解真正的技术已经发展到什么程度就提出一些要求,这些要求很可能是不可行的,不可落地的。”


基于这些问题,梁正教授建议,未来还是应细化这些标准和规范,进行分级分类、分场景治理,标准规范的落地一定要针对具体问题,考虑到技术应用在不同场景下应达到什么样的要求。而这需要整个行业包括专家学者、企业人士等进行深入交流和探讨,确保政策可以落地。


企业应加强算法透明度和可解释性

2018年,“大数据杀熟”当选为年度社会生活类十大流行语,个性化推荐、自动化决策等话题也逐渐走入公共视野。此外,对外卖骑手的关注、热搜榜规则的质疑更进一步地催动大众对于算法黑箱的不满,呼吁算法公开、透明的声音也逐渐难以忽视。那么,算法该如何监管?企业又该如何使算法更可理解、使用户有更多选择呢?


对此,梁正教授提出了自己的观点。“(算法公开)从技术的角度既无必要、也存在一定的不可行性。因为目前基于机器学习训练的算法,是不断迭代的。”他解释道,“而比如在大型科技公司的个性化推荐算法可能有上千名工程师共同完成,在两者的共同作用下,算法公开在技术上有很大的不可行性。”


梁正教授提出,算法公开可从因果机制入手,引导其向可解释的方向发展,他以购买汽车举例:“就像我们作为普通消费者去购买一辆汽车,没有必要去了解汽车的发动机它是怎么运行的。”在算法公开的过程中,相较于技术细节和特征参数,他认为应更着重于其设计算法时考虑的特征因素。

上一篇:姜李丹、薛澜:我国新一代人工智能治理的时代挑战与范式变革

下一篇:人工智能国际治理框架闭门研讨会成功举办

关闭

相关文章

读取内容中,请等待...