北京市海淀区清华大学01062794781i-aiig@tsinghua.edu.cn

“想象中的2022 ”

我们从未想过这样的2022年,是人类社会面对如此巨大挑战的一年。当新冠疫情所带来的余温依然触手可及,当各类社会经济组织面临了前所未有的危机,越来越多的人停下脚步开始进一步思考:人类是否在未来的某一时刻面临生存与毁灭的困境?人与地球是否能够实现真正的可持续发展?何为人与人工智能机器的相处之道?曾经声势浩大的人工智能浪潮是不是正在褪去?

1957年,美国著名科技杂志《大众机械》提出:“21世纪20年代初期,美国的道路会变成气动管道。”1965年,美国科幻电影《史前星球之旅》上映,人类宇航员旅行了数千万公里登陆金星探险。1997年,《连线》杂志也曾做过相似的预测:即大约在2020年前后,人类可以登上火星一探究竟。

据维基百科不完全统计,至少有97部科幻电影的时间线涉及到21世纪20年代。想象中的现在,《银翼杀手》中汽车已能够在高楼林立的城市中穿梭飞行;《捍卫机密》中人类只要戴上一个头盔,无需说话就可以直接利用人脑运输资料;《机器战警》中被科学家改造成了半人半机器人的“铁甲威龙”守卫着城市的和平;《终结者》中人类打造的机器人甚至开始统治世界……

然而,如今的世界并没有像科幻电影里一般变得“赛博朋克”,车还是不能在空中行驶,人工智能依旧不能代替真人,“脑联网”还没有被马斯克实现,我们也没法买张机票飞去火星……

但是,我们确实在迈向一种人机共生的时代。从早上睁眼开始,我们的目光就需要在各类电子屏幕之间移动,移动通讯设备和笔记本电脑成为大多数人生活中最重要的“伙伴”,不论是学习、工作还是社交、娱乐,机器让一切都变得简便。三次工业革命让人类的生产力大大增加,最近一百年创造的知识和财富远超过去几千年的总和,这让人类有了从未有过的雄心壮志。当人工智能、云计算等这些已经被实际应用的技术越来越融入人们的日常生活,人类有理由期待更加自动化的生活。

“人类自私的基因 ”

马克思说:“各种经济时代的区别,不在于生产什么,而在于怎样生产,用什么劳动资料生产。” 当科技成为了我们的一种基本思维方式、生活方式的时候,智能经济时代的序幕已经拉开。

然而科技在推动社会进步的时候,可能会成为某种不恰当工具来推动人性的异化以及扭曲,而这种异化和扭曲反过来会进一步推动技术进步,引发更多的负面性。电影《她》中的主人公沉溺于虚拟智能世界,难以适应现实社会。这种现代版的洞穴之喻表明,我们不再害怕黑暗的虚幻之物,却害怕面对现实的光明。

电影中的超级 AI不仅仅是幻想,它表明了现代人早已不再满足于冷冰冰的科技产品,而是想发明一种像人的玩物来满足私欲,自己去扮演全知全能的角色,不用承担现实责任。这是否意味着,科技这一丰富的养料正在助长人类自私的基因?

当一个个更先进、更智能的 AI产品,被创造出来填补某些欲望之壑的时候,人与人之间的秩序尚还是无解之题,何以构建人与机器世界的和谐伦理秩序?也许我们能在新书《黑镜与秩序:数字化风险社会下的人工智能伦理》中找到一些启发。

“黑镜 ”

在这本书中,作者从“黑镜”的隐喻出发,将人工智能的伦理与治理置于大历史框架下,置于科技史、哲学史乃至世界史之中,讨论范围涉及计算机科学、经济学、管理学、心理学、生物医学等跨学科领域之中,兼具学理性与通俗性。书中比较系统地分析了现代新兴技术伦理发展困境和全球人工智能伦理与治理体系,结合人工智能行业实践案例和国际政策解读,为读者提供前沿的技术洞察,寻求解决数智化社会现实问题的有效路径。

正如清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜教授所言,“也许人类终究难以找到如何与人工智能相处的最佳之道,但只有透过科技的镜像不断反思人类社会的伦理,才能推动社会治理范式的适应调整,这也是本书带给我们的最大启示。”黑镜的隐喻,就是人性在科技浪潮中的狂欢下带来的反思,我们难以在历史中找到相似的范式,尤其是如何与AI相处的层面,人类是缺乏经验的。

当屏幕上的光亮渐消,漆黑的面板终于暴露了被遮蔽的真相,“世界先是变丑,然后熄灭”。这里不可忽视的是镜中映射出的交互图像:人类一旦进入到元宇宙虚拟世界之中,其主体性就被解构了,并以新的编码方式重构为另一种形态。当我们回溯性地重构,得到的便是一个扭曲了的“我”。这就是“第二自我”(即赛博空间代理人)与真实自我之间的巨大裂缝。更严重的是,“第二自我”还会对真实自我造成伤害。网络的便捷性加速了第二自我取代真实自我的趋势。但真实自我被取代之后,第二自我无法具有人的爱恨情仇,于是一种自反性的悖论出现了。这使后人类主义走向了自己的反面,如幽灵般徘徊在“精神—身体—精神”与“人文主义—后人文主义—人文主义”这一螺旋结构中。

“秩序 ”

回到数字社会本身,这本书中反思了 AI的发明和制造本来是为了什么呢?我们是想追求一种和谐美好的生活,一种人类与智能机器友好共处的文明社会。当前,我们离理想化的数字社会还有很长的距离,人们面临的挑战在于,科技行业习惯于向前看,更多地关注产品创新、技术落地、产业变现等问题,这对行业而言是件好事。当写字楼里西装革履的高管、兢兢业业的程序员都在整齐划一地朝着这些问题前进,很少有人愿意花时间、甚至愿意接受一种有益的做法,即认真观察后视镜,以便能够利用过去的经验来预测转弯之处的问题。然而,观察后视镜,即通过梳理历史信息,时刻按住科技发展趋势的脉搏,迎接不断严峻的科技社会伦理难题,对任何一家“高速路上”的科技公司来说都是意义重大的。

关注“伦理后视镜”,从而不断调整前进的角度和速度,近年来已经慢慢被一些优质公司所重视,越来越多的人工智能科技公司成立伦理委员会来指导公司产品发展。实际上,关于AI的伦理问题,早在 2011 年,微软、IBM 和多伦多大学就已经意识到 AI 领域非常需要克服偏见之后的公正性。从技术层面解释,这是因为 AI 中大多数算法模型的工作方式都是黑盒子,研究人员通常只知道输入内容和输出的结果与质量,但无法解释清楚 AI 算法内部的工作机制。如果AI研究者利用带有偏见的数据集或者在调整参数时加入自己的偏见,都有可能导致 AI 输出结果的不公正。在 AI 的“黑盒子”可以被清楚理解和完整解释之前,一个值得参考的建议是,先确立 AI 的基础秩序与法则。

“这本书以黑镜的隐喻开头,聚焦实体与虚拟之间作为媒介的视线折射关系,同时也强调倒映在中性科技之上的人性阴翳,并试图为人工智能发展装上调整方位和速度的后视镜。新锐作者们在认知计算高歌猛进的过程里发现并考察了算法黑箱化的风险以及提高决策伦理要求的意义,进而通过一系列不断折射、递进的反身性动态来形成和维护一种以人为本的新型治理方式以及法律秩序。我以为,在社会系统与个人行为、正义理论与行业实践之间推进的上述思考实验是值得大家关注的。”上海交通大学中国法与社会研究院院长季卫东教授对《黑镜与秩序:数字化风险社会下的人工智能伦理》如是推荐,我想这也是这本书有别于其他的同类学术专著,最具人文气质的地方。

上一篇:曾毅教授主持“促进生物多样性保护的人工智能原则”倡议发布会

下一篇:薛澜受邀出席2024世界人工智能大会暨人工智能全球治理高级别会议并在全体会议上发表主旨演讲

关闭

相关文章

读取内容中,请等待...