北京市海淀区清华大学01062794781i-aiig@tsinghua.edu.cn


嘉宾简介

6B4A

崔鹏:清华大学计算机系常聘副教授、博士生导师

主持人简介

DC54

于洋:清华大学人工智能国际治理研究院国际学术交流项目主任、交叉信息研究院助理教授

Part 1:如何基于因果分析和系统控制的基本思想形成支撑可信框架?

于洋:算法监管作为一个系统工程,我们的因果的和系统控制,基本思想怎么能够来支撑?

崔鹏:我觉得他总体上来讲是一个模型或者技术路径,它实际上是个渠道,就是你的效率和风险。在这种情况下,对风险极其敏感,就需要它更加的保证它的解释性、稳定性,还有它的可回溯性。

Part 2:AI预训练大模型是否会为了完成大量任务而造成损失?

于洋:如果我们从因果的角度来思考,为了完成很多任务做的预训练模型本身它会不会造成可靠性的这种损失?

崔鹏:关于大模型,其实我觉得现在大模型基本上大家是在看到了很多非常大的一些潜力。它最有可能真正地学到了语言的逻辑,只不过这个语言的逻辑不是你人定义出来的,而是它通过大规模的数据给它抽取出来一个东西,这抽取出来的东西你不一定能够非常好的给它symbolize,就是所谓的符号化。

Part 3:AI技术时代需要以开放性监管思维去思考如何建立系统的算法监管体系

于洋:人工智能在应急治理里面当然非常有作用,人工智能在应急管理、应用领域有什么应用?

崔鹏:所谓幸存者偏差当然是一种偏差,还有各种各样的偏差,它实际上最后它的一个核心的逻辑总体上来讲是样本代表性的问题。



下一篇:AI治理对话录第三期(中)——崔鹏谈可信AI的因果机制

关闭

相关文章

读取内容中,请等待...