嘉宾简介
崔鹏:清华大学计算机系常聘副教授、博士生导师
主持人简介
于洋:清华大学人工智能国际治理研究院国际学术交流项目主任、交叉信息研究院助理教授
Part 1:人工智能如何学习因果机制才能变得可信?
于洋:在因果分析里面有三个层面,一个是他自己的因果分析,就是他自己是怎么、为什么这么做决策?第二是他怎么学会真实世界的因果,第三是他怎么学会人做决策的因果。从可信的角度来讲,您觉得这三个层面它分别对应着可信的什么问题?或者说这三个问题中哪一个可能是最迫切的,哪一个是最有可能尽快解决的?
崔鹏:其实谈到因果本身这个问题就比较哲学。它本身实际上是一个哲学上不是很扯得清楚的一个概念,当然如果我们聚焦到人工智能和因果的结合,我觉得这三个层次其实都很重要。
Part 2:聚焦因果推断的可用性与功能性,强化学习人工智能在实际应用中的发展
于洋:在未来的处理异质性的过程中,强化学习是必须引入的东西吗?
崔鹏:强化学习我觉得它可能更多的是对于环境得有一个刻画,对吧?但是如果从比如说我们一个普通的预测模型,不像强化学习,我们是一个这种决策类的。所以它就是一个预测模型,也应该把异质性的识别和它的不变性的学习,这两个东西它必须得是一个专业对特体的迭代的过程。我们认为只有这样才能找到那股变性。
Part 3:人工智能的可解释性与可回溯的区别
于洋:您觉得可回溯和可解释性之间的区别是什么?
崔鹏:其实可解释这个词,我觉得也跟可信性一样,你要求的可解释是对谁解释?如果他要对用户解释,你就要做好可视化。可回溯实际上指的就是说我们现在可能有这样的一个结果,比如这个结果错了,我们做了一个决策,做了一个预测,他错了,但他为什么会错?他能不能追根溯源,追到到底是哪一部分特征,哪一部分输入导致了他犯的错误。