北京市海淀区清华大学01062794781i-aiig@tsinghua.edu.cn

中新经纬7月15日电(王玉玲 实习生 郭西子)近日,由对外经济贸易大学数字经济与法律创新研究中心举办的“算法公平治理与实现”研讨会在线上举行。清华大学公共管理学院教授、清华大学人工智能国际治理研究院副院长梁正认为,公平具有多维性,常常面临“不可能三角”式的挑战。分级分类定制化的治理方案可能更务实。

关于算法公平性的定义,梁正以COMPAS案件为例总结了三个视角。第一是统计平等,即COMPAS对每个种族群体,比如黑人、白人,被拘留的被告人数比例相等。第二是条件统计平等,指在有限的风险因素情况下,每个种族群体中被拘留的被告人数比例相等,即犯罪风险的概率同等。第三是预测相等,偏误的假阳性和不同种族群体预测的准确性应大致相同。

梁正指出,在公共管理领域中,起点公平、过程公平、结果公平三者不可能同时实现。对于不同层面的算法公平性,满足其中某一个定义,可能另外一个公平性就得不到满足。公平性的定义实际上与资源分配密切相关,但常常面临“不可能三角”式的挑战。此外,梁正还提出了一些算法治理的困境,如当涉及到公平正义的问题时,用什么工具判断?这个工具可靠吗?从落实平台责任角度来讲,怎么去解决复杂性问题?梁正表示,有些从技术上来讲基本上是做不到的,但这些困境需要解决。

梁正表示,从国外实践来看,采用分级分类定制化的治理方案可能更务实。算法公平也是保障公共利益最大化。算法分级分类,即在判断风险要素识别和分级分类基础上,我们才有相应的规制要求和力度。不同监管规则的设计应注重与具体场景相匹配。因此,从这个意义上,算法公平问题涉及社会资源分配,同时也涉及具体场景的多元因素判断。

上一篇:张钹院士专访:人工智能永远在路上

下一篇:薛澜受邀出席2024世界人工智能大会暨人工智能全球治理高级别会议并在全体会议上发表主旨演讲

关闭

相关文章

读取内容中,请等待...