2022年12月9日,由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办、联合国开发计划署(UNDP)等国内外机构共同支持的第三届人工智能合作与治理国际论坛在清华大学(线上)开幕。本次论坛以“人工智能引领韧性治理与未来科技”为主题,在继2020年聚焦“后疫情时代的人工智能国际合作与治理”、2021年探讨“如何构建一个平衡包容的人工智能治理体系”的基础上,致力于进一步推动全球各方在人工智能合作与治理方面的对话,更加深入地探讨如何构建适合人工智能健康发展的治理体系,推动建设人类命运共同体。
在当天下午举办的首场专题论坛上,主要来自行业界的专家围绕“人工智能产业发展与治理”这一主题做了精彩发言和交流研讨。商汤科技副总裁,商汤集团AI伦理与治理委员会主席张望,华为公司人工智能战略与产业发展副总裁秦尧,英特尔研究院副总裁、英特尔中国研究院院长宋继强,微软亚洲研究院首席研究员、IEEE Fellow谢幸参与了论坛上半场。阿里巴巴标准化业务副总裁朱红儒,京东集团副总裁、加拿大工程院外籍院士、IEEE/CAAI/IAPR Fellow梅涛、字节跳动研究部门负责人李航,腾讯研究院秘书长张钦坤参加了论坛下半场。论坛上半场由清华大学惠妍讲席教授、衔远科技创始人、清华大学电子工程系长聘教授、CAAI fellow周伯文主持,下半场由伏羲智库创始人、中科院计算所研究员、清华大学互联网治理研究中心主任、公共管理学院兼职教授李晓东主持。
周伯文表示下一代AI的突破会从纯虚拟的存在转到帮助人在物理世界、生物世界和信息世界更高效洞察、形成知识、并完成任务,这些都离不开对人工智能治理的探索。在此背景下,清华大学人工智能国际治理研究院团队于日前刚刚完成了《我国算法治理政策研究报告》。报告就人工智能算法定义与分类、算法经济与社会价值、算法应用风险来源、算法治理要素框架、国外算法治理理念实践、我国算法治理进展与现状等进行了系统分析,并选取医疗辅助与自动驾驶算法进行了案例分析。在此基础上,依据算法治理“五要素”分析框架,指出当前我国算法治理存在的突出问题,即在治理目标上不够聚焦、现有规则缺乏体系性;在治理主体上存在“部门竞争”,未能形成治理合力;在治理对象上重点规制市场主体,忽视公共主体算法责任;在治理手段上以行政监管为主,对技术治理措施重视不够;在治理模式上以落实平台责任为主要抓手,覆盖多方利益相关者的责任机制不够完善。基于此,在政策建议上提出我国需建立与完善算法治理框架,包括在治理目标上实现算法可问责与算法经济高质量发展,在治理主体上通过部际联席会议制度形成算法治理合力,在治理对象上建立共性规则和标准以便统筹考虑多元应用场景,在治理手段上善用技术治理措施,在治理模式上优化多元主体参与的协同共治模式,以及在微观层面上,构建并适用全生命周期风险管理流程,做到保证数据可追溯,算法可问责,模型可监督。
周伯文发言
张望在主旨发言中指出,AI赋能百业,推动数字经济2.0 时代的到来。其不确定性可能带来许多全球性挑战,引发根本性的伦理关切。AI带来的风险从类型上分为数据,算法和应用三类,以及伦理层、安全层两个层面。商汤科技秉持敏捷治理的原则,通过建立AI伦理案例研究数据库,成立人工智能伦理与治理委员会,建立全面的产品伦理风险审查机制、AI治理技术和管理工具箱、国际化生态等措施,实现平衡安全与创新并重的发展伦理观。通过建立人工智能系统伦理风险管理指标体系,实现以人为本、技术可控和可持续发展的目标。未来全球AI治理将会进入伦理治理专业化、伦理治理国际化和伦理治理工具化的新阶段。商汤将持续关注人工智能治理平台建设、元宇宙伦理治理和智能驾驶时代伦理治理变革等新问题。在圆桌讨论上,张望表示目前我国人工智能治理人才还很缺乏,需要继续培养高质量的符合国际需求的相关人才。他同时也指出发展和治理本就是一对矛盾体,就像汽车的油门和刹车方向盘一样。虽然伦理治理的发展是比较缓慢的,但是治理不是被动的,需要为发展把好方向,少走弯路。伦理治理未来的发展需要充分依靠技术验证原则,从技术的角度来考虑标准是否可落地。
张望发言
秦尧认为,应用加速AI创新,AI超算进一步普及,特定场景接近人脑水平,同时AI技术和场景的复杂性将带来风险,影响社会、企业和个人,其中包括算力、算法、数据、应用四大方面的风险,比如在学术研究和行业商用存在相应的风险问题。目前,全球主要国家/区域加快行动,持续完善AI治理政策体系,其中平衡监管与创新是重要考量;多角色协同共治的框架基本形成,产业界各方需要共同推进和贡献;基于应用场景风险分级的AI治理开始从研究走向实践。华为一直致力于推动人工智能发展与治理的协同进步,他指出人工智能应该促进人类、社会和环境的福祉,安全可控、保护隐私、透明可解释、与人协作且可持续。华为一向高度重视人工智能技术创新和治理责任,坚持负责任地开发、合法地部署AI产品,促进AI普惠,携手伙伴共同应对人类社会发展所面临的挑战。总之,人工智能需要在发展中治理,在治理中发展,需要敏捷前行,开放包容,全球共治,携手共建可信赖人工智能。
秦尧发言
宋继强指出,人工智能已成为日常生活的关键部分,改变了我们的生活与工作方式,并被用于解决新的复杂挑战。同时,尽管人工智能在现实生活中有很多好处,但至关重要的是,人工智能技术的发展应以人为本,符合伦理道德。他认为实现道德和公平的人工智能需要采用围绕人、过程、系统、数据和算法的综合方法。基于企业开发与实践,他介绍了英特尔从事负责任人工智能的四大支柱:一是内含负责任人工智能原则、多学科咨询委员会与伦理影响评估的内外部治理;二是聚焦私立人工智能研究院、提升人工智能对抗欺骗的鲁棒性与深度伪造检测的合作研究;三是基于SGX的联邦学习、同态加密工具套件和Project Amber的产品与解决方案;四是包含多样化研发团队、青少年人工智能培训与未来劳动力培训的包容人工智能。他还分别以多学科负责任人工智能咨询委员会实践、深度伪造实时检测平台运行、同态加密工具套件开发与青少年人工智能培训开展为具体案例,具体剖析了上述四大支柱的开发与实践。最后,他提出作为研究人工智能底层技术的企业,一定要以责任之心,驭人工智能之力,与各界共创包容和可持续的美好未来。
宋继强发言
谢幸以《人工智能大模型价值观的挑战与机遇》为题发表演讲,首先回顾了微软在负责任人工智能方面从2016年至今的发展历程。其次介绍了算法模型受训练语料影响而产生的价值问题,提出必须对大模型进行监管,在强调服务的同时遵守人类的道德和准则。他提出可以把人工智能模型履行责任时面临的挑战概括为性能、生产质量、灵活性与可发展性、效率等四个维度。进一步地,他展示了关于ChatGPT和GPT-3进行性能评测的例子,并提出价值观对齐的基础就是让模型变得透明或可解释。进而,他提出了SELOR的框架,希望把传统的黑箱模型升级为可自我解释逻辑规则的版本,而人则通过阅读规则来发现模型里的问题,进而修改规则并影响到模型本身的决策。最后,他呼吁人工智能、计算机科学、伦理学、法律学、心理学、社会学甚至脑科学等研究人员开展跨学科合作,设计出统一的框架来应对和解决多种价值观挑战。谢幸认为:AI治理和AI创新是不矛盾的,二者是同一件事情的两个方面、是相互促进的。我们应当从最初开始发展AI时就树立治理意识,并让AI治理跟上AI创新的步伐。AI治理任重道远,需要持之以恒。
谢幸发言
朱红儒女士从标准和实践的角度指出,人工智能技术蓬勃发展,但技术缺陷使得系统存在隐患,技术滥用值得重视和关注。另外,从女性视角看,人工智能使得女性能够兼顾家庭与工作,提升了女性社会地位,女性视角也促进了人工智能的健康发展。实践中,阿里巴巴成立了自己的专业科技伦理委员会,在科技伦理实践中始终坚持以人为本、隐私保护、可信可控、开放共治、普惠正直、安全可靠的准则。在标准方面,国内AI治理标准正在从顶层设计走向具体场景,由于海量应用、数据优势,使我国AI治理顶层设计有先发优势,有助于我国在标准制定的国际竞争中占一席之地。国际上,IEEE评估和认证标准被业界广泛采纳,提供了评估规范。
朱红儒发言
梅涛从数字产业化与产业数字化两个方面解读了数字经济的双轮驱动逻辑,指出人工智能已经成为驱动产业创新的新基建。进一步的,他认为人工智能带来巨大机遇的同时,也蕴藏风险和挑战,需要从稳定性、可解释性、隐私保护和公平性四个方面解决AI的信任危机。例如,京东打造了“以人为中心”的OmniForce平台理念,构建了一条可通用、复用的AI应用生产流水线,通过加强业务人员在AI应用构建中的参与程度,融合业务、数据、算法、运维,以更好更快的实验、开发、部署、管理AI应用,保证交付与运行质量,提升各业务线从AI应用中获得的效用与价值。最后,他从数智供应链加速产业AI的视角,对京东供应链技术的数实融合实践进行解构,并基于布局产业元宇宙的思考,提出了推进下一代数实融合的战略方向。
梅涛发言
李航从透明、责任、公平、隐私、安全、向善等六方面解释了负责任AI理念,并结合具体例子介绍了抖音集团在负责任AI方面做的工作。透明原则方面,他通过头条热榜和抖音热榜的例子进行了详细说明。责任原则方面,他介绍抖音成立了算法安全委员会统管公司算法安全相关工作,完善算法安全评估制度,并开展机器学习公平性研究。公平原则方面,他指出抖音希望给用户同样的机会,且会自动探索发现新内容给用户推荐,以尽量让大家看到多样性的内容。隐私原则方面,抖音对用户隐私保护非常重视,强调信息收集最小化原则,采用向量化表示用户信息,给用户提供更多的知情权和控制权。安全原则方面,他以抖音小安为例重点介绍了行为安全。向善原则方面,抖音希望通过AI技术为社会做出贡献,如用AI技术把图片内容给视障人员做解释、跟北京大学合作开发识典古籍项目。最后,他表示希望跟业界同仁能有更多交流和合作,把整个AI领域的技术和产品做好。他认为企业追求的不仅仅是要做出好的产品、取得商业上的成功,也应承担社会责任并能够得到大家的尊敬和信任,行业内应剔除障碍并最大化地交流合作,用AI技术更好地服务于各个层面。AI治理之外,抖音也同时从策略、算法上做了一系列的努力以尽量确保推荐内容多样化,并通过推出青少年模式、时长提醒等进行了多方面努力和尝试。
李航发言
张钦坤认为科技伦理领域存在摩尔定律,即伴随着技术革命,社会影响增大,伦理问题也增加。算法治理需要结合具体的问题和技术应用场景,更需要明晰算法应用主体和各利益相关者,因此它必然呈现多元治理主体和多维治理视角的算法治理格局。算法治理包括伦理治理、法律治理和技术治理三大方面。伦理治理方面。全球已就人工智能伦理原则达成共识,需从原则走向实践。算法伦理治理不仅是对法律治理的补充,更是对“事后追责”监管格局的改善;应坚持伦理先行,以价值引导技术创新和应用;多元主体应积极探索算法伦理治理创新实践,协同并进。法律治理方面。应采取分级分类监管思路,积极应对重点领域问题,统筹发展与安全。针对具体的算法应用、产品和服务,考虑风险大小,明确和采用分级分类的差异化监管制度;不断丰富监管手段,探索监管沙箱、试点、政策指南、安全港、标准认证等多元化监管措施。技术治理方面。应通过技术创新手段解决算法带来的问题,打造可信AI应用。具体包括透明可释、安全可控、公平公正、隐私保护四大要求。目前技术治理带动算法伦理服务(伦理即服务)市场兴起;以AI伦理工具及服务为核心的负责任AI解决方案是AI领域最新发展趋势。不久前腾讯发布了ESG报告(Environmental Social and Governance Report)提出按照“可知、可控、可用、可靠”的AI四可原则,在科技向善的愿景与使命之下,负责任地持续进行研究与创新。
张钦坤发言