人工智能作为一种颠覆性技术,将改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等,甚至对公共管理、经济安全和社会稳定乃至全球治理等带来深远影响。因此,针对人工智能引发的各种 问题以立法手段予以应对已是势在必行
(一)人工智能立法的必要性问题:我国已经完成了《网络安全法》《数据安全法》《个人信息保护法》等的立法工作,这些法律规则作为底层的规则基石为人工智能的健康发展提供了坚实保障。但在人工智能应用层面,相关立法仍然缺位,一些人工智能应用已经进入法律的空白区。因此,需要加快人工智能的立法研究,特别是应就人工智能的产品和流通进行立法规范,才能充分保障社会和个人的安全。
(二)人工智能立法的体例问题:目前,用于应对人工智能风险的制度规则过于分散,而且法律位阶较低,不利于相关机构开展监管活动,也不利于企业自我合规。因而应为人工智能制定一部专门的综合性法律,将人工智能用于不同场景中所遵循的共性规则进行提炼,成为规范人工智能多场景应用的基本规则,如学界内提出的构建综合性立法和具体场景立法相结合的“总-分”式立法体系。综合性立法是进行人工智能顶层设计的最佳形式,本文也认为应为人工智能制定一部单行法,因为综合性立法比分散立法的规范效率高。
(三)人工智能立法的主体内容问题:本文提出应进行“事前-事 中-事后”全链条的监管机制设计。在事前阶段,在人工智能产品流入市场前进行风险评估,实现风险管控;在事中阶段,进行持续的市场监督,实施产品召回制度;在事后阶段,进行善后学习,实现人工智能风险事故的数据共 享和风险监测。
(四)人工智能立法的价值定位问题:不管如何,应始终坚守一个基本原则,即政府对产业治理的根本出发点是为了实现更好的发展。在推动立法的过程中,也应坚持规范与发展并重的原则。《深圳经济特区人工智能产业促进条例》作为我国人工智能领域的首次地方性立法,明确了对人工智能产业实行包容审慎监管,同时强调使用政策 指南、沙盒技术、应用试点等监管工具。深圳作为人工智能产业发展较为迅速的区域,已经开展立法活动,可以为国家层面的人工智能立法提供经验。