虽然世界各地都正在大力推动立法,迫使托管新闻内容的大型技术平台向新闻出版商付费,但当平台切断互联网用户访问新闻内容的渠道时,就很难实施付费计划。这种方法甚至可能促使平台加速采用生成式人工智能来回答用户的询问,而非使用外部链接。因此,需要制定明确的规则,切实防止有害的广告技术、数据收集和人工智能行为,使新闻编辑机构和出版商能够长期发展。作者对此提出了六点建议:第一,进行全面的反垄断改革。传统的反垄断法在数字时代需要一种现代化的方法,即实施前瞻性的保护措施,以防止占主导地位的技术公司损害新生对手、新闻出版商和整个社会。欧盟的《数字市场法(Digital Markets Act)》出台了新的事前规则,旨在禁止“看门人”技术平台滥用对市场多方面的控制。美国国会议员也提出了几项包含类似建议的法案,以限制自我优先化和收购等行为,但由于这些法案对恶意软件预防、内容节制等问题可能产生的影响引起了争论,其发展势头停滞不前。全面的反垄断改革从来都不是一蹴而就或直接实施的,但它对于防止反竞争收购、增加新闻网站的广告技术选择和收入,以及在整体上促进更加多样化和可持续的新闻生态系统至关重要。第二,技术平台和新闻媒体都需要正式的保障,以促进人工智能开发和部署过程中的道德、公平和透明。在政府监管方面,作者建议现有的美国联邦法律应在生成式人工智能背景下进行进一步解释。在缺乏直接规范生成式人工智能的强制性法律框架的情况下,企业采取广泛的自愿性自治举措是规范人工智能发展的第一步。因此作者呼吁大型语言模型开发者应采取行动,来落实一些自愿性原则,例如,在人工智能开发中需优先考虑透明度、问责制、公平性和隐私保护。作者还建议任何选择部署大模型的新闻编辑室须制定清晰透明的使用流程,明确部署本地化语言工具的目的或背景,包括条件、保障措施和限制,并加强对因人工智能部署而可能产生重大影响的职位的劳动保护。第三,技术平台应承认新闻机构和人类创作者的知识产权。人工智能开发者需要与版权持有者合作,提高训练数据的完整性,充分了解其所带来的法律和道德知识产权风险,并减少其算法对新闻业的整体危害。此外,未来国会或法院必须明确"合理使用"和"衍生作品"的定义,以帮助作家和其他内容创作者在人工智能生成的作品中行使其知识产权。第四,制定现代化的数据隐私法规,将部分市场权力还给新闻出版商。美国目前缺乏一部全面的联邦隐私法来直接规范网站公司如何收集和处理个人信息,大型语言模型的训练又不可避免地收集到敏感的个人信息,从而带来隐私和声誉风险。大部分关于隐私和数据保护的美国法案是在ChatGPT公开发布之前提出的,这是一个重大疏漏,可能会让许多大模型规避任何即将出台的隐私法律限制。但即便如此,对所有技术平台处理非公开个人信息的方式进行系统性限制,仍能极大地帮助一些数字广告资金从谷歌和Meta转移到新闻网站。第五,大型技术平台需要强有力的内容节制政策,来促进一个安全、健康的信息生态系统。1996年《通信规范法(Communications Decency Act)》第230条间接强化了大型社交媒体平台和搜索引擎的把关权力,技术平台对新闻内容的传播和可见性进行了实质性控制,使其与外部网站直接竞争流量和屏幕时间。如果完全废除230条,可能会对新闻行业和互联网用户产生负面影响。例如,可能会导致技术平台大幅减少第三方内容的可用性;记者可能会失去获取线索和文章创意的多样化资源;新闻初创公司也可能会在起步时遇到极大的困难。许多研究人员,包括一些新闻出版商都支持修改第230条的中间方案,或以其他方式为技术平台制定合理的防范措施,以处理有害或非法内容。欧盟将于2024年开始实施的《数字服务法(Digital Services Act)》可能可以为美国提供一个可行的模式。但不论是提出何种法律框架,关键是要考量如何能更好地促进新闻业在一个健康的生态系统中茁壮成长。第六,各国政府应承认新闻业作为公益事业的价值,推行相应政策。新闻业创造了积极的外部效应,投入大量资源,为公众利益搜集、核实和传播信息,而记者则作为独立机制对强大的机构进行问责。然而,其巨大的社会价值并不适合其所处的自由市场资本主义体系,这表现为新闻出版社的收入来源于广告和订阅,而非他们所传播信息的公共利益,使得他们的整体底线很容易受到排名算法、读者或市场需求,甚至宏观经济波动的影响。作者指出,虽然一些政府认识到新闻业的公民价值,考虑为新闻业提供直接或间接的公共资金,但此举不一定在每个国家都行得通。作者建议政府还可以考虑通过其他途径来帮助纸媒实现收入来源多样化,从而减少对不稳定流量的依赖,例如,国会可以改变阻止非营利性编辑委员会为候选人背书的规定,帮助新闻编辑室作为非营利组织或混合组织发挥作用。
最后,作者强调,应尽快采取有效行动为新闻业的可持续发展创造空间。随着人工智能技术的逐渐普及,新闻行业要在一个更加混乱、更加缺乏原创性的信息生态系统中开辟出自己的空间。因此必须建立强大的数据管理框架,并培养一个多样化、值得信赖的在线领域。一方面,大型搜索引擎和社交媒体平台需要对广告投放、自我优先化等排他性行为、版权材料的使用等方面设立明确的界限。技术平台和新闻编辑室也需要承担明确的责任,在人工智能开发和部署过程中的每一个阶段制定道德和以人为本的标准。另一方面,新闻业的长期健康和可持续发展不仅需要技术上的解决方案,为新闻编辑室提供直接的资金支持也至关重要。企业高管也亟需优先考虑撰稿人的投入和福利,包括通过工作保护和工会合同,以维持新闻业作为一个稳定和可获得的职业选择。总之,技术平台、新闻编辑室、政府和个人所采取的行动将决定新闻业的长期发展轨迹。
Caitlin Chin:战略与国际研究中心战略技术项目研究员,专注于研究技术对地缘政治和社会的影响,包括数据经纪人与政府机构之间的关系、数字时代新闻的演变以及技术平台在打击网络有害内容方面的作用。
原文链接:https://www.csis.org/analysis/navigating-risks-artificial-intelligence-digital-news-landscape
文章检索:周韫斐
编译:朱奕霏、杨雨虹
审核:何嘉钰
排版:赵杨博、袁佳文
终审:梁正、鲁俊群