北京市海淀区清华大学01062794781i-aiig@tsinghua.edu.cn

研究成果

Research Results



   

海外智库观察

战略与国际研究中心:各治理主体应携手应对数字新闻领域中的人工智能风险


2023年8月31日,战略与国际研究中心(Center for Strategic and International Studies, CSIS)发表其研究员Caitlin Chin撰写的评论文章《把控数字新闻领域中的人工智能风险(Navigating the Risks of Artificial Intelligence on the Digital News Landscape)》。文章指出,人工智能技术给数字新闻领域带来了广泛风险,并提议技术平台、新闻出版商、政府和个人共同携手应对这些挑战,以推动其可持续发展。


作者指出,人工智能的加速使用至少会给数字新闻领域带来四大风险,可能会严重损害新闻的可用性和公众对信息的获取。第一,如果搜索引擎使用人工智能来回复用户的查询,外部新闻网站的网络流量将大大减少报纸与搜索引擎的关系是互惠的,但在很大程度上是不平等的。谷歌控制着全球约92%的搜索引擎市场,每月向新闻网站发送约240亿次浏览量,约占出版商在线流量的三分之一以上。而在线流量是数字广告的关键指标。谷歌和微软都已宣布利用生成式人工智能来直接回答用户提问的计划。ChatGPT等大型语言模型可以最大限度地增加用户在其平台上的参与度/时间。这可能会导致通过谷歌点击进入外部网站的读者数量一直减少,从而令数字新闻机构失去网络知名度、受众参与度和广告收入的主要来源,进而导致网站越来越依赖于付费订阅。而付费订阅并不足以支撑所有的出版物,因此规模较小或较为小众的出版物倒闭的可能性会增加。第二,推荐算法会削弱合法新闻机构的优先级,导致平台转而支持虚假、垃圾或操纵性内容社交媒体平台允许所有人进行信息传播,内容排名算法也转变为依据关注度和相关性进行推荐。正如 Facebook 吹哨人Frances Haugen在 2021 年披露的那样,由于算法经常将用户生成的错误信息排在比可信的出版商生成的新闻更靠前的位置,已对政治和新闻等重要的公共内容产生了不健康的副作用。随着深度伪造图像变得越来越逼真和普遍,内容检测算法也必须不断进步,否则,受众对记者传达信息的接受程度会降低,互联网生态系统也可能会成为一个更加危险的空间。而由于目前美国联邦法律中没有专门针对深度伪造等技术的规定,因此每个社交媒体平台、应用商店、搜索引擎和在线论坛对此类内容的处理方式都不尽相同。第三,聊天机器人存在缺陷,如可能生成与事实不符甚至虚假的故事,出现更广泛的社会偏见并且根据OpenAI、OpenResearch和宾夕法尼亚大学于本年三月的研究表明,大型语言模型可能会影响美国80%劳动力的工作职能,许多作家和记者已经面临被裁员的不确定性。第四,尽管大型语言模型目前无法写出与高水平记者相媲美的原创散文,但它们却非常适合制作低成本、低质量、高流量的“标题党(clickbait)”内容这一现象帮助流量驱动型的广告制作网站提高了页面浏览量和广告收入,从而挤占广告费在传统出版商的投入并且还可能会降低公众对重大时事的信任和理解,且掩盖了合法新闻编辑机构作为信息集中来源的作用。

 

虽然世界各地都正在大力推动立法,迫使托管新闻内容的大型技术平台向新闻出版商付费,但当平台切断互联网用户访问新闻内容的渠道时,就很难实施付费计划。这种方法甚至可能促使平台加速采用生成式人工智能来回答用户的询问,而非使用外部链接。因此,需要制定明确的规则,切实防止有害的广告技术、数据收集和人工智能行为,使新闻编辑机构和出版商能够长期发展。作者对此提出了六点建议:第一,进行全面的反垄断改革传统的反垄断法在数字时代需要一种现代化的方法,即实施前瞻性的保护措施,以防止占主导地位的技术公司损害新生对手、新闻出版商和整个社会。欧盟的《数字市场法(Digital Markets Act)》出台了新的事前规则,旨在禁止“看门人”技术平台滥用对市场多方面的控制。美国国会议员也提出了几项包含类似建议的法案,以限制自我优先化和收购等行为,但由于这些法案对恶意软件预防、内容节制等问题可能产生的影响引起了争论,其发展势头停滞不前。全面的反垄断改革从来都不是一蹴而就或直接实施的,但它对于防止反竞争收购、增加新闻网站的广告技术选择和收入,以及在整体上促进更加多样化和可持续的新闻生态系统至关重要。第二,技术平台和新闻媒体都需要正式的保障,以促进人工智能开发和部署过程中的道德、公平和透明在政府监管方面,作者建议现有的美国联邦法律应在生成式人工智能背景下进行进一步解释。在缺乏直接规范生成式人工智能的强制性法律框架的情况下,企业采取广泛的自愿性自治举措是规范人工智能发展的第一步。因此作者呼吁大型语言模型开发者应采取行动,来落实一些自愿性原则,例如,在人工智能开发中需优先考虑透明度、问责制、公平性和隐私保护。作者还建议任何选择部署大模型的新闻编辑室须制定清晰透明的使用流程,明确部署本地化语言工具的目的或背景,包括条件、保障措施和限制,并加强对因人工智能部署而可能产生重大影响的职位的劳动保护。第三,技术平台应承认新闻机构和人类创作者的知识产权人工智能开发者需要与版权持有者合作,提高训练数据的完整性,充分了解其所带来的法律和道德知识产权风险,并减少其算法对新闻业的整体危害。此外,未来国会或法院必须明确"合理使用"和"衍生作品"的定义,以帮助作家和其他内容创作者在人工智能生成的作品中行使其知识产权。第四,制定现代化的数据隐私法规,将部分市场权力还给新闻出版商美国目前缺乏一部全面的联邦隐私法来直接规范网站公司如何收集和处理个人信息,大型语言模型的训练又不可避免地收集到敏感的个人信息,从而带来隐私和声誉风险。大部分关于隐私和数据保护的美国法案是在ChatGPT公开发布之前提出的,这是一个重大疏漏,可能会让许多大模型规避任何即将出台的隐私法律限制。但即便如此,对所有技术平台处理非公开个人信息的方式进行系统性限制,仍能极大地帮助一些数字广告资金从谷歌和Meta转移到新闻网站。第五,大型技术平台需要强有力的内容节制政策,来促进一个安全、健康的信息生态系统1996年《通信规范法(Communications Decency Act)》第230条间接强化了大型社交媒体平台和搜索引擎的把关权力,技术平台对新闻内容的传播和可见性进行了实质性控制,使其与外部网站直接竞争流量和屏幕时间。如果完全废除230条,可能会对新闻行业和互联网用户产生负面影响。例如,可能会导致技术平台大幅减少第三方内容的可用性;记者可能会失去获取线索和文章创意的多样化资源;新闻初创公司也可能会在起步时遇到极大的困难。许多研究人员,包括一些新闻出版商都支持修改第230条的中间方案,或以其他方式为技术平台制定合理的防范措施,以处理有害或非法内容。欧盟将于2024年开始实施的《数字服务法(Digital Services Act)》可能可以为美国提供一个可行的模式。但不论是提出何种法律框架,关键是要考量如何能更好地促进新闻业在一个健康的生态系统中茁壮成长。第六,各国政府应承认新闻业作为公益事业的价值,推行相应政策新闻业创造了积极的外部效应,投入大量资源,为公众利益搜集、核实和传播信息,而记者则作为独立机制对强大的机构进行问责。然而,其巨大的社会价值并不适合其所处的自由市场资本主义体系,这表现为新闻出版社的收入来源于广告和订阅,而非他们所传播信息的公共利益,使得他们的整体底线很容易受到排名算法、读者或市场需求,甚至宏观经济波动的影响。作者指出,虽然一些政府认识到新闻业的公民价值,考虑为新闻业提供直接或间接的公共资金,但此举不一定在每个国家都行得通。作者建议政府还可以考虑通过其他途径来帮助纸媒实现收入来源多样化,从而减少对不稳定流量的依赖,例如,国会可以改变阻止非营利性编辑委员会为候选人背书的规定,帮助新闻编辑室作为非营利组织或混合组织发挥作用。

 

最后,作者强调,应尽快采取有效行动为新闻业的可持续发展创造空间。随着人工智能技术的逐渐普及,新闻行业要在一个更加混乱、更加缺乏原创性的信息生态系统中开辟出自己的空间。因此必须建立强大的数据管理框架,并培养一个多样化、值得信赖的在线领域。一方面,大型搜索引擎和社交媒体平台需要对广告投放、自我优先化等排他性行为、版权材料的使用等方面设立明确的界限。技术平台和新闻编辑室也需要承担明确的责任,在人工智能开发和部署过程中的每一个阶段制定道德和以人为本的标准。另一方面,新闻业的长期健康和可持续发展不仅需要技术上的解决方案,为新闻编辑室提供直接的资金支持也至关重要。企业高管也亟需优先考虑撰稿人的投入和福利,包括通过工作保护和工会合同,以维持新闻业作为一个稳定和可获得的职业选择。总之,技术平台、新闻编辑室、政府和个人所采取的行动将决定新闻业的长期发展轨迹。

 

Caitlin Chin:战略与国际研究中心战略技术项目研究员,专注于研究技术对地缘政治和社会的影响,包括数据经纪人与政府机构之间的关系、数字时代新闻的演变以及技术平台在打击网络有害内容方面的作用。

原文链接:https://www.csis.org/analysis/navigating-risks-artificial-intelligence-digital-news-landscape




文章检索:周韫斐

编译:朱奕霏、杨雨虹

审核:何嘉钰

排版:赵杨博、袁佳文

终审:梁正、鲁俊群

清华大学人工智能国际治理研究院编

上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

上一篇:《人工智能国际治理观察》207期

下一篇:《人工智能国际治理观察》207期

关闭

相关文章

读取内容中,请等待...