北京市海淀区清华大学01062794781i-aiig@tsinghua.edu.cn

研究成果

Research Results


海外智库观察

「新美国安全中心:人工智能监管不能借鉴国际核军备控制模式」

2023年6月13日,新美国安全中心(Center for a New American Security)发表其副研究员比尔·德雷塞尔(Bill Drexel)和研究助理Michael Depp撰写的评论文章《每个国家在人工智能上都是独立的:为什么人工智能监管不能模仿国际核管制的进程?(Every Country Is on Its Own on AI: Why AI regulation can’t follow in the footsteps of international nuclear controls)》。文章指出,无论国际人工智能控制制度看起来多么有吸引力,在今天的政治气候下实现这一愿景的成功都远未得到保证,也无法使其与人工智能的发展速度相匹配。因此,领先的人工智能实验室必须相互合作,并与其政府合作,还需设置必要的防范机制,而不是指望重演冷战时期岌岌可危、政治上充满争议的成功。


首先,作者指出,现在,包括行业领先者OpenAI的负责人在内的一些人,正避免把人工智能灾难的希望寄托在建立冷战后出现的核军备控制风格的全球人工智能治理结构上,但核军备控制模式确实是一个诱人的可避免灾难性人工智能风险的模式。从概念上讲,这可能是一个深受欢迎的进展,其将有助于减轻人工智能已经带来的广泛的严重风险。英国首相里希·苏纳克(Rishi Sunak)也于上周向美国总统乔·拜登(Joe Biden)介绍了此概念,并正在争取让英国成为这个新机构的所在地。但是,考虑到核军备控制的历史和今天的状况,迅速建立这样一个机构以配合人工智能的加速发展可能只是一个白日梦。而在这样没有国际机构,以及在地缘政治利害关系和该技术的确切风险仍待确定的情况下,前沿实验室及其政府必须对新的人工智能能力所带来的危险承担责任,并采取相应的行动。目前,世界尚未存在任何核交换,核库存已成功减少了80%,且有相当一部分国家不持有核武器,但是,事后看来,这些成就在过去和今天是多么的不稳定,建立对避免核灾难至关重要的协议和机构也是一个缓慢且不确定的过程。从1945年美国获得第一枚核武器到1957年国际原子能机构(International Atomic Energy Agency, IAEA)的成立历经12年。国际原子能机构( International Atomic Energy Agency,IAEA)模式也是OpenAI首席执行官山姆·阿尔特曼(SSam Altman)和联合国秘书长安东尼奥·古特雷斯(Antonio Guterres)建议作为新的人工智能监管制度的模式。但在这个12年间,英国和苏联也获得了核武器,美国的核武库迅速增长,为核军备竞赛创造了条件。在成立后的头十年,IAEA主要关注和平核能技术的安全问题,直到1968年才真正承担起更为著名的防扩散职责,而此时法国、中国和以色列也已经持有了核武器。此后多年,超级大国之间的核战争会带来全球毁灭的明确威胁未能产生强有力的核控制,直到古巴导弹危机才使严肃的军备控制措施得以形成,而这些措施往往是通过临时条约或规范而不是正式的国际机构来实施的。


作者进一步指出,人工智能多边合作合法性的拥趸如果推动建立新的国际原子能机构,就会发现,在阻止国家武装方面,美国对不扩散的顽固坚持比国际机构更有影响力。现实政治也可以扭曲看似人道主义的遏制灾难性风险的努力,如最初美国提议成立IAEA,部分原因是为了分散人们对其加强自身武器库的努力的注意力。因此,尽管人工智能安全专家有核不扩散的先例可以借鉴,但平行的人工智能安全制度可能会遇到类似的问题,甚至更多。条约和多边协议的进展往往比人工智能的发展要慢得多,而人工智能的发展速度非常快,并将由超级大国的激烈竞争利益所决定,在没有发生灾难或险情的情况下,几乎不可能调动政治意愿。此外,目前的地缘政治条件也异常不利于建立一个新的控制制度来应对人工智能的危害。但最大的挑战仍与人工智能本身不断变化的风险有关。因为与核技术相对狭窄的使用场景,即武器和能源生产相比,人工智能可以在高度多样化、不断发展的领域中发挥作用,使监管变得更加复杂,其发展无疑将是未来几十年国家总体经济竞争力的一个关键因素。尽管越来越多的技术名人对潜在的人工智能灾难表示担忧,认为其规模类似于核灾难,但这种危险的具体内容仍然不明确。在政府对地缘政治优势和先进人工智能相关风险之间的权衡有了更清晰的认识之前,不可能建立起人工智能领导人所设想的那种控制制度。


最后,作者指出,努力建立一个国际人工智能控制机构仍应是一个高度优先事项,这样的机构也会在减轻风险方面发挥重要作用。但这一计划的支持者应该明确,人类将不得不在地缘政治不确定的氛围中,利用缓慢、模糊的国际协调机制来驾驭严重的新技术风险。如果人工智能系统如其行业领导者认为的那样构成了紧迫和严重的危险,用于减轻危害的国际协议可能不会在灾难性危险到来之前及时生效。另外,前沿实验室在努力寻求国际解决方案,但鉴于只有少数实验室处于新兴技术能力的前沿,在它们之间协调规范和保障措施应该比在国际论坛上寻求政府间的共识更容易实现,行业领导者们也应该认识到其自身有责任解决严重的新挑战。各国政府同样可以通过传统的方法发挥巨大的作用,即建立具有法律约束力的安全标准,许可建立最复杂的人工智能模型所需的资源,并使法律结构现代化,以涵盖新的人工智能使用案例。



比尔·德雷塞尔(Bill Drexel):新美国安全中心技术和国家安全项目副研究员,重点研究人工智能在国防和更广泛的技术竞争中的应用风险。

Michael Depp:新美国安全中心人工智能安全与稳定项目研究助理。

原文链接:

https://www.cnas.org/publications/commentary/every-country-is-on-its-own-on-ai

行业舆情追踪

国内动态

政府规划

「北京发布数字技术技能人才培养实施方案」

7月12日,北京市人力资源和社会保障局发布了《北京市数字技术技能人才培养实施方案》(以下简称《方案》),着力培养数字技术技能人才,包括数字技术领军人才、数字技术人才和数字技能人才。北京将以产业数字化与数字产业化为核心,围绕人工智能、大数据、智能制造、区块链等数字技术技能领域,预计每年培养具有良好科学素养、精于实操应用、能够解决复杂问题的数字技术技能人才1万人。《方案》提出,北京市将发挥数字技术领域专业技术人员继续教育基地作用,支持在京互联网头部企业、行业组织参与,鼓励建立产学研一体化人才“订单式”培养模式。《方案》明确,在北京市实施数字技术工程师培育项目,针对工程类技术技能人才,分职业、分方向、分等级,实行规范化培训、社会化评价,在岗或拟从事数字技术技能的各类从业人员、普通高校和技工院校全日制毕业学年学生均可参加。

来源:中国新闻网


政–产–学研合作

「巨人网络与阿里云达成合作 共建“游戏+AI”智算平台」

7月14日,巨人网络与阿里云宣布达成“游戏+AI”全面合作。根据合作备忘录,阿里云与巨人网络将共建“游戏+AI”智算平台。基于巨人网络的游戏研发平台、阿里云通义千问大模型以及AIGC产品能力,双方开展全面合作,打造AI在游戏领域的场景落地标杆项目。据悉,阿里云达摩院也将为双方合作提供深度技术支持。目前国内最大、由阿里云达摩院主导维护的AI模型开源社区魔搭社区ModelScope,将结合巨人网络业务需求场景,进行AI+创作工具、游戏+AI玩法的场景挖掘,持续迭代升级模型能力,提升产品性能。在此基础上,双方还达成了全面合作伙伴关系。未来,巨人网络与阿里云将在云游戏、云计算、网络和安全、AR/VR、游戏出海等领域展开全方面合作。

来源:站长之家


「新疆若羌县万亩红枣示范基地开启“智慧枣园”新模式」

7月14日,在新疆巴州若羌县吾塔木乡万亩红枣示范基地,新疆林业科学院现代林业研究所的工作人员铺设物联网监测设备,并进行安装与测试。据了解,布设的一期设备有物联网杀虫灯和物联网病虫害监测系统、土壤墒情监测站以及小气候监测站、果园长势和监测系统形成一个物联网数字化建设体系。设备能够对果园的土壤温度、湿度、酸碱度、电导率、温度、湿度、光照强度、降水量、虫情虫害等一系列因子进行实时监测和人工智能辅助分析,帮助种植户第一时间做出科学的果园管理。

来源:中国新闻网


「上海交通大学与重庆共研首个自主研发大语言模型产品发布」

7月13日,上海交通大学重庆人工智能研究院发布基于AI大模型技术研发的最新成果——“兆言”大模型。“兆言”大模型通过积累海量数据,辅以独特的数据处理和AI训练技术,达到精准、专业的文本输出,并能实现以自然语言选择、调用应用程序的能力,助力打造个性化的智能产品。据介绍,和通用大模型相比,“兆言”大模型拥有领域精调效率高、训练推理成本低、人机交互能力强的特点,能较好解决算力资源不易进行私有化部署、自然语言转API(应用程序编程接口)调用不稳定等问题。“兆言”大模型定位于垂直领域精调和模型小型化方向,也解决了精调中的数据质量差、模型原有能力遗忘、模型答案出现幻觉、模型训练效率低等行业难题,使模型答案质量得到充分保障。目前,“兆言”大模型可在医疗、金融、文旅、制造、服务、司法等场景落地应用。如在医疗领域,大模型可以通过学习医疗数据,解析疾病和症状,为诊断和治疗提供建议;在司法领域,大模型能够理解严谨的司法表述,并能全面理解案件,使得提取影响案件审判要素时更为精准,还能帮助法律专业人士快速理解案件核心内容。

来源:中国新闻网


「蚂蚁集团联合清华大学发布AI安全检测平台“蚁鉴2.0”」

7月7日,在2023世界人工智能大会上,蚂蚁集团联合清华大学发布AI安全检测平台“蚁鉴2.0”。蚁鉴2.0可实现用生成式AI能力检测生成式AI模型,可识别数据安全、内容安全、科技伦理三大类的数百种风险,覆盖表格、文本、图像等多种数据和任务类型,是业内首个实现产业级应用的全数据类型AI安全检测平台。据了解,“蚁鉴2.0”的两项硬核能力,一是实现了用生成式能力检测生成式模型。检测标准覆盖内容安全、数据安全、伦理安全三大类,可对大模型生成式内容完成包含个人隐私、意识形态、违法犯罪、偏见与歧视等数百个维度的风险对抗检测,并会生成检测报告,帮助大模型更加有针对性地持续优化。另一项硬核能力是,“蚁鉴2.0”融入了可解释性检测工具。综合AI技术和专家先验知识,通过可视化、逻辑推理、因果推断等技术,从完整性、准确性、稳定性等7个维度及20余项评估指标,对AI系统的解释质量量化分析,帮助用户更清晰验证与优化可解释方案。

来源:TechWeb


科技公司

「京东健康发布医疗大模型“京医千询”」

7月14日,基于京东言犀通用大模型,京东健康正式发布面向医疗健康行业的大模型“京医千询”,能快速完成在医疗健康领域各个场景的迁移和学习,从而实现产品和解决方案的全面人工智能(AI)化部署,能为远程医疗服务提供坚实的技术底座。据介绍,“京医千询”收集了超亿级的高质量医患对话数据和百万级规模的医学知识图谱,覆盖了线上140余个科室的医生、药师、营养师和心理医生,全程参与大模型的构造,提供专业的数据指导意见和评测的标准;同时,“京医千询”医疗大模型拥有高效的记忆学习算法,可以提供各种用户侧服务和医生侧服务,包括用户侧的个性化诊疗建议和医生侧的辅助诊断、知识管理和科研文献的挖掘等;“京医千询”医疗大模型一方面基于循证医学知识,同时也有共情和交互能力。此外,京东健康还推出了面向健康全行业的生态开放平台——“京医星脉”生态开放平台,通过一体化的解决方案,为线下的政府、企业和医院提供比较完整的远程医未来的趋势与展望。

来源:站长之家


「中国移动发布九天人工智能(AI)大模型,将聚焦政务、客服领域」

7月10日,中国移动正式发布了九天·海算政务大模型和九天·客服大模型。九天· 海算政务大模型是中国移动基于近年来在数字政府建设方面积累的丰富经验所打造的面向政务领域的行业大模型。通过依托九天·海算政务大模型,政务服务系统将具备强大的政务事项理解能力、多维度的信息关联能力以及面向复杂事项和复杂流程的多元交互能力。九天·客服大模型是基于中国移动在客服领域多年沉淀的海量服务数据、业务知识和服务经验打造。既可根据用户提供的自然语言描述,解析用户问题并提供答案,又可以与人工客服协作,分析历史沟通内容的语义和上下文,总结和归纳对话的重点和关键信息,根据对话内容为人工客服坐席提示回复建议,以减少应答时间,形成“大模型—人工坐席—用户”的三方沟通场,极大提升传统人工客服的工作效率。

来源:站长之家


 「《Nature》杂志正式刊发华为云盘古气象大模型研究成果」

7月6日,国际学术期刊《自然》(Nature)杂志正刊发表了华为云盘古大模型研发团队研究成果——《三维神经网络用于精准中期全球天气预报》(Accurate Medium-Range Global Weather Forecasting with 3D Neural Networks)。华为云盘古气象大模型是首个精度超过传统数值预报方法的AI模型,速度相比传统数值预报提速10000倍以上。目前,盘古气象大模型能够提供全球气象秒级预报,其气象预测结果包括位势、湿度、风速、温度、海平面气压等,可以直接应用于多个气象研究细分场景,欧洲中期预报中心和中央气象台等都在实测中发现盘古预测的优越性。为应对AI气象预报模型的精度不足的问题,团队创造性地提出了适应地球坐标系统的三维神经网络(3D Earth-Specific Transformer)来处理复杂的不均匀3D气象数据,并且使用层次化时域聚合策略来减少预报迭代次数,从而减少迭代误差。通过在43年的全球天气数据上训练深度神经网络,盘古气象大模型在精度和速度方面超越传统数值预测方法。未来,华为云将联合全球气象机构,继续探索并发挥AI在气象领域的应用潜力,为农林牧渔、航空航海等各行业提供支持。

来源:环球网


「钉钉与东方希望集团战略签约 共推流程制造业数字化转型方案」

7月5日,东方希望与钉钉签订了战略合作协议。未来双方将在工业互联网平台、智能物料、人事服务、园区治理等领域展开深度合作,基于钉钉开放底座能力和东方希望的行业经验、数字化转型成功实践,面向市场,为流程制造业客户提供一体化、智能化的数字化转型方案。东方希望将数字化深入到生产的各个环节,通过连接10万个生产设备,实现对7000个重点指标的实时监控,可以随时随地查看各个工厂的运行状态。生产异常中断、生产成本分析、质量追溯管控、指标异常分析、安全环保分析等数据,都可以汇总于钉钉。通过点巡检、设备在线监控对设备运行情况进行在线管理;通过电子作业票对高危作业在线监控,形成对高危作业的实时管理;通过异常指标、任务工单,形成对生产环节异常指标的闭环管理,解决了重化行业非常关键的生产安全管理难题。

来源:环球网

国际动态

政府监管

「ChatGPT因数据收集行为和虚假信息问题受到美国FTC调查」

7月14日,美国联邦贸易委员会(Federal Trade Commission,简称“FTC”)对OpenAI开展调查,涉及其旗下产品ChatGPT的数据收集行为和虚假信息问题。FTC传票中指出,OpenAI曾被披露过一个漏洞,该漏洞可使用户查看其他用户的聊天信息和与支付相关的数据,引发了对消费者受害风险的担忧。除此之外,FTC还关注OpenAI的营销活动、AI模型的训练方法以及OpenAI对用户个人信息的处理方式。OpenAI首席执行官Sam Altman表示,公司将积极配合FTC的调查工作。此外,FTC还要求OpenAI提供构建模型所使用的数据来源的相关信息,包括从公开网站获得的数据量和通过人类反馈的强化学习情况。此次调查共涉及近70项要求,若发现OpenAI违反数据隐私规定,可能面临罚款。针对ChatGPT有时会生成完全不相关、不完整或错误答案的问题,OpenAI解释称其并非完美,类似于其他任何机器或技术,ChatGPT也会犯错误。此次监管调查旨在保障消费者权益和数据隐私。

来源:华尔街日报,AI Business,Euronews


「日本首相岸田文雄:日本将向乌克兰提供无人机探测系统」

7月14日,日本首相岸田文雄周三在北大西洋公约组织峰会上发表讲话时表示,日本将向饱受战争蹂躏的乌克兰提供非致命性装备,包括无人机探测系统。“欧洲和印太地区的安全是密不可分的”,他在北约会议召开地立陶宛首都表示,“入侵乌克兰不仅仅是欧洲的问题。”这些设备将由日本向北约信托基金捐赠的3000万美元提供。岸田和北约秘书长延斯·斯托尔滕贝格就《日本-北约个性化伙伴关系计划》达成一致,这是一份新的框架合作文件,明确了包括网络空间和外层空间在内的16个合作领域。

来源:俄罗斯卫星通讯社


「英国金融行为监管局:在金融领域使用人工智能可能会导致欺诈行为增加」

7月12日,英国金融行为监管局(Financial Conduct Authority, 简称“FCA”)表示,在金融服务中采用人工智能(AI)必须伴随着改进欺诈预防、抵御黑客攻击和故障恢复的能力。FCA将审查人工智能(AI)关于高级管理人员问责制的现有规则,以及“消费者责任”,以管理人工智能带来的风险和机遇。FCA首席执行官Nikhil Rathi表示,虽然人工智能可以通过降低消费者的价格来使市场收益,但如果在没有适当监管的情况下部署,它也会造成不平衡;随着人工智能使用的增长,对欺诈预防和网络安全的投资也必须有所增加。

来源:路透社


国际合作

「富士康或与台积电和日本TMH合作设立制造工厂」

7月14日,富士康正在与台湾积体电路制造公司(简称“台积电”)和日本TMH集团就技术和合资伙伴关系进行谈判,旨在印度开设半导体制造工厂。台积电是一家主要从事提供集成电路制造服务的台湾公司,也是全球最大的芯片代工厂之一。日本半导体公司TMH主要为半导体制造提供解决方案,以及制造设备的运营与维护。此前,印度中央政府要求这两家公司引入第三方技术合作伙伴,为此富士康与韦丹塔一直在和美国半导体晶圆代工公司格芯以及意法半导体集团进行谈判,以期获得芯片制造技术许可。

来源:路透社


「印度古吉拉特邦与富士康就其半导体工厂进行谈判」

7月12日,印度古吉拉特邦正在与富士康就一家半导体工厂进行谈判。几天前,富士康终止了与印度韦丹塔公司(Vedanta)价值195亿美元的合资计划,并退出了与韦丹塔(VDAN.NS)的项目,该项目计划在总理纳伦德拉·莫迪的家乡古吉拉特邦进行,终止理由是进展缓慢等。合资企业的解散影响了莫迪将印度打造为半导体制造中心的愿景。对此,富士康表示将自行申请印度芯片激励措施,且目前正在寻找新的合作伙伴。

来源:路透社


行业自治

「超过四分之一的英国成年人使用过生成式人工智能」

7月14日,会计师事务所德勤(Deloitee)进行了一项覆盖4150名英国成年人的调查,最新调查显示,超过四分之一的英国成年人使用过聊天机器人等生成式人工智能(AI),有400万人还将其应用于工作。根据调查数据,26%的受访者(约1300万人)使用过生成式人工智能工具,其中十分之一的人每天至少使用一次。德勤表示,最新一代AI系统的采用率超过了亚马逊Alexa等智能语音助手。

来源:卫报


「Adobe首席律师提议为人工智能生成的艺术作品提供知识产权保护」

7月14日,Adobe的首席律师主张为人工智能创作提供新的知识产权保护措施,建议对艺术家进行归属标记,并将人工智能与人类的作品加以区分。Adobe的总法律顾问兼首席信任官(Chief Trust Officer)表示,创作者应该能够为由人工智能生成的作品获得知识产权保护。Adobe的总法律顾问表示,美国国会应该出台一项措施,要求平台保留归属信息,以便艺术家能够得到对他们作品的认可。对于企业本身,Adobe正在为Photoshop等应用程序开发一项功能,允许用户在图像中附加归属信息和历史数据。该功能被称为“内容凭据”(Content Credential),也可用以应对“深度伪造”(Deepfake),该功能目前尚处于测试阶段。

来源:AI Business


「美国专家呼吁针对人工智能爆炸式发展展开全球监管」

7月12日,多名专家在路透社Momentum会议上表示,人工智能的快速发展有可能加剧社会问题,甚至对人类生存构成威胁,因此有必要加强全球范围对人工智能的监管。近几个月来,生成式人工智能迅速发展,能够根据开放式提示创建文本、照片和视频,人们开始担忧工作岗位流失、经济发展模式被颠覆以及人工智能能力超过人类的可能性。Protect AI的首席执行官、联合创始人Ian Swanson强调了安全检查,适当维护和监管的重要性。Trustwise首席执行官Seth Dobrin敦促监管机构从社交媒体行业的发展中吸取教训,毫无制约的新兴行业会带来诸多负面影响,如信息茧房、数字鸿沟等。“未来生命研究所”创始人、执行董事Anthony Aguirre还强调,需要防范人工智能控制核武器。

来源:路透社


「斯坦福大学:大多数基础模型不符合欧盟的人工智能法案」

7月12日,斯坦福大学人类中心人工智能研究所(Institute for Human-Centered AI,简称HAI)评估了10个主要的基础模型,发现它们大多不符合欧盟人工智能法案。其中,得分最高的几个基础模型是Hugging Face的Bloom、EleutherAI的GPT NeoX和谷歌的PaLM 2;得分较低的是初创公司Anthropic开发的 Claude。斯坦福大学的研究人员采纳了欧盟人工智能法案的22项要求,选择了12项可以使用公共信息进行“有意义的评估”的要求。要求包括数据来源、数据治理、受版权保护的数据、计算、能源、功能/限制、风险/缓解措施、评估、测试、机器生成内容、成员国和下游文档。研究人员表示,他们之所以选择欧盟的人工智能法案,是因为它是“当今世界上最重要的人工智能监管举措”。它将很快成为欧盟4.5亿人口的法律,也为世界各地的人工智能监管开创了先例。

来源:AI Business


科技公司

「新的人工智能表情币(memecoin)Shiba Memu在9天内筹集79.8万美元」

7月14日,Shiba Memu是一种新的以狗为主题的表情币(Memecoin),在预售阶段便取得强劲的需求,在短短9天内筹集了近80万美元。到目前为止,SHMU代币总价值已经达到798,000美元,预售将在多个交易所正式上市之前持续八周。该项目的核心是将人工智能与先进的模因学(Memetics)相结合,创造一种可以自我营销的代币。在为期八周的预售期间,代币的价格每24小时上涨一次,直到最终在多个交易所上市。据悉,Shiba Memu的人工智能将学习成功的营销策略,撰写自己的公关,并在相关论坛和社交网络上宣传自己。它将能够根据其人工智能不断分析的数据生成内容,并将其发布到多个在线平台上。然后,它将监控和分析营销工作的成功情况并进行相应调整,不断学习和改进内容,以进一步优化结果。

来源:Cointelegraph


「随着SAG-AFTRA罢工,人工智能提案在好莱坞引发冲突」

7月14日,美国演员工会-美国电视和广播艺术家联合会(SAG-AFTRA)首席谈判代表Duncan Crabtree-Ireland透露了好莱坞电影公司的一项可能存在问题的人工智能提案建议:制片厂正在寻求扫描和永久使用龙套演员形象的权利,并且仅愿意为此支付价值一天的报酬。该提案此前曾出现在电影电视制片人联盟(AMPTP)的声明中,但目前受到了质疑。AMPTP称这是一项“开创性的人工智能提案”,旨在保护SAG-AFTRA成员的数字形象。在龙套演员接受扫描后,公司将获得使用其肖像的权利,并可以无限期地用于任何项目,无需征得演员同意或提供补偿。但Duncan Crabtree-Ireland指出,这或许是存在问题的。

来源:Cointelegraph


「OpenAI获得授权使用Shutterstock Data训练其AI模型」

7月14日,OpenAI与Shutterstock达成了一项为期6年的协议,以访问Shutterstock的数据库用于训练其人工智能模型。该协议允许OpenAI访问Shutterstock图像、视频、音乐库和相关元数据。作为回报,Shutterstock将获得OpenAI技术的“优先访问权”,并在Shutterstock平台上继续使用DALL-E的“用文本生成图像”功能。OpenAI首席运营官Brad Lightcap表示,合作伙伴关系的扩大“不仅增强了OpenAI图像模型的功能,还使品牌、数字媒体和营销公司能够在内容创作和构思方面释放变革的可能性”。

来源:AI Business


「倍乐生公司帮助孩子们利用生成式人工智能完成暑期作业」

7月14日,倍乐生公司(Benesse)表示将提供一项新服务,支持小学生使用生成式人工智能完成暑期独立研究作业。该服务将从7月25日起开始提供。倍乐生要求,在孩子使用该服务时,父母必须在场。新用户可以在计算机或平板电脑上与机器人角色产生交互。当用户告诉机器人角色他们的研究天数以及他们感兴趣的主题时,角色会给出如何选择主题以及如何进行研究的建议。虽然生成式人工智能带来许多益处,但人们仍担心个人数据泄露和虚假信息传播等问题。

来源:Asianews


「马斯克成立新人工智能公司“xAI”,旨在了解宇宙的真实本质」

7月13日,推特(Twitter)的所有者、特斯拉(Tesla)和SpaceX的首席执行官埃隆·马斯克(Elon Musk)宣布成立一家名为“xAI”的新人工智能公司,旨在寻求建立一个良好的AGI(Artificial General Intelligence,意为“通用人工智能”,简称“AGI”),作为微软、谷歌和OpenAI的替代品。马斯克声称,xAI将成为“最大限度寻求真理的人工智能”,并将“试图理解宇宙的本质”。xAI还将与推特(Twitter)和特斯拉(Tesla)密切合作,会使用公开推文来训练其人工智能模型,还可能与特斯拉合作开发人工智能软件。马斯克表示,这种关系将具有“互利互惠”性质,并可能加速特斯拉在自动驾驶方面的工作进程。

来源:路透社,Euronews


「加密矿商Hive Digital更名,去除“区块链”转而关注人工智能」

7月13日,加密采矿公司Hive Blockchain已更名为Hive Digital Technologies,以突显其进军人工智能(AI)领域。在7月12日发布的声明中,这家总部位于加拿大温哥华的矿业公司表示,它已“区块链”从其名称中删除,以更好地展示公司在图形处理单元(GPUs)和云计算等重要方面“不断发展”,以及“推动人工智能进步”和支持“新的Web3生态系统”的使命。

来源:Cointelegraph


「谷歌将人工智能聊天机器人Bard拓展至欧洲和巴西以与ChatGPT展开竞争」

7月13日,谷歌母公司Alphabet宣布将在欧洲和巴西推出其人工智能聊天机器人Bard,并将与微软支持的ChatGPT展开竞争。之前,由于爱尔兰的监管机构要求该公司具备足够的保障措施,谷歌在欧洲的发布计划被推迟。当前,谷歌宣称其已经满足了爱尔兰监管机构的要求,收紧了Bard聊天机器人的隐私设置以提高透明度,并给予用户更多的控制权。此外,谷歌还拓展了Bard的功能。聊天机器人将提供包括中文在内的40多种语言版本。

来源:路透社


「美联社与OpenAI合作以在新闻领域应用生成式人工智能」

7月13日,美联社与ChatGPT的开发公司OpenAI达成协议,授权OpenAI使用美联社部分新闻存档,以探索生成式人工智能(AI)在新闻领域的应用。根据协议,美联社将获得OpenAI的技术和产品专业知识。协议的财务细节未披露,美联社也未透露如何将OpenAI的技术整合到其新闻业务中。美联社大量的新闻报道将有助于提供训练ChatGPT等人工智能系统所需的海量数据。然而,由于担心生成式人工智能会产生事实不正确的信息,并且难以区分人类和AI生成的内容,新闻出版物在采用该技术方面一直较为谨慎。美联社的高级副总裁兼首席执行官Kristin Heitmann表示:“生成式人工智能是一个快速发展的领域,对新闻行业有着重大影响。新闻机构必须参与其中,以便各大小新闻编辑部能够利用这项技术,从而造福新闻事业。”OpenAI的首席运营官Brad Lightcap对此回应:“美联社的反馈意见以及OpenAI对其高质量、真实文本存档的访问将有助于提高OpenAI系统的能力和实用性。”

来源:路透社、澎湃新闻


「谷歌因涉嫌非法采集用户数据训练人工智能(AI)而面临隐私侵权诉讼」

7月11日,谷歌在一项拟议的集体诉讼中被指控滥用大量个人信息和受版权保护的数据来训练其聊天机器人Bard和其他生成式人工智能系统。该诉讼由八名代表向旧金山联邦法院提起,他们称谷歌未经授权从网站上抓取数据,内容包括约会网站上的照片、Spotify播放列表和Tiktok视频,侵犯了他们的隐私和财产权。该诉讼要求法院命令谷歌让其用户拥有退出“非法数据采集”(Illicit Data Collection)的选择权,并删除现有数据或向所有者支付补偿。谷歌总法律顾问Halimah DeLaine Parado回应说,谷歌多年来一直使用公共来源的数据(例如发布到开放网络和公共数据集的信息)来训练谷歌翻译等服务背后的人工智能模型,其行为是负责任的,且符合谷歌的人工智能原则。

来源:路透社


「IBM将启动自研人工智能芯片以降低云计算服务的运营成本」

7月11日,国际商业机器公司(IBM)的高管Mukesh Khare表示,IBM正在考虑使用自研的人工智能芯片,以降低云计算服务的运营成本。IBM将使用一种名为“人工智能单元”(Artificial Intelligence Unit)的芯片作为其“Watsonx”云服务的一部分,这一芯片将由三星电子制造。这一芯片具有节能的特点,将解决旧的Watsonx系统面临的成本高昂的问题。

来源:路透社


「Salesforce与T-Mobile的首席执行官进行人工智能有关会谈」

7月6日,Salesforce主席兼首席执行官Marc Benioff与T-Mobile首席执行官Mike Sievert进行会谈,着重讨论了生成式人工智能的力量、在采用新技术信任的重要性以及有关企业在社会中的角色。T-Mobile自2008年以来一直与Salesforce合作,利用后者开发的人工智能模型 Einstein AI 等技术提高生产力、效率和与客户的联系。通过使用Salesforce Service Cloud和Sales Cloud,T-Mobile的销售代表能够即时创建订单、确认批准和完成交易,将效率提高了70%,每周最多可节省7个小时。

来源:Salesforce

清华大学人工智能国际治理研究院编

上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

上一篇:《人工智能国际治理观察》190期

下一篇:《人工智能国际治理观察》207期

关闭

相关文章

读取内容中,请等待...