北京市海淀区清华大学01062794781i-aiig@tsinghua.edu.cn

研究成果

Research Results


海外智库观察

「布鲁金斯学会:生成式人工智能需要怎样的监管」

2023年6月2日,布鲁金斯学会(Brookings Institution)发表其高级研究员尼科尔·特纳·李(Nicol Turner Lee)、非常驻高级研究员Niam Yaraghi、非常驻高级研究员马克·麦卡锡(Mark MacCarthy)及客座研究员汤姆·惠勒(Tom Wheeler)共同撰写的评论文章《应如何监管生成式人工智能?(Around the halls: What should the regulation of generative AI look like?)》。文章指出,我们生活在一个生成式人工智能空前进步的时代,生成式人工智能的持续进步和应用也提出了一些重要问题,如该技术将如何影响劳动力市场,其对训练数据的使用如何影响知识产权,以及政府应采取何种形式对该行业进行监管。今年5月美国国会与主要行业领导人举行的听证会表明,立法者对人工智能监管持开放态度,以此来控制生成式人工智能和更广泛的人工智能的潜在负面影响,对此,布鲁金斯学会技术创新中心的四位学者就应该如何监管生成式人工智能进行了权衡。


布鲁金斯学会技术创新中心主任尼科尔·特纳·李(Nicol Turner Lee)指出,对生成式人工智能的监管可以从良好的消费者信息披露开始,更多的透明度和问责制必须是任何监管框架的核心,这需要从细节做起。虽然围绕监管的辩论集中在生成式人工智能的潜在缺点,如数据集的质量、不道德的应用、种族或性别偏见、对劳动力的影响,以及由于不良行为者的技术操纵而对民主进程的更大侵蚀上,但该技术改善和简化了某些流程和决策,促进效率和生产力的大幅飙升。未来将有更多围绕着生成式人工智能的最终价值和对社会的影响的讨论。如果国会在监管新兴技术和制定联邦隐私标准方面继续以非常缓慢的速度行事,那么生成式人工智能将在技术上变得更加先进,并深深嵌入社会中。但是美国国会可以通过要求在使用人工智能时向消费者进行披露,并增加标签或某种类型的多方利益相关者认证程序,以鼓励提高现有和未来用例的透明度和问责制,从而在监管方面获得快速突破。在这方面,欧盟已经起了带头作用。其最新的《人工智能法案(AI Act)》要求向消费者披露人工智能生成的内容,以防止侵犯版权、非法内容和其他因终端用户缺乏对系统的了解而导致的相关不当行为。尽管美国的合理使用原则允许内容使用,以保护受版权保护的作品,但消费者往往被蒙在鼓里,不知道过程和结果的产生与解释说明。美国国会应该在未来的监管中优先考虑对消费者的保护,并制定灵活的政策以适应新出现的消费者和社会危害,从而在用户作为高度数字化的产品和服务的主体再次被迫自力更生之前,为他们提供即时保障。欧盟在披露要求方面确实有所进展,而美国可以进一步将其应用与现有的相同模式联系起来,如美国食品和药物管理局的标签指南或将人工智能引入能源之星认证(Energy Star Rating)系统。


布鲁金斯学会技术创新中心非常驻高级研究员Niam Yaraghi指出,应重新审视《健康保险可携性和责任法案(Health Insurance Portability and Accountability Act, HIPAA)》和健康信息封锁规则,从而平衡人工智能时代的隐私和互操作性。随着复杂的人工智能进展的出现,包括像GPT-4这样的大型语言模型,以及像ChatGPT这样由大模型驱动的应用程序,现在迫切需要重新审视医疗保健隐私保护问题。就其核心而言,所有的人工智能创新都利用复杂的统计技术,在广泛的数据集中利用日益强大且划算的计算技术来辨别模式。大数据、先进的统计方法和计算资源这三个组成部分不仅是最近才有的,而且正在被民主化,并以以往技术创新中前所未有的速度让每个人都能轻易获得。这种进步使我们能够识别以前无法辨别的模式的同时,也可能对患者造成伤害。例如,隐私法规,尤其是HIPAA是为了保护病人的私密而制定的,其运作的假设是去掉身份识别的数据将保持匿名,但目前的人工智能技术进步可能使情况变得更加危险。现在,整合来自多个来源的各种数据集比以往任何时候都容易,这也增加了准确识别个别病人的可能性。除了隐私和安全方面的风险被放大之外,新的人工智能技术也因其丰富的知识提取潜力而提高了医疗数据的价值。因此,许多数据提供者可能会更加犹豫是否与他们的竞争对手分享医疗信息,从而使医疗数据的互操作性进一步复杂化。考虑到这些日益增加的隐私问题和医疗数据价值,引入现代立法,以确保医疗机构继续分享他们的数据,同时受到保护,避免因生成式人工智能的广泛使用而可能出现的潜在隐私泄露的后果至关重要。


布鲁金斯学会技术创新中心非常驻高级研究员马克·麦卡锡(Mark MacCarthy)引用了朱塞佩·托马西·迪·兰佩杜萨(Giuseppe Di Lampedusa)小说中的名句“如果我们想让事情保持原样,事情就必须改变”,认为这一说法也适用于科技行业对人工智能监管不可避免的接纳。如果人们不希望事情保持原样,需要做三件事。第一步也是最重要的一步是为各机构提供足够的资源来执行现行法律。联邦贸易委员会主席莉娜•可汗(Lina Khan)明确表示,人工智能不能免于现行的消费者保护、歧视、就业和竞争法,但如果监管机构在预算紧缩的情况下不能雇用技术人员并提起人工智能案件,现行法律将成为一纸空文。第二,政策制定者不应该被科幻小说中关于人工智能程序发展出意识并实现对人类的独立控制的幻想所干扰,当骗子和行业边缘人正试图利用人工智能来破坏现有法律时,公共资金都不应该花在这些高度投机的分支上。第三,美国国会应考虑按照欧盟拟议的《人工智能法案》的思路,采用新的识别方法以及透明度、风险评估和版权保护要求。


布鲁金斯学会技术创新中心客座研究员汤姆·惠勒(Tom Wheeler)指出,创新的人工智能需要创新的监督。在美国,两党以及数字公司的负责人,现在都在谈论监管人工智能的必要性。一个共同的主题是需要一个新的联邦机构。然而,简单地克隆用于现有监管机构的模式并不是答案。这种模式是为监督工业经济而开发的,利用节奏较慢的创新对企业活动进行微观管理,不适合自由流动的人工智能时代的速度。所有法规都在保护公众利益和促进创新和投资之间走钢丝。在人工智能时代,穿越这条道路意味着接受不同的人工智能应用带来的不同风险,同时将监管与风险配对,避免引发创新的监管微观管理。这种敏捷性始于采用数字公司制定技术标准的方法作为制定行为标准的方法,即确定问题,建立一个由公司、民间社会和机构共同参与的标准制定过程,然后将最终批准和执行权力交给机构。工业化是为了取代和/或增强人类的体力,而人工智能则是为了取代和/或增强人类的认知能力。将前者的监管方式与后者所需的监管方式混为一谈,就会使监管手段错失与其监督的技术一样创新的机会,因此,我们需要数字时代的机构来解决这些显而易见的问题。



尼科尔·特纳·李(Nicol Turner Lee):布鲁金斯学会技术创新中心主任、治理研究方向高级研究员,专注于研究使美国各地公平获得技术,并为世界各地的社区带来变革的公共政策。

Niam Yaraghi:布鲁金斯学会技术创新中心非常驻高级研究员,美国迈阿密大学赫伯特商学院商业技术副教授,专注于研究信息系统、医疗保健和政策的交叉领域。

马克·麦卡锡(Mark MacCarthy):布鲁金斯学会技术创新中心非常驻高级研究员, 乔治敦大学研究生院传播、文化和技术项目以及哲学系的兼职教授,专注于研究新兴技术治理、人工智能伦理、隐私、技术竞争政策等问题。

汤姆·惠勒(Tom Wheeler):布鲁金斯学会访问学者,美国联邦通信委员会前主席,专注于研究技术与创新、治理等问题。

原文链接:

https://www.brookings.edu/blog/techtank/2023/06/02/around-the-halls-what-should-the-regulation-of-generative-ai-look-like/

行业舆情追踪

国内动态

政府规划

「广州南沙多举措促制造业数字化转型」

7月7日,随着数字化进程的深入,南沙制造业数字化转型进入了由表及里的关键时期。据统计,近3年南沙区相关产业数字化转型企业合计新增产值约70亿元。在南沙制造业数字化转型的具体举措和现有成果方面,南沙区工信局信息发展处处长刘成表示,南沙加快推进新型信息基础设施建设,推动5G、IPv6等新型网络技术在企业内网的广泛部署;并与华为共同建设华为(南沙)人工智能创新中心,两年多来共为120多家区内企业提供了研发协同、生产物流联动、智慧仓储等数字化转型升级服务。同时,南沙还积极推动数字技术与应用场景融合,打造了一批具有示范性、可复制推广的数字技术应用场景与解决方案,促进数字技术跨界融合。南沙区政府表示,下一步,该区将进一步促进数字经济与实体产业融合发展,以人工智能、工业互联网、大数据等新一代信息技术为抓手,加快南沙制造业数字化、智能化转型步伐。

来源:中国新闻网


政-产-学研合作

「“人工智能合规服务中心”上海揭牌」

7月7日,“人工智能合规服务中心”在上海揭牌。该中心依托国家智能社会治理实验综合基地(上海杨浦)而建,将充分发挥同济大学的智力、技术资源优势与杨浦区的实践优势,为企业的人工智能新技术新应用提供合规指引咨询和服务。据介绍,一年多来,杨浦区与同济大学通过聚合多主体参与,整合多学科力量,共同致力于智能社会治理的探索与实践,构建了政校联动的新模式,探索了社会实验的新方向,开拓了技术落地的新空间,开展了智能治理的新尝试。该基地紧密结合杨浦区城市更新、数字化转型实际推进场景建设与实验研究,初步形成了应用主体“出题”,研究主体和技术主体“答题”的社会实验模式。

来源:中国新闻网


行业自治

「业界联合发布《AIGC可信发展倡议》」

7月7日,2023世界人工智能大会“聚焦·大模型时代AIGC新浪潮”论坛在沪举办。论坛现场,为推动可信人工智能发展,《AIGC可信倡议书》(以下简称“倡议”)正式发布。该倡议基于当前人工智能技术的高速发展现状,对人工智能伴随的风险和挑战等,倡议号召人工智能行业同仁积极响应以下四点倡议:上海人工智能实验室主任助理乔宇提出创新升级,推动AIGC可信应用研发的倡议。开展战略性、原创性、前瞻性的科学研究与技术攻关,关注可信人工智能的基础理论研究与交叉学科研究,开展共性技术平台的研发;中国信息通信研究院副院长王志勤提出推动技术向善,赋能AIGC可信能力提升的倡议。强化“伦理先行”意识、加强行业自律自洽,各主体共同建立基于开放共享平台的协同合作机制,支撑产业生态的健康有序和共建共享;武汉大学计算机学院院长杜博提出促进国际交流,凝聚AIGC可信合作共识的倡议。积极参与AIGC可信应用与治理等领域的国际规则制定和全球合作,构建AIGC可信发展的全球治理合作框架;蚂蚁集团大安全事业群副总裁邵晓东提出强化企业自治,加速AIGC可信工程实践的倡议。积极履行社会职责,把伦理安全底线问题放到企业发展的首位。加强与政府部门和行业组织的治理合作。

来源:中国新闻网


「虚拟人“唱响”数字经济,首届中国数字音乐会举办」

7月4日,首届中国数字音乐会举办,百家融媒同步直播。本届数字音乐会的亮点主要体现在新技术、新形式、新阵容三个方面。新技术即全数字驱动的新技术大联合,包括XR(扩展现实)动态舞台、真人+虚拟人+虚拟舞台、舞台实时合成、AI音乐创作等;新形式实现了不同空间、不同舞台的大联动,让场景与风格更丰富精彩;新阵容包括超写实、写实、二次元等类型,新国风、现代、时尚、嘻哈、未来科幻等不同风格虚拟人共聚舞台,打造全新的超强阵容。据介绍,虚拟人制作通常包括概念设计、人物建模、材质和纹理、骨骼绑定、动画制作、光照和渲染、后期处理、集成和优化等环节。其中会涉及三维建模与动画、角色细节与纹理、骨骼与动画控制、动作捕捉、面部捕捉与表情、声音合成与语音识别、人工智能与行为模拟等关键技术,需要概念艺术家、建模师、纹理艺术家、动画师、程序员等多个领域专业人员共同完成。

来源:中国新闻网


科技公司

「蚂蚁集团发布两项隐私计算开源产品」

7月7日,2023世界人工智能大会“数据要素与隐私计算高峰论坛”开幕。蚂蚁集团发布两项隐私计算开源产品:“隐语开源框架1.0”和首个国产金融安全级TEE方案“HyperEnclave”。据了解,这两项技术产品是蚂蚁“可信隐私计算隐语技术栈”里的重要产品,该技术栈历时6年研发,可实现隐私计算工业级应用。据介绍,“隐语开源框架”是“隐语技术栈”中的计算引擎层,HyperEnclave是其可信基座。该技术栈完全自研,积累了千余项专利,集合了隐语开源框架、Occlum TEE开源操作系统,HyperEnclave等领先的隐私计算技术产品,孵化了可信密态计算 (Trusted-Environment-based Cryptographic Computing,简称TECC)等新型隐私计算技术。在本次论坛上,蚂蚁也正式开源此方案。据悉,HyperEnclave将硬件技术最重要的信任根托管在可信权威机构,满足国产自研要求,已具备规模化商业场景的落地经验。此次开源也有望为行业带来更透明、更可信、更统一、更通用的国产TEE技术方案。

来源:环球网


「众安在线发布AIGC应用图谱」

7月7日,在2023世界人工智能大会(World Conference on Artificial Intelligence,简称WAIC)“数字基建新进阶,保险生态新价值”主题分论坛中,众安保险发布了保险行业首份AIGC应用图谱,并带来众安AIGC中台灵犀及首批保险垂直场景AIGC应用工具——易创内容运营平台和集智经营分析平台。相比于传统“AI+保险”应用,图谱从产品设计与创新、营销与展业、核保理赔、客户服务、智慧办公和研发管理6大维度出发,对AIGC在19个大类、78个小类业务场景中的赋能价值和未来应用潜力进行可行性研究,覆盖财险、寿险等业务,涉及代理人、自营等营销渠道,旨在为保险业数智化转型带来借鉴和参考。众安保险自主研发的AIGC中台灵犀通过适配如GPT(预培训生成转化语言模型)、通义千问、文心一言等国内外主流大模型,可以实现“1个MaaS(模型服务)平台,2种应用场景策略”——为了帮助保险机构更好适配AIGC能力,灵犀可以允许机构用户,在大模型内嵌入行业专业领域知识库,实现AIGC在保险垂直领域的应用快速适配。灵犀也支持把企业内部应用工具包装成大模型插件,让大模型更加贴近业务应用场景,通过AIGC助推企业业务能力提升。

来源:环球网


「华为云发布盘古大模型3.0,包含多个行业大模型」

7月7日,华为开发者大会2023(Cloud)在东莞正式揭开帷幕。会议中,华为常务董事、华为云CEO张平安发布盘古大模型3.0。据了解,盘古大模型3.0是一个面向行业的大模型系列,包括“5+N+X”三层架构:L0层包括自然语言、视觉、多模态、预测、科学计算五个基础大模型,提供满足行业场景中的多种技能需求。L1层是N个行业大模型,华为云既可以提供使用行业公开数据训练的行业通用大模型,包括政务、金融、制造、矿山、气象等大模型;也可以基于行业客户的自有数据,在盘古大模型的L0和L1层上,为客户训练自己的专有大模型。L2层为客户提供了更多细化场景的模型,更加专注于政务热线、网点助手、先导药物筛选、传送带异物检测、台风路径预测等具体行业应用或特定业务场景,为客户提供“开箱即用”的模型服务。盘古大模型采用完全的分层解耦设计,可以快速适配、快速满足行业的多变需求。客户既可以为自己的大模型加载独立的数据集,也可以单独升级基础模型,也可以单独升级能力集。在L0和L1大模型的基础上,华为云还为客户提供了大模型行业开发套件,通过对客户自有数据的二次训练,客户就可以拥有自己的专属行业大模型。同时,根据客户不同的数据安全与合规诉求,盘古大模型还提供了公用云、大模型云专区、混合云多样化的部署形态。

来源:环球网


前沿研究

「人工智能(AI)蛋白质生成大模型亮相WAIC未来大分子药、新生物材料等设计可实现“一键定制”」

7月7日,在上海举行的2023世界人工智能大会(WAIC)上,业界首个AI蛋白质生成大模型“NewOrigin”(中文名为“达尔文”)正式亮相。据介绍,NewOrigin大模型通过学习千亿级多模态大数据,可实现多模态定向生成,单模型就能满足序列生成、结构预测、功能预测、从头设计等蛋白质生成全流程需求,解决产业应用所需的特定功能蛋白质生成难题,并在真实的产业环境中评估效果与价值,未来大分子药、新生物材料等蛋白质设计可实现“一键定制”。同时,为了评估生成效果,NewOrigin融合AI、分子动力学、量子计算等多种方法,形成多维反馈机制,来实现快速验证和迭代。为了降低交互门槛,NewOrigin使用了融合自然语言交互的蛋白质生成模式,以满足广大不具备AI技术背景的生物学家的应用需求。

来源:中国新闻网


元宇宙

「北京市元宇宙产业创新中心筹建工作正式启动」

7月6日,在全球数字经济大会互联网3.0高峰论坛期间,北京市元宇宙产业创新中心(下称“创新中心”)筹建工作正式启动。创新中心聚焦技术、应用、场景、数据、标准专利、治理等六大任务,组织渲染引擎、数字人、数字空间、XR(扩展现实)设备、AIGC等相关企业,打造开放开源的编辑工具。据介绍,创新中心汇聚数字博物馆、数字展厅、数字会场、数字城市、数字景区、数字体育等不同应用,提供弹性计算的数字空间聚合平台。创新中心与产业链上下游企业合作,首批已汇聚国内40余家企事业单位。据悉,下一步,北京市元宇宙产业创新中心将尽快完成企业法人注册,构建产业创新网络,打造国家级元宇宙产业创新平台。

来源:环球网

国际动态

政府规划

「美国新规:人工智能招聘工具必须接受偏见审计」

7月7日,纽约市的一项旨在消除人工智能招聘工具偏见的新法律生效,要求对人工智能招聘工具接受“偏见审计”(Bias Audit)。违规者第一次违规将面临500美元的罚款,随后每次违规将面临最高1500美元的罚款。此新规的基础是2021年7月5日生效的第144号地方法案:禁止雇主和职业中介机构使用未经偏见筛查的自动化就业决策工具。该法律将这些工具定义为使用机器学习、统计建模或数据分析进行招聘决策并“在很大程度上帮助或取代自主决策”的工具。

来源:AI Business


「新加坡个人资料保护委员会将推出针对人工智能系统咨询指南」

7月6日,新加坡个人资料保护委员会将针对人工智能系统推出咨询指南,保护个人资料的收集和使用。新加坡也会和其他国家合作,制定人工智能治理和伦理指南。通讯及新闻部长兼内政部第二部长杨莉明在国会上宣布,新咨询指南将针对新加坡《个人数据保护法》(Personal Data Protection Act,简称PDPA)如何在人工智能系统做决策或建议时,保护所收集和使用的个人资料。杨莉明强调,新加坡支持负责任地研发和运用人工智能,以解锁它对经济和社会转型的潜能。

来源:联合早报


国际合作

「中美团队合作开发基因遗传信息新模型 精准预测冠心病患病风险」

7月7日,为实现对个体未来罹患冠心病风险的精准预测,中国科学院北京基因组研究所(国家生物信息中心)汪敏先团队与美国博德研究所Amit V. Khera团队合作,最新成功开发出基于基因遗传信息预测冠心病患病风险的新模型,有望在冠心病高风险人群的早期识别及精确分层上发挥作用,促进冠心病精准防治。本项研究中,中美合作团队在利用冠心病单族裔及单疾病遗传关联信息的模型基础上,进一步开发整合不同族裔人群背景及多个冠心病临床危险因素信息的全基因组多基因风险评分新模型GPSmult。该模型预测的准确性超过美国临床预防医学领域用于评估个体动脉粥样硬化性心血管疾病患病风险的“金标准”——美国心脏病学会/美国心脏协会合并队列方程组,大幅提高利用基因组遗传信息预测个体未来患冠心病风险的准确度,能够进一步改善约40%个体的风险预测准确性。这项医疗健康领域重要成果论文,北京时间7月6日夜间在国际专业学术期刊《自然–医学》(Nature Medicine)在线发表。

来源:中国新闻网


科技公司

「Adobe和Shutterstock宣布将为平台人工智能(AI)图片负责」

7月7日,Adobe及商业图库网站Shutterstock宣布,将为平台上由AI生成的图片负责,企业客户若遇到相关版权纠纷,可获得全额赔偿。在用户使用Firefly for Enterprise时,若因AI工具Firefly产生版权纠纷,Adobe将会为相关的法律费用提供全额赔偿。若用户正确使用由AI生成的图片,并满足Shutterstock的基本协议,即可为用户造成的纠纷给予全额补偿。随着当下AI文生图能力的不断发展,面对来势汹汹的“版权警察”,Adobe与Shutterstockfa发挥了示范作用,有望分担用户端的版权压力,促进AI图片应用进一步落地。

来源:IT之家


「日本软银将开发自己的生成式人工智能平台」

7月7日,移动网络提供商软银公司宣布准备开发公司自己的生成式人工智能平台,着眼于为企业客户提供服务。该公司将投资约200亿日元购买超级计算机,这对于处理生成式人工智能平台所需的信息至关重要。该机器将使用美国英伟达公司制造的微芯片,英伟达以制造用于许多生成式人工智能程序的高性能半导体而闻名。两家公司一直在包括电信在内的多个领域进行合作。一旦建成,该超级计算机预计将具备日本最高水平的信息处理能力。软银已经在其呼叫中心引入了生成式人工智能,以协助其客户支持服务。该公司旨在通过为其他公司提供更高准确度的人工智能服务,使该平台成为新的收入来源。

来源:Asianews


「Meta推出“推特”竞品:社交平台Threads」

7月7日,Meta推出“推特”竞品社交平台Threads。Threads在100个国家和地区的苹果和安卓应用商店都有售。谷歌趋势(Google Trends)数据显示,7月5日,即Threads推出的前一天,“Threads”就成为了美国搜索量最大的词汇。发布仅7小时后,Threads的下载量就超过了1000万。Meta表示,该应用程序提供了“一个新的、独立的实时更新和公共对话空间”。Meta表示,Threads的愿景是把Instagram最擅长的东西扩展到文本中,创造一个积极而有创意的空间来表达用户的想法。Meta正在努力使Threads与其旗下的Facebook、WhatsApp和虚拟现实平台Meta Quest兼容。

来源:AI Business


「OpenAI 向所有付费API用户开放GPT-4」

7月7日,OpenAI宣布向所有付费API访问的开发者开放GPT-4,同时,OpenAI还推出了包括GPT-3.5 Turbo、Whisper及其DALL·E图像生成在内的更多API。GPT-4的开放旨在为所有人提供“通用人工智能”(AGI)的能力和机会。GPT-4可以根据给定的文本或语音输入,生成各种类型和风格的自然语言输出,如文章、对话、摘要、诗歌、歌词等,这将帮助教育、娱乐、医疗、商业等各行各业的开发者和企业,创建更多的创新、有价值的应用和服务。GPT-4的开放是人工智能领域的一个里程碑事件,也是对自然语言处理技术的一个巨大推动。GPT-4不仅展示了其强大的生成能力和灵活性,也为人类与机器之间的交流和合作提供了更多的可能性和潜力。此外,OpenAI加强了对GPT-4的安全和道德的监督和管理,以防止其被滥用或误用。

来源:IT之家


「微软将transformer扩展到10亿token」

7月7日,在微软最新的一项研究中,其将Transformer扩展到10亿Token。这为建模非常长的序列开辟了新的可能性,例如将整个语料库甚至整个互联网视为一个序列。该研究提出了LONGNET,这是一种Transformer变体,可以将序列长度扩展到超过10亿个Token,而不会牺牲对较短序列的性能。此项研究还提出了Dilated Attention,它能指数级扩展模型感知范围。该研究的解决方案LONGNET成功地将序列长度扩展到10亿个Token;该研究提出一种名为Dilated Attention的新组件,并用Dilated Attention取代了Vanilla Transformer 的注意力机制,解决了注意力资源有限和可访问每个Token之间的矛盾,展现了其在充分利用长语境来改进语言模型方面的优越性。

来源:澎湃新闻


「全球金融科技平台Intuit与OpenAI合作开发LLM」

7月5日,据悉,为全球1亿多客户提供服务的TurboTax、Mailchimp、QuickBooks母公司——全球金融科技平台Intuit,正与OpenAI合作,在其生成式人工智能(简称GenAI)操作系统上加速生成式人工智能应用程序的开发。Inuit表示,新产品GenOS将使用OpenAI的GPT-3.5和GPT-4大型语言模型(LLM)及其自己的财务LLM,使其开发人员能够“快速、大规模”构建GenAI驱动的体验。

来源:IBS Intelligence


「日本电气股份有限公司将推出人工智能(AI)新服务」

7月6日,日本电气股份有限公司(NEC)宣布本月起将陆续推出可帮助企业提高业务效率等的生成式AI新服务,其优势在于便于使用日语以及较高的安全性,可用于金融机构来向顾客推荐商品等。其目标是在今后3年内,相关销售额达到总计500亿日元(约合人民币25亿元)。NEC独立开发了生成式AI的基础技术“大语言模型”,在提高对日语文章的理解能力和正确答题能力的同时,抑制了电力消耗,还可用于处理客户信息等敏感内容。它将在2023年度内推出自行开发的生成式AI。

来源:共同网


「印度塔塔咨询服务公司将利用Microsoft Azure Open AI提升25,000名工程师的技能」

7月6日,印度信息技术公司塔塔咨询服务公司(TCS.NS)表示,计划培训25,000名工程师,让他们获得“微软蔚蓝生成式人工智能”(Microsoft Azure Open AI)的认证。该公司还为客户推出了新的生成式人工智能企业采用产品,关注于快速增长的人工智能领域。

来源:路透社


「万事达卡人工智能工具帮助银行打击欺诈」
7月6日,万事达卡发布了一款新的人工智能驱动工具,供银行使用,用于收集情报,预测涉及实时支付的诈骗行为。据悉,“消费者欺诈风险”解决方案的人工智能是使用与英国银行合作获得的多年交易数据进行培训的。通过分析数据,系统能够预测用户是否试图将资金转移到先前与“授权推送支付骗局”相关的账户。万事达卡网络和情报总裁Ajay Bhalla表示,过去银行要侦测这类诈骗“极具挑战性”。“他们的客户通过了所有必要的检查,并自己汇款;犯罪分子不需要破坏任何安全措施。”

来源:Cointelegraph


「OpenAI创建反超级智能(Anti-Superintelligence)团队」

7月6日,OpenAI计划创建反超级智能(Anti-Superintelligence)团队Superalignment,以防止人工智能(AI)失控威胁人类,最终实现AI的自我监督。OpenAI首席执行官Sam Altman一直在世界各地宣传人工智能超级智能的危险,即机器变得比人类聪明得多,并可能失控。据悉,控制超级智能不仅需要新的治理机构,还意味着解决超级智能的对齐问题。也就是说,团队需要弄清楚如何使超级智能与人类保持一致的价值观,并遵循人类意愿。该公司曾在2022年表示:“与人类不一致的AGI(通用人工智能,指具备与人类同等智能、或超越人类的人工智能,能表现正常人类所具有的所有智能行为))可能会给人类带来巨大风险,解决AGI对齐问题可能非常困难,需要全人类的共同努力。”Superalignment团队的目标是创建一个“人类水平”的人工智能对齐研究者,并通过大量计算资源进行拓展。OpenAI表示,这意味着他们将使用人类反馈来训练AI系统,辅助人类评估,最终训练AI系统进行对齐研究(Alignment Research)。人工智能安全的倡导者Connor Leahy表示,该计划存在根本性缺陷,因为最初的人类级人工智能(Human-Level AI)在被强制解决人工智能安全问题之前,可能会肆意妄为并造成破坏。

来源:AI Business,路透社


「Steam因版权问题拒绝人工智能制作的游戏」

7月4日,互联网上最大的视频游戏数字商店Steam的开发商Valve拒绝了一名开发者试图在Steam上提交一款使用人工智能工具生成游戏资产的游戏,称其“不能发布开发者没有所有必要权利的游戏”。该公司表示,目前“尚不清楚”用于制作游戏资产的人工智能是否“拥有足够的训练数据的权利。”Valve写道:“经过审查,我们发现游戏名称中的知识产权属于一个或多个第三方。特别值得注意的是,游戏名称包含由人工智能生成的艺术资产,可能是依靠第三方拥有的版权材料。”

来源:AI Business


行业自治

「调查显示:人工智能支出在各行各业的公司中加速增长」

7月8日,美国消费者新闻与商业频道(CNBC)对科技高管的一项调查显示,63%的高管将在未来12个月内加快人工智能支出。Omdia的另一项调查显示,55%的公司已经有了专门的人工智能预算。CNBC调查的63%的受访者表示,他们的公司正在加快在人工智能方面的支出。值得注意的是,根据CNBC技术执行委员会对约100名高管的调查,所有受访者都表示自己有投资人工智能。该委员会由埃森哲、Adobe、礼来、安永、IBM、强生、美泰、普华永道、SAP、泰森、沃尔玛和Zoom等公司的首席信息官、首席技术官、首席发展官和其他技术领导者组成。此外,44%的受访者表示,他们70%的人工智能预算用于软件、服务和SaaS。同时,20%的受访者表示,他们人工智能预算的70%用于人员和资源。约36%的人表示,他们的预算在两者之间大致平均分配。

来源:AI Business


「ChatGPT面临有史以来第一次网络流量下降」

7月7日,根据Similarweb的数据,自2022年11月推出以来,OpenAI的ChatGPT网站6月份的月度用户访问量首次出现下降。值得注意的是,这些数字并不包括5月中旬推出的ChatGPT的应用程序的流量。桌面用户在5月份已经开始下降2.42%,6月份加速下降到9.65%。移动网络用户在6月出现了下降,下降了9.8%。结合这两个渠道,6月份ChatGPT的总用户数减少了9.73%。此外,该网站的独立访问者和用户在该网站上花费的时间也分别下降了5.7%和8.5%。在美国,该网站的流量环比下降了10.3%。尽管流量有所下降,但该网站仍领先于谷歌的Bard、微软的必应(Bing)和Character AI。

来源:AI Business,Cointelegraph


「杨立昆:大语言模型不是通往人类智慧的道路」

7月6日,在2023世界人工智能大会(WAIC)的开幕式中,杨立昆表达了对AI发展的乐观态度,也批评了以ChatGPT为首的大语言模型。杨立昆认为,ChatGPT这样的产品其实没有真正理解现实世界,所以就更无从谈起实现人类智慧。他指出,每一个人工智能都是专项的,人类智能同样也是专项的,但LLM(大语言模型)只基于文本训练,而没有利用视频训练,这导致模型是不理解物理世界的。如果不理解物理世界,就没办法规划、推理,并实现目标。如果LLM(大语言模型)漏掉的是一些非常基本组件的话——那就意味着这个系统是不足的。杨立昆提出了“目标驱动人工智能”的理念,即设定必须满足的目标,并逐步提高系统的智能水平,而不是给模型一两万个Token,让模型自己进行推理。最后,杨立昆也提到,严格监管人工智能发展并不能保证AI安全,相反,开源才是唯一让AI保持良善且实用的办法。

来源:36氪


「英国大学制定在教育中道德使用人工智能的指导原则」

7月4日,由牛津大学、剑桥大学和伦敦帝国理工学院等英国顶尖学校组成的罗素大学集团制定了推动人工智能集成和发展的指导原则,这一原则将维护学术诚信,同时让学生拥有适当使用人工智能的能力。根据新的指导原则,学校将教学生如何使用人工智能,同时让他们认识到生成式人工智能在剽窃、偏见和不准确性方面的风险。同时,学校还将对教职工进行人工智能培训,让他们能帮助学生适当使用生成式人工智能工具,并及时发现人工智能辅助作弊的情况。罗素大学集团首席执行官Tim Bradshaw表示,根据新的指导原则,24所大学承诺走在人工智能这一新兴技术的前沿,以使学生和教职员工受益,并使罗素大学集团提供高质量教育。

来源:卫报


技术应用

「人工智能有可能使比特币价格超过75万美元」

7月7日,BitMEX前首席执行官Arthur Hayes表示,比特币将成为人工智能的货币,在这个过程中,每枚比特币的价格可能达到76万美元。Arthur Hayes表示,人工智能革命将自然地向比特币倾斜,未来几年对人工智能来说将是爆炸性的,对比特币来说更是如此。随着Web3进入公众视野以及比特币价值达到峰值,2022年“加密货币工作”的搜索量达到有史以来的最高水平。现在,“人工智能工作”已经达到了自己的顶峰。根据加密货币数据聚合商CoinGecko的一项新分析,人工智能方面的工作已成为争夺求职者的最大赢家。

来源:Cointelegraph


「人工智能工具可以帮助更快更准确地治疗脑瘤」

7月7日,哈佛医学院发布的一项研究发明,一种新的人工智能工具可以帮助神经外科医生治疗肿瘤。为了安全地切除神经胶质瘤而不损伤周围的脑组织,神经外科医生通常需要大量的信息,而这些信息通常只有在患者上手术台后才能被收集。然而,机器学习能够帮助医生更快、更准确地分析神经胶质瘤,从而减少患者在手术室的时长。机器学习还可以帮助医生确定手术室中特定肿瘤的侵袭性,从而帮助医生更快地更准确地判断所需使用的药物。

来源:卫报


「人工智能可能终结传统学校课堂的授课模式」

7月7日,加州大学伯克利分校的英国计算机科学家Stuart Russell预测,人工智能的发展可能会导致学校传统课堂的终结。个性化的ChatGPT式的导师有潜力通过向每个家庭提供个性化辅导,从而极大地丰富教育并在全球范围内扩展。ChatGPT这项技术具有潜在变革性,将为未来世界上的每位孩子提供高质量的教育。然而,ChatGPT在教育领域的应用也存在被灌输某种思想的风险。一方面,将人工智能应用于教育领域可能会引起教师工会对受聘教师数量减少的担忧,就教育领域而言,人类的参与仍然至关重要。

来源:卫报

清华大学人工智能国际治理研究院编

上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

上一篇:《人工智能国际治理观察》188期

下一篇:《人工智能国际治理观察》207期

关闭

相关文章

读取内容中,请等待...