2023大模型治理蓝皮报告 从规则走向实践

2023-11-27 19:50:09 字數 3789 閱讀 3632

今天分享的是大模型系列深度研究报告:《2023大模型治理蓝皮报告:从规则走向实践

报告出品方:中国信息通信研究院政策与经济研究所)

报告共计:72页。

精选报告**:公枞号《人工智能学派》

当前,世界人工智能领域科技创新异常活跃,日益成为改变世界 竞争格局的重要力量。一批里程碑意义的前沿成果陆续突破,以 chatgpt 为代表的大模型技术引发通用人工智能新一轮发展热潮。

大模型体现出强智能性、强通用性、强交互性,为进一步的产业 革新与数字**发展奠定了坚实的基础。根据麦肯锡报告,生成式人 工智能每年或将为全球 gdp 增加 2.6-4.4 万亿美元。根据 markets and markets 报告,2023 年全球生成式人工智能的市场规模预计为 110.3 亿美元,2028 年预计将达到 518 亿美元,年复合增长率达 35.6%。

大模型在提升产业效率与社会生产力的同时,亦伴随着多重风险与挑战,有必要从技术自身缺陷引发的风险、技术应用在不同层面带来的问题与挑战等维度出发,梳理和**大模型发展面临的困局。

2018 年,世界经济论坛提出敏捷治理概念,讨论如何应对第四次工业革命中的政策制定问题,敏捷治理理念开始受到广泛关注。敏捷治理是“一套具有柔韧性、流动性、灵活性或适应性的行动或方法是一种自适应、以人为本以及具有包容性和可持续的决策过程”。一方面,敏捷治理体现为快速感知能力。强调对时间的高度灵敏度,需要时刻准备应对快速发展中的变化,主动接受变化并在变化中学习。能够快速感知到内外部环境的变化,**内外部面临的风险问题。另一方面,敏捷治理强调参与主体应具有广泛性。治理主体不再局限于**,而是需要与开发者、部署者、用户等利益相关者密切互动,建立机制持续性监测和讨论政策内容,保持长期可持续性。

在治理模式选择上,灵活感知、动态调适的敏捷治理更契合大模型发展需求。大模型具有突破性、变革性、高风险性等特点,传统监 管模式面临着 ai 自主演化控制难、迭代快速跟进难、黑箱遮蔽追责 难等问题,一劳永逸的事前监管模式已经难以应对不断推陈出新的人工智能发展需求。开展科技伦理敏捷治理试点工作,是边发展、边治理,边摸索、边修正的动态治理方式,对于平衡安全和创新,在实践 中不断提炼和打磨大模型治理方案具有重要意义。

围绕可信可控、以人为本、公平公正等人工智能治理价值目标, 全球各国注重“刚柔并济、软硬兼施”,从柔性伦理规范和硬性法律法规等维度发布具体的人工智能规则规范。根据世界经合组织(oecd)人工智能政策观察站最新统计,已有 69 个国家和地区发布 800 多项人工智能政策。

超越人类控制是大模型的典型伦理风险。大模型潜在的失控风险性,很大程度**于大模型的“智能涌现”能力,使大模型可能超越人类控制,生成具有各类伦理风险、不服从人类价值观的内容。

价值对齐是人工智能伦理治理的重要解决方案。价值对齐即要求人工智能系统的能力和行为与人类的价值观、真实意图、利益以及伦理原则相一致,确保人类与人工智能协作过程中的安全与信任,是让大模型更加安全、可靠和实用的核心议题。大模型价值对齐的实现。需要多种对齐技术和监管治理措施的结合。通过对训练数据的有效干预,从根源层面消除数据蕴含的伦理安全风险, 通过人类反馈强化学习 (rlhf)、模型可解释性等技术,在模型训练和学习过程中,从模型层面让人工智能理解和遵从人类的价值、偏好与伦理原则;通过对抗测试和内容过滤工具,从使用层面发现模型的潜在伦理安全问题过滤可能存在伦理风险的模型输出。利用上述多种技术和治理措施的结合,从人工智能开发和使用流程多个层面上实现价值对齐,创建安全、可靠、实用的人工智能模型。

对用户的信息披露是应对信息内容风险的重要工具。布鲁金斯学会发布《应如何监管生成式人工智能?》一文指出,对生成式人工智能的监管可以从良好的消费者信息披露开始,更多的透明度和问责制必须是任何监管框架的核心。文章建议美国可参照食品和药物管理局的标签指南或将能源之星认证 ( energy star rating) 系统引入人工智能。美国针对大模型标识制度形成了部分立法提案。2023 年 5 月,美国众议员伊维特·克拉克 (yvette clarke) 提出《真实的政治广告法案》,对竞选广告提出人工智能生成内容披露要求。6 月,美国众议员里奇·托雷斯 ( ritchie torres ) 提出《人工智能披露法案》,提议在任何人工智能生成的内容中添加披露声明。欧盟《人工智能法案》提出大模型披露(标识) 要求。即要求大模型类别的基础模型必须确保透明度,披露内容是由人工智能生成的。欧盟标识制度相较于中国标识制度,尚处于颗粒度较大的笼统要求阶段,对于义务的履行与落实尚未出台具体的实践标准。我国已经前瞻性地构建了较为落地的大模型标识规范。包括《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》《生成式服务内容标识方法》等,围绕文本、**音频、**四类生成内容给出了内容标识方法,对提示文字的位置、大小、所含信息等作出标准化要求。

企业层面,国内外企业纷纷积极响应标识义务。一是企业发布内容标识平台规则。知乎、抖音、小红书等平台根据《生成式人工智能服务管理暂行办法》规定,探索发布大模型内容标识的规则,例如抖音发布“特定内容需主动添加标识”的公告,鼓励创作者尊重事实发布客观真实信息,同时对于特定信息,应以“内容标识”的形式提供充分的说明。二是推进研发新的标识工具,例如,tiktok 于 2023年9 月推出了帮助创作者标记其 ai 生成内容的一款新工具,还将开始测试自动标记 ai 生成内容的方法。三是行业协同履行标识义务谷歌、微软、openai、亚马逊、meta、anthropic 等美国 ai巨头公司在白宫做出自愿承诺,同意在音频和**内容上使用水印来帮助识别人工智能生成的内容。四是为用户明确义务要求。知乎于 2023 年 4月发布《关于应用 aigc 能力进行辅助创作的社区公告》,要求创作者发布大模型生成的内容时需要主动使用“包含 ai辅助创作”的标签进行声明,否则将被限流。

美国存在行政监管、立法、司法三条重要的 ai 治理线条。在司法层面,美国法院判例在塑造美国 ai 治理规则方面发挥重要作用但当前除在知识产权领域外,尚未出现大模型相关直接司法诉讼。相比之下,**监管和国会立法则呈现显著加速治理态势。

行政监管方面,拜登**密切关注大模型风险,各部门监管动作频频。一是拜登**发布多项政策文件,奠定“重塑人工智能全球领导地位”总基调。2022 年 10 月,发布《人工智能权利法案蓝图》其中包含五项基本原则,分别为安全有效的系统、算法歧视保护、数据隐私、通知和解释、人工替代方案,反映了拜登**对私营公司和**机构鼓励采用人工智能技术的原则设想。2023 年 10 月,拜登签署《安全、稳定、可信的人工智能行政令》 (以下简称《行政令》).包括了人工智能安全和可信标准、推动创新和竞争、支持劳工、促进公平和公民权利、维护消费者等群体的权益、保护隐私、确保**负责有效使用人工智能、提升美国在海外的领导力等八个部分。二是白宫开展相关治理行动,并对全球输出相关实践理念。

欧盟在人工智能治理方面处于领先地位,力图保障本土数字主权与信息安全、提升人工智能规则制定国际话语权,影响全球数字治理规则。

针对 chatgpt 的滥用问题,《通用数据保护条例》成为欧盟正式通过《人工智能法案》之前的“监管利器”。2023 年 3 月 31 日,意大利个人数据保护局率先宣布暂停 chatgpt 在意大利境内提供服务成为首个禁用 chatgpt 的欧洲国家。监管机构列出四项违反《欧盟通用数据保护条例》的事由,包括训练数据缺乏合法性基础,提供虚假或错误的用户个人信息,存在数据泄露风险,缺乏用户年龄核查机制等。意大利此次监管行动引发了德国、爱尔兰等其他欧盟国的密切关注。德国、爱尔兰的数据保护机构与意大利个人数据保护局沟通,以了解其行动的依据。

报告共计:72页。

精选报告**:公枞号《人工智能学派》

vivo发布自研蓝心大模型及蓝河操作系统

vivo开发者大会 蓝心大模型与blueos同步亮相月日, vivo开发者大会在深圳举办,会议以 同心 同行 为主题,旨在与广大开发者和生态伙伴共同 时代变革的趋势和机遇,共同促进产业生态的繁荣。会议共设有个主会场及个分会场,吸引了众多行业内的关注。vivo高级副总裁 首席技术官施玉坚在会上发表了主...

vivo惊艳发布 蓝心大模型 蓝河操作系统震撼来袭!

on november ,,the vivo developer conference was held in shenzhen under the theme of together,achieve more.the conference included one main venue and n...

vivo发布自研蓝心大模型及蓝河操作系统 OriginOS 4同期亮相

vivo发布自研蓝心大模型 originos和蓝河操作系统 共筑产业生态繁荣vivo开发者大会在深圳成功举办,展示了自研蓝心大模型 originos和蓝河操作系统的最新成果。施玉坚,vivo高级副总裁和首席技术官,在主题演讲中强调了技术的重要性以及将技术带给用户的价值。作为手机行业的领导者,vivo...