解码 AI 时代的治理密码

发布时间:2025-09-09 20:39:12
来源: 《商业观察》
作者:靳星星
阅读量: 320

《商业观察》记者 靳星星

当今时代,AI 技术迅猛发展,宛如一场汹涌澎湃的浪潮, 以破竹之势席卷全球,深刻地改变着人类社会的每一个角 落。从清晨智能音箱精准推送的个性化新闻,到出行途中 导航软件依据实时路况规划的最优路线,AI 已如同空气般, 悄然融入人们日常生活的点滴;在工业领域,智能机器人 不知疲倦地完成复杂精密的组装任务,大幅提升生产效率 与产品质量。

然而,正如硬币具有两面性,AI 技术在蓬勃发展的同时, 也带来了一系列复杂且棘手的问题。这些问题犹如隐藏在 暗处的荆棘,若不加以有效治理,将严重阻碍 AI 的健康发 展,甚至对社会稳定、公众权益以及伦理道德底线造成冲击。 因此,如何解码 AI 时代的治理密码,构建与之相适配的治 理体系,已成为当下社会各界共同关注且亟待破解的关键 命题。

蓬勃发展与风险暗礁的博弈 

现在,人工智能不再是遥不可及的未来概念,对于众 多企业而言,借助人工智能加速决策流程、创新产品设计、 优化运营管理,已从可选项转变为必答题。相关数据为这 一观点提供了有力佐证,2024 年我国完成备案并上线的生 成式人工智能大模型数量逼近 200 个,注册用户规模超 6 亿人,工业机器人装机量更是占据全球半数以上,这一系 列数据直观呈现出我国 AI 产业蓬勃发展的态势。国家也在持续深入推进“人工智能 +”行动。开展新技 术、新产品、新场景的大规模应用示范活动, 在严守安全底线的前提下,加速人工智能在 低空经济、教育培训、医疗健康等多元场景 的落地应用,充分释放 AI 的巨大潜能。

然而,随着 AI 技术能力的日益强大,其 潜在的不可控、被滥用等风险也在同步攀升。 在社交平台上,AI“一本正经地胡说八道” 的现象屡见不鲜。即大模型在生成内容时,有 时会模糊事实与虚构的界限,在看似合理的 表述中掺入错误细节。这种 AI 胡编乱造的情 况,极有可能对公众产生误导,尤其是在医疗、 金融、法律等对信息真实性和准确性要求近 乎严苛的领域,一旦引发错误决策,后果不 堪设想。

AI 应用的蓬勃发展离

不开海量数据的支撑,然而,数 据安全与隐私保护问题成为公众关注的焦点。在实际应用 场景中,对于哪些数据必须收集、如何有效避免敏感信息 泄露等关键问题,仍缺乏清晰明确的制度规则。随着 AI 技 术的普及,企业对数据的依赖程度与日俱增,若不采取切 实有效的安全防护措施,数据泄露风险将如高悬之剑,随 时可能落下。

AI 技术的滥用误用亦是不容忽视的重大风险。相关 统计数据显示,2024 年全球发生的 AI 风险事件中,超过 30% 与利用 AI 进行深度伪造密切相关。深度伪造名人形象、 声音用于虚假宣传甚至诈骗的案例屡见报端,严重扰乱了 社会秩序。AI 深度伪造现象之所以屡禁不止,根源在于造 假成本低廉,而追查、执法成本高昂。

伦理安全应作为人工智能大模型发展的核心要素,如 同基因一般融入其发展进程。在追求技术进步的同时,如 何坚守道德底线,成为全社会必须共同面对的重要课题。

智能体具备强大的自我规划、自主学习以及试点探索 能力,但是,其行为路径往往难以精准掌控,这便为系统 运行带来了诸多未知风险。为有效规避此类风险,必须为 智能体的使用划定清晰红线,例如坚决禁止智能体进行自 我复制,以此作为降低安全风险的关键举措,确保人工智 能在安全可控的轨道上运行。

从技术融合的视角深入探讨人工智能的发展方向。符 号主义与连接主义的深度融合在实践中展现出了巨大的潜 力。当前人工智能的发展正不断从自然机制中汲取灵感, 尤其是人类大脑复杂而精妙的路由机制,正成为推动人工 智能实现科学突破的重要源泉。这种从自然科学中获取启 发的发展模式,有望助力人工智能在基础理论与实际应用 方面取得更为显著的进展。在安全与发展的关系上,通过 科学合理的手段提升人工智能大模型的安全性能,并不会 对其问题求解能力产生明显的负面影响。这一突破性研究 成果充分表明,在人工智能领域,安全与发展并非相互对立、 不可调和的矛盾体,而是能够通过科学的策略与方法实现 协同共进,为人工智能的可持续发展奠定理论基础。

人工智能治理呈现出高度的复杂性。为有效应对这一 复杂局面,产业界亟需构建一种动态灵活、敏捷高效的治 理模式,以实时适应不断变化的技术发展与应用场景需求, 确保人工智能产业在安全的环境中稳健发展。

AI 治理模式面面观 

AI 治理是一个全球性的复杂议题,需要世界各国达成 广泛共识,推动各领域之间的深度协作。目前,全球主要 经济体均在加快相关立法进程,为 AI 治理提供坚实的法律 保障。人工智能治理是一个庞大而复杂的系统工程,需要 多元机构的共同参与、协同发力,形成全方位、多层次的 治理格局。

当我们将目光聚焦于全球 AI 治理版图,会发现有两种 影响力深远的模式格外引人注目。一种是欧盟的“权利主 义”模式,它以“风险分级分类机制 + 政府强力规制”为 坚实基石,始终将“基本权利保护”奉为圭臬。欧盟模式的法理根源深植于以人为本的权利保护理 念。鉴于 AI 技术对社会可能产生的颠覆性 影响以及构建社会信任的迫切需求,欧盟 坚信 AI 产业稳健发展的根本前提,是打造 以人为本的技术体系,切实保障人的基本 权利与自由,让 AI 成为服务人类的得力工 具,最终目标是增进人类福祉。这种模式 的形成绝非偶然,与欧盟基于法治传统的 个人权利保护理念紧密相连。以数据领域 为例,欧盟从“人格尊严”等权利价值视 角出发定义个人数据,赋予数据主体自主 决定个人数据处理目的与方式的关键权利。

从经济层面剖析,欧盟模式的形成也 有其必然性。由于欧盟在 AI 产业领域缺乏 成体系的产业架构以及世界顶尖的超大型 AI 企业,在权 衡 AI 发展与安全的天平上,欧盟倾向于安全一端,选择将 权利保护深度融入 AI 立法之中。凭借其强大的价值观软实 力,欧盟充分发挥“布鲁塞尔效应”,对全球 AI 治理及立 法实践产生广泛影响。具体而言,欧盟设立超高的技术准 入门槛和高昂的合规成本,以此保护本土 AI 产业。同时, 依据严苛的 AI 法律,欧盟能够对违反合规义务的跨国企 业处以巨额罚款。在实现机制上,欧盟模式充分凸显政府 强力规制基础上的综合治理理念。在数据保护领域,欧盟 长期致力于构建“行业准则及标准 + 法律强制性规范”的 双重规范体系,以及“企业自我规制 + 政府强制规制”的 双重治理体系,力求全方位、多层次保障 AI 发展中的权利 安全。

另一种是美国模式。它的两大支柱为“市场主导”与“商 业自由”,极力倡导在市场主导配置下,AI 企业进行自我规 制,同时主张对政府的强制规制采取理性态度。在美国看来, 大力推动 AI 创新与产业发展,是反对政府过度干预的有 力经济依据;而对个人自由与企业自由的价值尊崇,则成 为限制政府通过立法和政策对 AI 产业进行强力规制的重要 理由。

与其他国家不同,我国在 AI 治理之路上,走出了一条 独具特色的发展轨迹。早期,我国 AI 治理工作主要围绕促 进型产业政策等“发展议题”展开,全力推动 AI 产业的蓬 勃发展。近年来,尤其是随着生成式 AI 的迅速崛起与广泛 应用,我国开始将目光同时聚焦于伦理审查、算法治理以 及数据隐私等“安全议题”,力求实现发展与安全的平衡。 与欧盟的“权利主义”模式和美国的“自由主义”模式不 同,我国 AI 治理呈现出鲜明的特色。在发展与安全的天平上,我国秉持在平衡二者关系的基础上,适度偏向“发展” 一方的理念。在资源配置机制上,我国既充分发挥市场机 制在 AI 领域的基础性配置作用,又强调政府适时适度的保 护性措施,以保障产业发展的稳定与健康。在实现规则方面, 我国倡导合作治理理论,强调在信任的基础上,推动政府、 市场与社会在 AI 领域的协同综合治理,凝聚各方力量,形 成强大合力。

AI 治理格局下的企业制胜策略

面对全球 AI 治理模式的复杂多元格局,中国 AI 企业 若想在其中站稳脚跟,充分把握 AI 带来的巨大经济与社会 红利,必须牢牢守住技术安全性与法律合规性的底线。基 于此,为中国 AI 企业提出以下应对策略。

第一,精准界定 AI 应用边界。在医疗、金融 等对准确性和安全性要求极高的敏感领域,AI 系 统一旦出现误判,极有可能引发严重后果。因此, 企业应审慎设定严格的使用边界,坚决杜绝技术 应用于未经充分验证的场景。同时,构建完善的 技术准入机制,对引入的外部 AI 工具和服务进行 严格筛查,确保其合规性,从源头上把控风险。

第二,构建全面 AI 治理体系。AI 治理绝非仅 关乎技术安全,还涉及企业管理层的决策机制与 执行能力等多个层面。企业需制定详尽周全的 AI 治理框架,全面涵盖数据处理、算法透明度、伦 理审查、监管应对等关键环节。并且,AI 治理并 非一劳永逸,而是一个动态发展的过程。企业应 建立定期评估机制,紧密跟踪法规环境的变化以及技术发展趋势,及时调整治理策略,确保 治理体系始终契合实际需求。

第三,筑牢数据安全防线。AI 系统每 日处理海量数据,其中不乏大量个人信息与 敏感数据。企业务必遵循“零信任”安全原 则,在系统内部,对任何用户或设备都不预 设信任,而是实施严格的身份验证、数据 加密、访问控制等多重安全措施,织密数 据安全防护网,坚决防范数据泄露与滥用 风险。

第四,优化 AI 架构,分散风险。AI 系 统若采用集中式架构,极易出现单点故障问 题,甚至可能引发系统性风险。企业应积极 将 AI 功能进行模块化、分散化设计,降低 因技术故障或遭受攻击而导致的整体损害。 同时,强化 AI 系统的冗余设计,提升系统的稳定性与容 错能力,确保在复杂多变的环境中,AI 系统能够持续稳定 运行。

第五,强化全流程数据合规。数据治理是 AI 治理的核 心组成部分。企业需在数据的采集、存储、使用、共享和 销毁等全生命周期的各个环节,建立起严格规范的合规管 理体系。例如,在数据采集环节,务必确保数据来源合法 合规,坚决避免将未经用户授权的数据用于 AI 模型训练, 切实保护用户的数据权益。

第六,提升组织内外 AI 素养。AI 企业应高度重视员 工培训工作,确保研发人员、管理者以及普通用户都能深 入理解 AI 技术的潜在风险与使用规范。对于数据科学团队, 要着重开展关于算法公平性和偏见检测的专业培训;对于普通用户,则需普及 AI 的基本操作知识以及隐私保护要求, 这样可以提升全员的 AI 素养与安全意识。

构建全球治理新范式 

在 AI 治理方面,专家们认为明确 AI 发展的红线和边 界至关重要。技术手段能够解决 AI 的可控性和可信度问题, 同时还需构建一套可量化的 AI 原则和参数体系,充分考量 不同地区、不同群体的需求与规则。经济合作与发展组织 (OECD)已在此方面做出积极尝试,提出可信的、以人为 中心的 AI 原则,并建立专门的观察组织持续跟踪评估。此 外,公共部门和私营部门应加强深度合作,在 AI 发展过程 中充分倾听用户需求,使人们在享受 AI 带来便利的同时, 自身能力也能不断得到提升,实现人与 AI 的协同发展。

从治理主体来看,AI 全球治理正从以往国家主导的单 一模式,向多元共治的全新格局转变。人工智能技术迅猛 发展,其影响力已渗透到社会各个层面,单一国家已难以 独立应对复杂的治理挑战。未来,人工智能治理的多极化 趋势将愈发明显,政府、企业以及研究机构代表应齐聚一堂, 共同探讨人工智能技术发展走向、探索治理有效路径、洞 察全球竞争格局演变。这种多元主体协同合作的模式,将 为 AI 全球治理注入源源不断的活力。

在治理机制方面,AI 全球治理正从过去依赖硬性约束, 向更为灵活的软性监管转变。具有法律约束力的规则逐步 出台,软法性质的准则和指南也如雨后春笋般不断涌现。 通过多边合作的桥梁,各国能够在数据保护、AI 伦理、算 法透明性等关键领域达成共识。

就治理模式而言,AI 全球治理正从“碎片化治理”的无序状态,迈向“一致性治理”的有序轨道。 新设立的治理模式致力于打造具有跨部门 协调能力的新型监管主体,全力推进监管 一致性。强化模式在保留现有监管架构的 基础上,通过增设跨部门咨询机构、设立 专职监管岗位等举措,构建起多层次、多 主体协同机制,显著提升跨域监管的协调 性、适应性和一致性。国际协调模式则将 目光投向跨国合作,通过构建全球性治理 框架,弥合各国在 AI 技术发展和应用中 的差异,保障 AI 全球治理协调统一,共 同发展。

在 AI 治理实践中,我国始终秉持统 筹发展和安全的理念,相关部门已陆续发 布多项 AI 治理指导文件。其中,国家发 布的《人工智能生成合成内容标识办法》聚焦于解决“哪 些是生成的”“谁生成的”“从哪里生成的”等关键问题, 致力于推动 AI 生成内容从生成到传播各环节的全流程安全 管理,为规范 AI 应用秩序奠定了基础。我国提出的“智能 社会”和“智能治理”理念,不仅关注技术创新带来的效 率提升,更强调技术应用的社会价值和可持续发展。我们 致力于让 AI 在促进经济繁荣、增进民生福祉、推动全球科 技合作等方面,发挥积极正向作用。一方面,通过加快政 策法规制定和加大技术研发投入,在 AI 全球治理中树立了 良好的示范榜样,引发国际社会对 AI 道德规范和监管机制 的深入思考与广泛讨论;另一方面,在全球范围内大力倡 导合作共赢理念,积极推动构建开放、公平、透明的 AI 全 球治理格局。例如,我国倡导的数据跨境流动与隐私保护 相结合的治理模式,因其科学性和可操作性,成为众多国 家和地区学习借鉴的典范。

在 AI 时代,要坚定不移地坚持应用与治理平衡、创 新与监管并重、全球化与本土化协同的原则,全力防止数 字鸿沟演变为智能鸿沟,让 AI 真正成为推动社会进步、惠 及全体民众的普惠力量,引领人类社会迈向更加美好的 未来。


(责任编辑:于昊阳)

商业观察网-《商业观察》杂志社官网版权与免责声明:

① 凡本网注明“来源:商业观察网或《商业观察》杂志”的所有作品,版权均属于商业观察网,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:商业观察网”。违反上述声明者,本网将追究其相关法律责任。

② 凡本网注明“来源:XXX(非商业观察网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

③ 如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。