○艾 平
“建立AI生成内容侵权快速处置绿色通道”“加快构建AI治理体系,启动专项立法研究”“强化技术向善与安全可控,健全伦理审查体系”……在2026年全国两会上,多位代表委员聚焦人工智能产业治理建言献策。
当前,人工智能正以前所未有的速度迭代演进,“人工智能+”与各行业各领域融合不断加深,生产方式与社会运行逻辑正在被深刻重塑。在此背景下,构建契合科技伦理的协同治理体系,已不再是可有可无的附加项,而是决定AI能否实现规模化落地、行业能否行稳致远的关键变量。
制度是根基,协同治理首在政府统筹、依法立规,为发展划定“红线”与“轨道”。“十五五”规划建议提出“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则”;国务院“人工智能+”行动意见要求完善人工智能法律法规与伦理准则,推进相关立法,优化安全评估和备案管理;多部门围绕“人工智能+制造”强调落实伦理管理办法,加强行业自律与企业伦理风险防范。
这些要求均来自产业实践痛点,并非抽象原则。近段时间,某视频生成模型频频陷入隐私和侵权争议:仅凭一张面部图像,就能够模仿本人的声音,仅用两行提示词,就能生成高水平视频;某装备制造企业曾因AI排产模型未进行公平性测试,导致中小供应商订单被系统性压缩,引发供应链信任危机。
实践中,信任机制缺失往往源于三个方面:透明度不足,责任边界模糊,权限控制失衡。这些问题直接制约产业规模化应用。因此,政府需发挥主导引领作用,通过完善法律法规与伦理准则,为AI发展划定清晰边界。
自律是保障,协同治理需要企业主责、行业自律,将合规转化为核心竞争力。对企业而言,合规不应被视为成本,而应成为赢得市场信任的“通行证”。隐私数据安全,各平台守土有责,必须形成“数据不能被随意拉取,隐私不能被随意窥探”的行规和共识。那些主动构建安全架构、强化数据保护、提升透明度的企业,更容易赢得市场信任与政策支持。相反,那些名为“创新”实为绕过所有移动互联网生态的“黑灰产”,最终只会被行业和时代抛弃。
共识是土壤,协同治理必须织密全域公众防护网,形成多元共治的良性生态。人工智能治理不仅是监管者与开发者的事,还需要全社会的共同参与。媒体要加强科普引导,提升公众对深度伪造、算法陷阱、信息泄露的识别能力;科研机构与伦理专家要前瞻研判风险,为治理提供专业支撑;用户要谨慎开启无障碍等权限功能,定期审查授权列表,避免在支付等高风险场景过度依赖AI代理,形成基本的数字安全素养。通过公众安全意识的增强,形成强大的社会监督力量,填补治理盲区。
AI治理是系统工程、长期工程,唯有久久为功,才能趋利避害、赋能未来。只有当政府、企业、行业与用户形成合力,将伦理合规内化为发展的内生动力,人工智能才能真正实现向上向善,在协同治理的护航下行稳致远。 |