简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

为什么生成性人工智能治理正在成为资产负债表问题

2026-02-03 23:12

生成性人工智能的采用速度快于大多数组织的治理能力,而这一差距正在转化为商业风险。麦肯锡报告称,88%的组织现在至少在一项业务职能中使用人工智能,但许多组织在负责任地扩展人工智能方面仍处于早期阶段。

信任已经在收紧限制。爱德曼的新数据显示,五年来,全球对人工智能公司的信任度从61%下降到53%,这表明声誉冲击可能会在事件发生后迅速加剧。市场的信心也参差不齐。例如,中国72%的受访者表示他们信任人工智能,而美国这一比例为32%,这在不同地区造成了截然不同的采用、审查和监管压力。

监管正在迎头赶上。欧洲议会指出,欧盟人工智能法案的部分内容已经开始适用,进一步的义务将在规定的时间表内陆续生效,包括透明度要求和高风险系统的后期合规性。对于领导人来说,这不再只是一场道德辩论。这是治理、弹性和资产负债表风险敞口。

在接受冠军演讲者机构的独家采访中,高级网络安全和复原力领导者莎拉·阿姆斯特朗-史密斯阐述了对生成性人工智能的有意义的监督需要什么,以及如何大规模重建信任。

有意义的监督需要超越自愿原则和行为准则,转向可执行的标准、独立审计和透明的报告。监管机构需要了解培训数据源、安全测试、事件响应流程和模型治理结构。如果没有这一点,监督就会变得象征性而不是实质性的。

还应该强制进行红色团队、风险评估和部署后监控,特别是对于嵌入社交平台或大规模使用的模型。这些控制必须是连续的,而不是一次性的练习。

可以说,考虑到数据量和日常交易,社交媒体平台可以领导安全标准,而不是无视它们。

第一个教训是诚信。人工智能系统,无论多么先进,都没有被完全理解和不可预测,公众希望公司承认这一点。不受限制地坚持问责制和透明度对于重建信任至关重要。

第二个教训是,安全必须是设计的,而不是固定的。当压力开始增加时,仅靠反应性修复是不够的;负责任且可靠的人工智能需要在部署之前预见到滥用、对抗行为和社会影响。格罗克的经历在更大的范围内强化了这一点。

最后,领导人必须认识到信任是累积的。每一个事件以及公司选择的应对方式都会影响公众对整个行业的看法。优先考虑负责任的创新并从一开始就做正确事情的公司将是保持信誉的公司。

将部署视为安全和保障的当务之急,而不是产品决策。大多数事件和失败发生在发布之后,而不是开发期间。公司应该进行对抗性的红色团队合作,在现实环境中进行压力测试模型,应用严格的内容过滤器和监控,并建立终止开关和回滚计划。

通过设计最大限度地减少数据暴露。使用数据最小化,为您存储或用于培训的内容设定明确的边界,实施分层访问控制,并采用隐私保护架构。

负责任且可靠的人工智能不是一种治理;随着模型的功能能力不断构建和增长,它需要持续监督。这意味着定期审计、监测漂移、事件报告机制、董事会层面明确的问责制,以主动和公开地解决失败问题。

最简单的参考点是假设上传的任何内容都可以被复制、更改或推断。即使平台声称不训练您的数据,图像仍然可以被屏幕截图、抓取、用于模仿或用于推断位置、习惯或关系。

在当今的数字环境中,告诉个人限制公开发布、删除元数据、避免可识别背景并积极使用平台隐私设置听起来违反直觉。小的变化可以显着减少暴露,但它会让个人承担责任,并限制他们享受和使用社交和人工智能平台的能力。

重要的是,了解您在使用不同平台时的权利。例如,根据许多数据保护法,您可以请求删除、质疑自动化处理并反对将您的数据用于培训

这就是为什么服务提供商帮助弥合与实施和执行安全和安保协议的差距如此重要。这还可以包括水印、对抗过滤器、反向图像监控和身份保护服务等保护技术。

莎拉·阿姆斯特朗-史密斯的这部独家专题由人工智能扬声器机构的塔比什·阿里(Tabish Ali)准备。

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。