2025年1月13日,美国国际战略研究中心( CSIS)发布报告《利用人工智能开发 生命周期作为人工智能监管的组织原则》,报告建议以 人工智能开发生命周期作为人工智能监管的组织原则。启元洞见分享文章主要内容,以期为读者提供参考。
尽管美国涌现出许多关于人工智能监管的讨论,也出台了相关法案,但监管人工智能风险的综合方法仍然遥遥无期。加利福尼亚州州长加文·纽森(Gavin Newsom)决定否决SB1047法案,即《前沿人工智能系统的安全可靠创新法案》(Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act),为当前关于人工智能监管的激烈辩论画上了最新的一笔,但这并未减轻现有的监管压力。现在有一种常见的模式:一项法规被提出后,很快就会出现关于该提案有效性的反复评论和争论,然后观点趋于强硬,到目前为止,该提案未能成为法律。与其争先恐后地对每项新提案做出支持或反对的反应,不如建立一个客观的讨论框架。而评估人工智能法规的最直接、最有影响力的原则就是利用人工智能的开发生命周期。
如果没有一个用于比较的结构,人工智能监管提案的宣布就有可能成为主要的政治话题,不利于对真正的人工智能风险进行有效管理。在提出监管建议的过程中,也很少考虑到各种规则如何在不相互矛盾或重叠的情况下共同发挥作用。需要一种更有条理的方法来评估、比较和设计监管人工智能的提案,并使人工智能治理的巨大差异具有一定程度的一致性。这一点尤为重要,因为人工智能包含多种技术,可实现多种技术,可嵌入多种现有产品和工作流程,并可用于创造多种新产品和工作流程。
人工智能开发生命周期可视为整个端到端流程,通过该流程收集数据、设计技术和模型以从数据中发现模式、利用这些生成的模型创建内容或其他输出。
然后,这些内容或输出以某种方式传播,供特定的目标受众使用。这一生命周期的不同阶段涉及不同的参与者。每个阶段的产出也侧重于不同的目标,生命周期后期的产出越来越多地针对较窄的目标和用例;例如,“通用”人工智能在应用于特定行业之前,处于生命周期的初期阶段。因此,使用人工智能开发生命周期来评估、比较和设计法规的价值在于,有一个系统的结构来区分谁将对补救措施负责,以及谁将受到最大的影响。更重要的是,鉴于人工智能驱动的技术、流程、产品和工艺将对广泛的行业和活动产生影响,单靠一部法律来规范人工智能的创造和使用是不太可能的。取而代之的是一系列相互影响的法律。使用人工智能开发生命周期有助于组织和统一未来法规的合作方式。
人工智能发展生命周期可大致分为以下几个阶段:
开发和设计人工智能模型和技术
开发和设计人工智能模型与技术的阶段是人工智能开发生命周期的起点。这一阶段旨在创造新模型和新技术,并开展“通用”和“基础”人工智能模型的前沿研究。参与者包括研究人员(如学术界人士)和专注于人工智能的公司,这些公司致力于探索和试验人工智能技术,例如大语言模型、神经网络和强化学习。这些参与者的动力主要源于其工作的创新潜力,即挑战当前技术可行性的极限。虽然在这一阶段可以初步评估风险,但许多重要的后续应用,无论是正面的还是负面的,都无法被完全预见。
利用人工智能模型和技术进行应用和内容创建
在这一阶段,通用人工智能技术被应用于特定领域,这些应用通常较为狭窄,可以是特定行业的,甚至是特定组织的。这里的参与者是那些利用人工智能模型来解决实际问题或创造特定流程或产品的组织,为此往往需要对业务模式进行重大转变。例如,旅行社可以使用基于生成式人工智能(GenAI)的聊天机器人,向曾经乘坐过加勒比海游轮的客户重点介绍新的海滩度假套餐;体育场馆可以寻求在入口处使用面部识别技术;制药公司可以利用人工智能寻找新的生化组合方法。在这一阶段,人工智能的使用方式和风险都呈现多样化。相关行业或组织的专业知识对于理解人工智能应用的影响非常有价值,而这些影响是总体法规无法有效涵盖的。因此,有人将人工智能比作电力。简而言之,限制某些人工智能应用是规范这一阶段的最直接方法。
人工智能成果的流通与使用
这一阶段涉及人工智能成果的传播,既包括组织内部的决策应用,也涉及第三方行为者(如社交媒体平台)对人工智能生成内容的传播。因此,参与者不仅包括使用人工智能创造内容的组织和个人,也包括那些分发这些内容或在无人类干预下直接使用这些内容的组织和个人,以及在其平台上传播此类内容的平台所有者。以深度伪造为例,在这一阶段,争议不仅在于内容的创建,还在于其传播和共享的监管,尤其是在不同司法管辖区之间的监管差异上。
特定受众对人工智能生成内容的消费
最后一个阶段涉及受众、最终用户、消费者和个人,其核心在于受众如何消费人工智能生成的内容。这一阶段的主要参与者是社会中的个人和群体,他们在知情或不知情的情况下观看和使用人工智能生成的内容。尽管这一阶段在当前的辩论中尚未受到足够关注,但教育受众如何识别与人工智能互动时的风险将是至关重要的。教育在这方面将发挥关键作用,帮助受众理解和评估人工智能生成的内容。关注这一阶段还意味着要思考,当个人感到受到人工智能的伤害时,他们应获得哪些法律保护和救济手段。
监管人工智能的建议可以覆盖其开发生命周期的多个阶段。然而,各阶段的参与者往往会试图将自己的角色延伸至其他阶段。尽管如此,从这一角度审视人工智能监管,能够更具体地确定适当的行动,为那些关于人工智能真正风险产生的激烈辩论提供客观视角,并明确责任主体。
举例来说,透明度常被视作一项可执行的重要原则,但关键在于执行的细节。而考虑人工智能的发展阶段有助于解决这一问题。具体而言,流通阶段的透明度旨在让用户清楚了解人工智能生成结果的要素,而开发阶段的透明度则侧重于评估训练数据集的质量。未来的规则应根据目标和风险,明确不同阶段透明度的具体要求。
此外,关于人工智能风险的辩论似乎压倒了所有其他辩论:政府是应该专注于解决前沿模型带来的长期“生存性”风险,还是应该专注于解决现实世界中现有的危害(如偏见)。利用开发生命周期结构,这场辩论可以从“哪个风险更大”的争论,转向对跨行为体和跨阶段的多层次方法的讨论,以应对未来的威胁和现有的危害。事实上,应对人工智能的风险往往需要采取缓解策略,对开发生命周期各个阶段的行为者提出要求。
人工智能监管的压力已持续一段时间。然而,如果缺乏一个结构来管理人工智能产生和使用过程中的利弊,那么推动治理可能是杞人忧天。要有效管理人工智能的各个方面,需要多套相互配合的法律、规则和规范,以充分考虑人工智能的风险、机遇、危害和目标的多样性和复杂性。当前的共识是,人工智能作为一种技术将继续发展。因此,如人工智能发展生命周期这样的结构可以更客观地确定如何评估新规则和新用途。