欧盟人工智能法规将于 2024 年 8 月生效
继欧盟委员会于 2021 年 4 月提出第一项提案后,欧洲议会通过了《欧盟人工智能条例》。 该文章 于 2024 年 7 月发表在《欧盟官方公报》上 ,现已以欧盟成员国的所有 24 种官方语言提供。 据官方统计,该法规将于 2024 年 8 月生效,其中大部分规定要到两年后才能适用。 但是,个别条款适用不同的截止日期。 该法规规定了在欧盟开发和/或使用人工智能系统的公司的义务。
欧盟人工智能监管时间表
欧盟人工智能法规将根据以下时间表制定和实施:
2021年4月: 欧盟委员会的第一项提案
2024年3月: 由议会通过
2024年7月: 在欧盟官方公报上正式发表
2024年8月: 《条例》生效
2025年年中: 在所有欧盟成员国全面实施
什么是《欧洲人工智能条例》?
《2024 年欧洲人工智能法案》是欧盟委员会的一项法规,旨在确保以“安全、透明、可追溯、非歧视和环保的方式”使用人工智能系统。 该法规旨在规范人工智能系统的“提供者”和“运营商”如何根据它们构成的风险适当处理人工智能系统。 从最广泛的意义上讲,人工智能系统“提供商”是指以自有品牌提供或开发人工智能系统的公司。 操作员是那些使用人工智能技术的人。 因此,任何公司都可以属于这个组。 人工智能系统的风险越高,监管要求就越严格。
欧盟《人工智能法案》的一些关键点
- 基于风险的分类: 《人工智能法案》将人工智能系统分为不同的风险级别,每个级别都有特定的监管要求来管理其潜在影响。
- 透明度: 高风险人工智能系统必须满足严格的透明度和记录保存要求,以确保问责制和可追溯性。
- 人工监督: 某些人工智能系统必须由人类监督,以降低风险并遵守道德标准。
《欧盟人工智能法案》中的风险级别
《人工智能法案》为人工智能系统定义了四个风险级别,每个级别都与特定的监管要求相关联:
资料来源: 欧盟委员会关于《人工智能法案》的官方出版物
不可接受的风险
低于此风险水平的人工智能系统构成明显的威胁,并受到严格禁止。 例子包括通过认知技术操纵行为,例如诱使儿童从事危险行为的语音控制玩具,或根据行为或个人特征对人们进行分类的社会评估系统。
高风险人工智能系统
这类人工智能系统可能会对健康、安全或基本权利产生重大影响。 例如,人工智能在关键基础设施管理、教育、工作领域和执法中的应用。 所有高风险的人工智能系统在投放市场之前和整个生命周期都必须经过严格的审查。 个人有权向国家主管部门报告对人工智能系统的担忧。
风险有限
这些人工智能系统的风险较低,并受透明度要求的约束。 例如,与聊天机器人交互的用户必须被告知他们正在与 AI 交谈。 提供商还必须确保人工智能生成的内容,尤其是涉及公共利益的话题,被明确标记为人工生成的内容,无论是文本、音频还是视频。
风险最小或无风险
风险最小或没有风险的人工智能系统不受额外监管要求的约束。 示例包括 AI 驱动的视频游戏和垃圾邮件过滤器。
合规和人工智能:公司应该做什么
正如欧洲理事会在 5 月份的一份新闻稿中解释的那样,在某些提供公共服务的公司部署高风险人工智能系统之前,评估对基本权利的影响非常重要。
对于人工智能系统的提供商,他们应该考虑几点:
- 通过确定人工智能系统的风险类别并实施必要的保护措施来进行风险评估。
- 准备技术文件以证明合规性,并将其提交给当局进行审查。
- 开发AI系统,自动记录事件,检测风险和系统变化。
- 为操作员创建指南,以确保满足要求。
尽管运营商没有与提供商相同的义务,但《人工智能法案》要求他们遵守使用准则,确保组织和技术合规性,并在部署高风险人工智能系统之前进行数据保护影响评估。
不遵守欧盟的《人工智能法案 》可能会导致罚款,罚款从 3500 万欧元(占全球营业额的 7%)到 750 万欧元(占营业额的 1.5%)不等,具体取决于违规行为的严重程度和公司的规模。
欧洲的 2030 年数字目标和欧洲数据战略旨在促进公平竞争和提高在线服务的透明度。 对于组织来说,这意味着要确保他们的流程支持这些隐私值。 最近通过的法律,包括《 数字服务法》 和《 数字市场法》,强调了公平竞争和透明度的重要性。 通过在早期阶段处理内部流程并对其进行审查,人工智能系统的提供者和用户都可以避免罚款并增加消费者信心。 单击此处并开始使用,立即改进您的合规流程。