欧洲人工智能法规生效,并根据人工智能的风险程度对人工智能进行分类

欧洲人工智能法规《人工智能法案》已正式生效。为了规范人工智能的使用,它根据系统所代表的风险对系统进行分类。

学分:123RF

经过一个2023年底的历史性投票和一个欧洲议会的重大通过几个月后,《人工智能法案》自2024年8月1日起生效。提醒一下,本条例规定人工智能在欧盟的应用。到 2025 年 8 月 2 日,每个欧盟成员国将必须指定负责监督该部门并监督文本应用的机构。

另请阅读——Meta要推出“无任何限制的AI”,该组织向欧洲11国提出投诉阻止

欧盟委员会还将成立一个全球组织人工智能办公。它将得到其他 3 个实体的支持,其中包括一个由专家科学家组成的独立小组和一个咨询论坛将各种利益相关者聚集在一起。如有违规,违规公司可能会被罚款最高可达全球年营业额 7% 的罚款

在欧洲,人工智能根据其对公民造成的风险级别进行分类

为了更好地定义公司的义务,欧洲文本根据以下内容对所有人工智能系统进行了分类:4个风险级别

  • 风险最小:不受《人工智能法》规定的要求的约束,例如AI提供建议或用于垃圾邮件过滤器。大多数系统都属于这一类。
  • 特定的透明度风险: 这聊天机器人是其中的一部分,以及一些人工智能生成的内容,无论我们谈论的是图像、视频还是声音。对话机器人“必须清楚地向用户表明他们正在与机器交互“,而内容来自生成人工智能”必须如此标记”。它们还必须易于检测。
  • 高风险: 我们这里讨论的是AI用于招聘,在评估获得银行贷款的权利或到自主机器人的开发等。这些系统受许多非常严格的要求(活动记录、详细文档、人工控制、网络攻击防护等)。
  • 不可接受的风险: 完全禁止,这一类别包括人工智能系统“被视为对人民基本权利的明显威胁”。文中以一个玩具为例,其语音助手会鼓励未成年人采取危险行为,个人社会评价体系或者 ”一些预测警务应用程序”。也被禁止“工作场所使用的情绪识别系统以及某些用于对公众进行分类或实时远程生物特征识别的系统,用于公众可进入的空间中的执法目的(有少数例外)”。

《人工智能法案》的大部分内容将于 2026 年 8 月 2 日起适用。但“不可接受的风险”类别中的人工智能禁令将于 2025 年初生效。