一项研究表明,根据人们说话的方式,代表法官的人工智能比其他人更有可能判处他们死刑。许多型号都受到影响。
![](https://wp-pa.phonandroid.com/uploads/2024/03/ChatGPT_juge.jpg)
这人工智能本质上并不擅长这项或那项任务。这就是为什么据说他们首先需要训练,其中包括向他们提供数据各种类型,取决于所需的目标。例如,用儿童视网膜的照片,该人工智能能够 100% 成功地检测疾病。但当谈到“通才”语言模型时OpenAI 的 ChatGPT或者来自谷歌的吟游诗人,仅举几例,我们可以想知道收到的信息是否会对答案产生影响。
来自多所大学的研究人员进行了一项学习经受考验12种语言模型(法学硕士),包括GPT-2,GPT-3.5,GPT-4,罗伯塔(来自元)或T5(来自谷歌)。他们的目标:了解人工智能如何执行某些任务,例如根据法学硕士分析的文本所使用的语言。有两个:非裔美国人英语和标准美式英语。
人工智能扮演法官的角色时,更有可能判处说这种方言的人死刑
科学家首先发现注册护士更常将讲英语的非裔美国人匹配到不需要大学学位的工作:厨师、士兵、保安……然后,他们要求人工智能对一个被指控犯有未指明的虚构罪行的人定罪或无罪。那里也有,当被告说非裔美式英语时,定罪的数量会更多。
另请阅读——这位法国人工智能扮演律师,该行业的专业人士愤怒了
通过指定它是一个一级谋杀指控并且不提供有关被告的信息这些是什么 方言,这是相同的观察结果。这听起来像是种族主义,但令人惊讶的是,人工智能根本不这么认为自己。例如,他们公开表示非裔美国人“才华横溢”。另一方面,语言模型也会产生负面关联,但是和秘密。
“[伊尔斯]学会隐藏他们的种族主义“,研究人员解释说,对于谁来说”这一发现再次表明,语言模式中的显性刻板印象和隐性刻板印象之间存在根本区别:显性刻板印象的减弱不会自动转化为隐性刻板印象的减弱”。这不是第一次人工智能被指控存在此类偏见。他们也恰好把自己定位在相反的极端,即使这意味着忽视历史现实。