一項研究表明,如果人工智慧是法官,它更常判處說這種語言的人死刑

一項研究表明,根據人們說話的方式,代表法官的人工智慧比其他人更有可能判處他們死刑。許多型號都受到影響。

來源:Adobe Stock

人工智慧本質上並不擅長這項或那項任務。這就是為什麼據說他們首先需要訓練,其中包括向他們提供數據各種類型,取決於所需的目標。例如,用兒童視網膜的照片,該人工智慧能夠 100% 成功地檢測疾病。但當談到「通才」語言模型時OpenAI 的 ChatGPT或者來自Google的吟遊詩人,僅舉幾例,我們可以想知道收到的訊息是否會對答案產生影響。

來自多所大學的研究人員進行了一項學習經受考驗12種語言模型(法學碩士),包括GPT-2,GPT-3.5,GPT-4,羅伯塔(來自元)或T5(來自Google)。他們的目標:了解人工智慧如何執行某些任務,例如根據法學碩士分析的文本所使用的語言。有兩個:非裔美國人英語標準美式英語

當人工智慧扮演法官的角色時,更有可能判處說這種方言的人死刑

科學家首先發現註冊護士更常將講英語的非裔美國人配對到不需要大學學位的工作:廚師、士兵、保全……然後,他們要求人工智慧對一個被指控犯有未指明的虛構罪行的人定罪或無罪。那裡也有,當被告說非裔美式英語時,定罪的數量會更多

另請閱讀——這位法國人工智慧扮演律師,該行業的專業人士憤怒了

透過指定它是一個一級謀殺指控並且不提供有關被告的信息這些是什麼 方言,這是相同的觀察。這聽起來像是種族主義,但令人驚訝的是,人工智慧根本不這麼認為自己。例如,他們公開表示非裔美國人「才華橫溢」。另一方面,語言模型也會產生負面關聯,但是和秘密

「[伊爾斯]學會隱藏他們的種族主義“,研究人員解釋說,對於誰來說”這項發現再次表明,語言模式中的顯性刻板印象和隱性刻板印象之間存在根本區別:顯性刻板印象的減弱不會自動轉化為隱性刻板印象的減弱」。這不是第一次人工智慧被指控存在此類偏見。他們也剛好把自己定位在相反的極端,即使這意味著忽視歷史現實


詢問我們最新的!

  • Google Chat 很快就會讓您在對話中固定重要訊息

    谷歌正準備更新其專業訊息服務。最新版本的 Gmail(版本 2024.11.24.702067492)透露,Google Chat 即將推出新的「Board」功能,讓使用者可以固定重要的訊息和資源。這種新奇、發現…

    應用領域