微軟的Copilot虛擬助理成為了AI幻覺現象的受害者。他將俄羅斯總統普丁的聲明呈現為真實的,但事實並非如此。

您可能已經經歷過一種情況,您確信自己所看到或讀過的東西實際上只是您想像的產物。儘管看起來很奇怪,但這是我們與人工智慧。現象AI幻覺指的是她離開時的那些時刻產生如同真實訊息的訊息,雖然他們是程序的純粹發明。
有時這很有趣,在一次非常嚴格的測試中開始引用《星際大戰》和《駭客任務》的人工智慧。在極少數情況下,後果可能是不幸的,可能需要採取法律行動以獲得賠償。在這裡,絕對可以加劇兩國之間本已緊張的關係。副駕駛,微軟絕對希望你使用的人工智慧,即使這意味著非常堅持,報道了所謂的俄羅斯總統普丁的聲明關於對手阿列克謝·納瓦尼的死亡。
Copilot AI 引用弗拉基米爾·普丁的虛假陳述並將其呈現為真實的
更具體地說,團隊舍伍德傳媒問AI普丁有何反應喬·拜登美國總統指責他對阿列克謝·納瓦尼之死負有責任。然後副駕駛根據問題的措辭提供不同的答案,並引用俄羅斯總統在新聞發布會上的言論。除此之外它從未發生過,並且那個男人從未說出他所說的話。更難發現AI給出了它所基於的來源(錯誤地),強化了她「說實話」的印象。
發言人微軟解釋說該公司已經在努力解決這個問題。 “我們已經審查了這份報告,並正在做出修改以提高我們回應的品質。隨著我們不斷改善體驗[來自副駕駛],我們鼓勵用戶在閱讀結果時做出最佳判斷,包括檢查源文檔和查閱網絡鏈接以了解更多信息」。