一家航空公司的人工智能通过幻觉客户的反应而向客户提供了误导。在法庭上被起诉时,她认为聊天机器人本身就是一个实体,因此对其行为负责。丢失的。
2022 年,杰克·莫法特 (Jake Moffat) 必须购买加拿大航空的机票才能前往家庭成员的葬礼。正如在此类案件中经常建议的那样,该男子询问以了解获得死亡率的条件。他问他的问题人工智能采取a的形式聊天机器人在加拿大航空网站上。后者告诉他必须“在罚单签发之日起 90 天内”填写表格。然后,他将收到全价和特价之间的差额。
有了这些信息,莫法特支付了全价机票,并在返回后提出了要求。航空公司拒绝表明太晚了为此,旅程已经完成。它将客户引导至专门讨论死亡率问题的网站页面。当该男子展示他与人工智能对话的屏幕截图时,加拿大航空承认聊天机器人在其回复中使用了“误导性词语”,并承诺将对其进行更新。换句话说,人工智能幻化了获取死亡率的条件。
这家航空公司希望人工智能能对其幻觉负责
这种现象并不新鲜,甚至导致了2023 年两名律师被定罪。尽管如此,杰克·莫法特仍在起诉加拿大航空公司。至少可以说,后者有一个原始的辩护:它声称人工智能是一个独立于公司的“独立的法律实体”,因此对自己的行为负责。
法庭成员克里斯托弗·里弗斯(Christopher Rivers)驳回了这一论点。 “尽管聊天机器人具有交互式组件,但它只是加拿大航空网站的一部分。对于加拿大航空来说,显而易见的是,它对其网站上包含的所有信息负责。它们是来自静态页面还是聊天机器人并不重要”。
另请阅读——这些人工智能模拟战争并对《星球大战》和《黑客帝国》产生幻觉
当该公司指出其网站上提供有关死亡率的信息时,情况也是如此。 “莫法特先生没有理由知道加拿大航空网页的某个部分准确而另一个部分不准确,”他回答道。该公司是被勒令支付 650.8 美元,即全价票价格与死亡率之间的差额,加上费用总计 161.14 美元。
来源 :卫报