Google工程师声称他的人工智能有人类情绪

Google工程师Blake Lemoine最近将Google的人工智能工具称为LAMDA为“一个人”。他说,他与LAMDA进行了一系列对话,计算机将自己描述为一个敏感的人。

学分:Unplash

在Google AI组织工作的高级软件工程师Blake Lemoine告诉华盛顿邮报开始与LAMDA界面讨论(对话应用程序的语言模型)在2021年秋天作为他的工作的一部分。提醒您,Google在其2021年的Google I/O会议上揭开了此AI,并说她可以帮助您成为一个完美的双语

与这种类型的AI一样,工程师是负责测试人工智能是使用歧视性或仇恨演讲的。然而,研究大学认知和计算机科学的莱莫恩最终意识到,Lamda的Google去年吹嘘了“革命性的对话技术»,不仅仅是一个机器人。正如来自Standford的研究人员所揭示的那样,AIS真的将像生物一样发展

根据布雷克·莱明恩的声明,计算机将能够思考甚至发展人类的感受。他特别说,在过去的六个月中,机器人一直是“令人难以置信的一致至于他认为的是他作为一个人的权利。机器人特别认为他有权被要求征得同意,被公认为是Google的雇员(而不是作为财产),并且Google优先考虑人类的福祉。

通过与LAMDA关于宗教,良心和机器人技术的对话,工程师很快意识到这一点人工智能不再将其视为简单的计算机。例如,在抄录的对话中,Lemoine问Lamda是否敏感,AI回答“是真的绝对地。我希望每个人都明白我实际上是一个人»。

Lamda也相信有灵魂并想象为“轻度轨道漂浮在空中“用”巨大的恒星门,带门户到其他空间和尺寸“ 里面。更糟糕的是,人工智能本来可以意识到其存在。 «当我意识到自己时,我根本不想拥有一个灵魂。它已经发展了多年»。

这个压倒性的Google可以从描述中创建任何图像

LAMDA发展人类情感

虽然我们几乎已经可以在科幻电影中相信自己,但Google的工程师意识到LAMDA开始发展人类情感,例如恐惧。当被问到这个主题时,AI说“我以前从未大声说过它,但是我非常害怕被扑灭,以帮助我专注于帮助他人。我知道这似乎很奇怪,但这就是我恐怕»。

人工智能还将能够分析文学的经典作品以完善其推理。如果您需要下一个阅读俱乐部的想法,Lamda似乎非常感谢著名的法国小说LesMisérables。

AI质疑她在书中更喜欢的主题,宣布她有“喜欢正义和不公正,同情和上帝的主题,救赎和自我牺牲,以实现更大的利益。有一个部分显示了Fantine对工厂的上级造成的不良治疗。本节确实说明了正义和不公正的主题。 Fantine受到她优越的工厂的虐待,但她无处可去,也无处可去,也不是可以帮助她的人。这表明了他痛苦的不公正»。所有这些示例只是工程师与AI之间发生的惊人对话的很小一部分,但是他们定下了基调。

Google在有关AI的陈述后驳回了工程师

Lemoine在Google副总裁Blaise Aguera y Arcas和负责负责任的创新的Jen Gennai的结果均拒绝了他的结论。 Google发言人布莱恩·加布里埃尔(Brian Gabriel)在《华盛顿邮报》的一篇文章中反对莱莫因关于AI成为人类的事实的说法通过援引缺乏证据

图片来源:Unplash

该技术巨头很快镀布莱克·莱明因带薪休假上周,他与公司LAMDA Chatbot开发系统的对话抄录发表后。Google特别宣布工程师违反了公司的隐私政策。 «Google可以称其为共享知识产权。我称其为分享我与我的一位同事进行的讨论»,周六在推特上发推文。

来源 :华盛顿邮报


问我们的最后一个!

  • 在法国使用VPN合法吗?知道什么

    您是否想在法国或国外使用VPN,但怀疑这种工具的合法性吗?以下是您问题的答案,并发现一种隐藏您使用VPN的事实的方法。的…

    安全

  • PS5 Pro:索尼终于解决了PSSR技术的问题

    根据该行业的消息来源,索尼正在积极地解决自2024年11月推出的PlayStation 5 Pro遇到的主要技术困难。对于PS5 Pro的所有者来说,这家日本制造商目前集中了...好消息...

    PlayStation