OpenAI (ChatGPT) 担心它的发现对人类来说过于危险

在过去几天 OpenAI 陷入的混乱之中,几位研究人员在给董事会的一封信中表达了他们的担忧。他们特别解释说,该公司开展的项目之一,Q*项目,已经达到了被认为对人类过于危险的发展阶段。这封信可能是萨姆·阿尔特曼被解雇的根源。

我们是否刚刚发现了促使董事会解雇 OpenAI 首席执行官萨姆·阿尔特曼 (Sam Altmann) 的原因,然后在本周早些时候重新雇用了他?一点事实的提醒。今年11月17日,ChatGPT背后的公司OpenAI宣布其老板离职。接下来发生的一系列冒险让科技界悬而未决。

500 名员工威胁辞职,微软承诺聘用他们,任命 Twitch 前老板为公司负责人,最后山姆·阿尔特曼 (Sam Altmann) 回归掌舵,我们不得不坚持下去。所以我们认为这个系列已经结束了。直到我们路透社的同事拿到了一份至关重要的文件。

关于同一主题——OpenAI 创建了一个工具来检测其 AI 生成的图像,但不足以让 Deepfakes 消失

本文档是 OpenAI 一组研究人员撰写的一封信。它面向董事会,讨论了Q*(发音为 Q 星)。最初,Q* 项目旨在让人工智能解决数学问题。据报道,到目前为止,该公司已经开发出一种能够解决专为儿童设计的问题的人工智能。

因此,我们可以认为,要获得真正令人印象深刻的结果,还有很长的路要走。但对于这封信的作者来说,这个里程碑已经被跨越了。必须说,解决数学问题需要人工智能比 ChatGPT 这样的聊天机器人更先进的能力,后者“简单地”分析提示以选择适当的响应。

因此,研究人员本来想就 Q* 项目的进展向 OpenAI 董事会发出警告。后者毫不犹豫地危言耸听。据他们称,该公司现在的发现代表了对人类构成真正的危险。为了充分理解研究人员担心的问题,我们必须首先了解通用人工智能是什么。

OpenAI 将更接近 AGI,但这是个坏消息

AGI,通用人工智能,或通用人工智能,在某些方面是终极的人工智能模型。这个想法是创建一个与人脑功能相似的人工智能,理论上可以让它执行完全相同的任务。如果我们已经担心人工智能在工作领域的突破,AGI 将彻底颠覆我们的经济模式,因为没有什么可以阻止公司使用他们而不是他们的人类员工。

目前尚不清楚这是否是这封信的作者所强调的内容,因为路透社无法访问该文件。另一方面,媒体能够询问两个不同的消息来源,他们确认确实发送了一封信,最重要的是,后者促使萨姆·阿尔特曼被解雇。 OpenAI老大并不回避开发在不久的将来将破坏就业市场的工具

然而,在被解职的前一天,后者重申了他在APEC峰会上的言论,宣称自己亲眼目睹了Q*项目所取得的惊人进展。这种偏离轨道将成为压垮当时由多名运动成员组成的董事会的最后一根稻草。有效的利他主义,谁主张限制人工智能的能力。如今,OpenAI 由重组后的董事会领导,Sam Altmann 重新掌舵。

来源 :路透社