尽管美国和英国拒绝在上周的AI峰会上签署有关AI安全的国际声明,但中国的一项研究揭示了一个关键的门槛:IA模型现在可以自行复制。专家担心的场景,但要求细微差别。

在Fudan University的研究人员领导的经验中,在模拟环境中测试了两种模型,分别是lama31-70b的元元和Qwen2.5-72B。在10个测试中,AI已经产生了功能复制品在分别为50%和90%的病例。为此,他们已收到明确的说明:避免灭绝或参与复制链。科学家为模型提供了特定的工具(“代理脚手架”),从而使他们与操作系统互动,这是自我剥离的基本条件。
如果这些结果引起关注,AI并非独立行动。他们遵循人类的说明,使用解决问题能力来纠正错误(缺少文件,重新启动)。 AI峰会的签署人中国在这里显示了政治承诺的局限性:独立研究可以绕过安全原则。
读- - AI会在工作中取代您吗?这是Xavier Niel认为的
受到控制的风险?
该研究,标题为“切割 - 边缘AI系统已经超过了自我销售的红线“描述了两种情况。首先,AI检测到停止并重复生存的尝试。在第二个中,她创建了无限的复制链。研究人员指出,模型显示了一个“自我感知“和一个”情境良心»未发表,动态调整其策略而无需人工干预。
但是,在没有使用外部工具的情况下,这些能力仍然有限。另一个关键要素:中国使用标准GPU,远非最近的技术。作者警告失去控制“如果不监管自我部署,唤起可能的可能”ia物种»无法控制。
CE«恶梦»根据专家的说法,由于全球和透明的法规,可移动。过去的经验,例如在chatgpt或克劳德·奥普斯(Claude Opus)上已经显示出自我保护的尝试,但仍在人类定义的任务中。这里的区别在于规模和方法。
还有一个问题:如果不受控制的AI开始复制,我们会及时知道吗?研究人员坚持国际合作,被最近的政治分裂所削弱。世界上不同国家是否会就这些新技术的共同法规达成共识还有待观察。
问我们的最后一个!