埃隆·马斯克表示,他相信人工智能有五分之一的机会终结我们所知的人类。然而,他认为冒险是值得的,我们不应该停止对人工智能的研究。
的迅速崛起人工智能在某些领域非常积极,例如药品。它可以实现人类无法做到的事情,除非他们在那里不间断地度过很多很多年。但在这些有益的进步背后却隐藏着这样的担忧:人工智能终有一天会主宰我们。这并不是因为过多地接触科幻电影和小说而产生的非理性恐惧。ChatGPT 背后的 OpenAI 已经认为自己在向 AGI 靠拢方面走得太远了。 L'通用人工智能有能力像人脑一样运作。
许多科学家研究了所谓的p(厄运)。也就是说人工智能接管或终结人类的可能性。它可以通过创造不可阻挡的生物武器, 这核战争爆发,甚至是一个大规模网络攻击这会导致社会的崩溃。
埃隆·马斯克 (Elon Musk) 在 2018 年辞职前与萨姆·奥尔特曼 (Sam Altman) 共同创立了 OpenAI,他“有点同意 Geoff Hinton 的观点[p(doom) 位于]环境10%或20%或者类似的东西那”。它指的是杰弗里·辛顿,加拿大研究人员被认为是人工智能的先驱之一。也就是说,这位亿万富翁认为“我可能的积极情况超过消极情况”并呼吁不要放慢技术的发展速度。
的领导者特斯拉等太空探索技术公司没有解释他是如何进行计算的。但这并不能阻止路易斯维尔大学人工智能安全研究员兼网络安全实验室主任 Roman Yampolskiy 表示:这与现实相去甚远。并且有充分的理由:科学家谈到p(厄运) 为 99.999999%,不少于。据他说,避免最终陷入困境的唯一解决方案是人工智能无法控制的世界就是为了不创建它。
另请阅读——华为表示,人工智能要进化,需要一个身体
“我不知道为什么他认为无论如何追求这项技术都是个好主意。如果他担心竞争对手会先到达那里,那也没关系,因为不受控制的超级智能本身就是坏事,无论是谁创造了它“,罗曼·扬波尔斯基 (Roman Yampolskiy) 说道。他的一些同事根本不同意这个观点。另一位人工智能先驱,严乐存,因此谈到风险低于0.01%以至于人类处于控制之中。他可以选择将AI提升到一定水平,或者在此之前停止。
人工智能发展必须受控才能避免下滑
埃隆·马斯克 (Elon Musk) 的愿景与扬·勒昆 (Yann LeCun) 类似。该男子认为到2030年,人工智能将超过全人类的总和。著名的 AGI 的出现让 OpenAI 非常害怕,但只要企业家不认为它是威胁,男人给了它一个轨迹。 “这几乎就像抚养一个孩子,但是一个会成为超级天才的孩子,一个具有近乎神圣智慧的孩子 - 如何抚养孩子很重要“,他解释道。
另请阅读——人工智能:800万个就业岗位受到威胁,这个国家面临“末日”
对他来说,有一点是不惜一切代价要注意的:在任何情况下人工智能都不应该说谎, “即使事实令人不快”。事实上,研究表明一旦人工智能能够撒谎,以目前的安全措施就不可能逆转它。更糟糕的是:有可能人工智能自己学会说谎,没有我们给他命令。乔治·辛顿 (George Hinton) 也这么认为,他估计比人类更聪明的人工智能将是“非常善于操控“,一种行为”她会向我们学习”。希望所有这些警告足以说服研究人员不要跨越红线。
来源 :商业内幕
询问我们最新的!
Windows 11 有一个恼人的倾向,那就是尽可能显示广告。您可以通过停用几个有时隐藏得很好的选项来完全删除它们。我们告诉你一切。大约 36% 的 PC 安装了 Windows 11……
它是如何运作的
PS5 Pro 是 2020 年发布的 PS5 的改进版本。它为玩家带来了更强大的性能,拥有膨胀的 GPU、改进的光线追踪,但最重要的是 PSSR 的出现。显着的发展,但它们与……相关吗?
测试
联网手表的用途越来越广泛。它们充当运动追踪器,允许您分析各种健康数据并支持您的日常风格。以下是我们精选的 2024 年最佳联网手表。我们精选的最佳手表……
购买指南