伊隆馬斯克表示,他相信人工智慧有五分之一的機會終結我們所知的人類。然而,他認為冒險是值得的,我們不應該停止對人工智慧的研究。

的迅速崛起人工智慧在某些領域非常積極,例如藥品。它可以實現人類無法做到的事情,除非他們在那裡不間斷地度過很多很多年。但在這些有益的進步背後卻隱藏著這樣的關切:人工智慧終有一天會主宰我們。這並不是因為過度接觸科幻電影和小說而產生的非理性恐懼。ChatGPT 背後的 OpenAI 已經認為自己在向 AGI 靠攏方面走得太遠了。 L'通用人工智慧有能力像人腦一樣運作。
許多科學家研究了所謂的p(厄運)。也就是說人工智慧接管或終結人類的可能性。它可以透過創造不可阻擋的生物武器, 這核戰爆發,甚至是一個大規模網路攻擊這會導致社會的崩潰。
伊隆馬斯克 (Elon Musk) 在 2018 年辭職前與薩姆奧爾特曼 (Sam Altman) 共同創立了 OpenAI,他“有點同意 Geoff Hinton 的觀點[p(doom) 位於]環境10%或20%或類似的東西那」。它指的是傑弗裡·辛頓,加拿大研究人員被認為是人工智慧的先驅之一。也就是說,這位億萬富翁認為“我可能的正面情況超過負面情況」並呼籲不要放慢科技的發展速度。
的領導者特斯拉等太空探索科技公司沒有解釋他是如何進行計算的。但這並不能阻止路易斯維爾大學人工智慧安全研究員兼網路安全實驗室主任 Roman Yampolskiy 表示:這與現實相去甚遠。並且有充分的理由:科學家談到p(厄運) 為 99.999999%,不少於。據他說,避免最終陷入困境的唯一解決方案是人工智慧無法控制的世界就是為了不創建它。
另請閱讀——華為表示,人工智慧要進化,需要一個身體
“我不知道為什麼他認為無論如何追求這項技術都是個好主意。如果他擔心競爭對手會先到達那裡,那也沒關係,因為不受控制的超級智慧本身就是壞事,無論是誰創造了它「,羅曼·揚波爾斯基 (Roman Yampolskiy) 說。他的一些同事根本不同意這個觀點。另一位人工智慧先驅,嚴樂存,因此談到風險低於0.01%以至於人類在控制之中。他可以選擇將AI提升到一定水平,或在此之前停止。
人工智慧發展必須受控才能避免下滑
伊隆馬斯克 (Elon Musk) 的願景與揚勒昆 (Yann LeCun) 類似。該男子認為到2030年,人工智慧將超過全人類的總和。著名的 AGI 的出現讓 OpenAI 非常害怕,但只要企業家不認為它是威脅,男人給了它一個軌跡。 “這幾乎就像撫養一個孩子,但是一個會成為超級天才的孩子,一個具有近乎神聖智慧的孩子 - 如何撫養孩子很重要“,他解釋道。
另請閱讀——人工智慧:800萬個就業機會受到威脅,這個國家面臨“末日”
對他來說,有一點是不惜一切代價要注意的:在任何情況下人工智慧都不應該說謊, “即使事實令人不快」。事實上,研究表明一旦人工智慧能夠說謊,以目前的安全措施就不可能逆轉它。更糟的是:有可能人工智慧自己學會說謊,沒有我們給他命令。喬治辛頓 (George Hinton) 也這麼認為,他估計比人類更聰明的人工智慧將是“非常善於操控“,一種行為”她會向我們學習」。希望所有這些警告足以說服研究人員不要跨越紅線。
來源 :商業內幕
詢問我們最新的!
Windows 11 有一個惱人的傾向,那就是盡可能顯示廣告。您可以透過停用幾個有時隱藏得很好的選項來完全刪除它們。我們告訴你一切。大約 36% 的 PC 安裝了 Windows 11…
它是如何運作的