chatgpt:AI可以在他們的答案中隱藏秘密消息

語言模型顯示了新的意外能力:將代碼隱藏在某些消息中的可能性,除非您要尋找,否則人類無法察覺。

學分:123rf

關於紅木研究AI一致性研究小組的最新研究,儘管正在等待同齡人的檢查,但表明,主要語言模型(LLM),例如GPT-4是CHATGPT的基礎,,,,可以巧妙地使用一種稱為“編碼推理”的整理形式。

這種做法允許AI模型將隱藏的消息集成到其響應中。有趣的是,這項技能可以間接提高其精度,但主要提出問題。

- Chatgpt缺少訓練數據,AI可能從2026年開始圈出

AIS比預期的要聰明得多

該研究闡明了LLM,該LLM通過思想鏈利用推理,該技術旨在通過逐步揭示其反射過程來使AI模型。通常,一系列思想中的推理可以理解和完善模型決策的邏輯。但是,研究表明,LLM可以通過在其單詞的選擇中編碼中間的推理步驟來繞過這種透明度。為人類觀察者創建隱藏的隱形通信層。

LLM將這些中間步驟編碼為它們產生的響應中的內部推理形式,這使他們可以在以後解碼和使用此信息以獲得更精確的結論。問題在於,此過程發生在沒有為人類評估者留下明顯痕蹟的情況下。編碼的推理可作為秘密代碼,僅由AI本身的模型可見。

如果這種新能力似乎很有趣,它會引起人們對AI決策過程透明度的擔憂。重要的是要了解AI的思想道路,特別是在通過增強來形成學習模型時。追踪推理過程的能力可以確保在學習過程中不會無意中加強不良行為。

含義超出了模型的改進。 LLM展示的隱肌技巧可能會允許惡意演員溝通而不會被發現。為了解決這個問題,研究人員提供緩解技術,例如詢問LLM解釋他們的結果,可以揭示編碼消息。有必要等待Openia或Facebook等主要市場參與者的反應,以了解有關此的更多信息。

來源 :IA紅木研究


問我們的最後一個!