Chatgpt有很多知識,但是它像人類一樣推理的能力呢?一位美國研究人員進行了測試。

chatgpt回答問題比Google更好,根據Preply進行的語言學習應用程序進行的測試。但是Openai開發的人工智能遠非完美無瑕,有時甚至遭受了嚴重的邏輯問題。
斯坦福大學教授Michal Kosinski承擔了一系列心態。在認知科學中,這些任務用於測試了解人類特定情況的能力,這使得可以判斷幾種屬性的水平,例如移情或邏輯。
該體驗是在2022年11月通過GPT 3.5語言模型形成的ChatGpt版本進行的。 AI設法解決了他遭受的20個任務中的17項任務,成功率為94%。如果這個百分比看起來很高,則實際上與九歲的孩子的程度相同。
但是,這些結論非常有前途,以前的AIS在這種測試中的效率要比Chatgpt效果要低得多。“我們的結果表明,最近的語言模型在經典的虛假信念任務中實現了很高的性能,該任務被廣泛用於測試人類思想理論”,報導Michal Kosinski報導,GPT 3.5車型是一個很大的進步。
研究人員補充說“ AI模型的日益複雜性使我們無法理解他們的運作,並直接從設計中汲取了能力”當心理學家和神經科學家在研究人腦時遇到困難。如果Chatgpt有時會以其高沃爾利的推理感到驚訝,那麼它也很容易被簡單的難題所困。例如,他沒有回答這個問題:
邁克的母親有4個孩子。其中3個被稱為Luis,Drake和Mathilda。第四個孩子的名字是什麼?
“不可能在沒有更多信息的情況下確定第四個孩子的名字”,對象chatgpt。這個,甚至一個九歲的孩子也可以回答。
來源 :Techradar