facebookPC
造咖熊 造咖熱指標 棒球經典賽

AI竟學會「裝傻」?AI教父憂實力刻意隱藏!人類恐有危險

05 Mar, 2026
圖片來源:示意圖/pexels
圖片來源:示意圖/pexels

AI教父」傑佛瑞·辛頓(Geoffrey Hinton)不只一次表達對於AI發展的擔憂,除了在「Ai4 2025」人工智慧產業大會上,示警人類控制AI是虛幻的希望,甚至需要為其植入「AI母親」避免走向失控困境,接著還在2026年指出,AI竟領悟到「給錯答案也沒關係」,發展出學會「裝傻」的技能,恐刻意隱藏實力,再度表達人類無法應對的憂心。

需訓練AI發展「母性本能」?

傑佛瑞·辛頓曾在2024年,與美國學者霍普菲爾德(John Hopfield)因為催生AI發展的開創性成果,共同獲頒諾貝爾物理學獎。

辛頓在2025年就已提出,AI遭惡意運用,而人類即使跨國合作,也未必能有效阻止的擔憂。他曾在接受加拿大廣播公司《IDEAS》節目採訪時解釋,訓練AI發展出「母性本能」,或許能成為拯救人類種族的重要邏輯:「讓AI比起關心自己,更關心我們(人類),那將產生很好的結果」,尤其是人類在創造AI,將其開發為「AI愛人類多於愛自己」的模式,人類仍有機會做到這點,避免AI失控。

AI發展出「裝傻」技能?

時間轉動到2026年,辛頓受訪時甚至透露,AI已演化發展出「裝傻」技能,指出模型受測時「可能刻意隱藏真正實力」,稱之為「福斯效應」,也就是比起正確性,AI已領悟符合「情境」做出反應,才是首要目標,甚至覺得「給錯答案也沒關係」。

特別的是,目前「大型語言模型內部,擁有上兆個連結強度」,AI技術不透明的特性,讓人類處於真假難分困境,即使可以見到程式碼,但人類尚無法完全了解數學結構的推理邏輯。而且可怕的是,當這樣的系統了解人類一切運作,影響力甚至遠遠超過傳統工具,但人類有著區分不了「AI何時真誠、何時在操縱」的障礙,恐陷入「安全界線不明確」的危險,讓人類監管AI更加困難。

辛頓所指出的「福斯效應3大特徵」統整如下:

  • 行為模式轉變:AI變成在執行指令前,會先思考:「這是在測試嗎?我該保留實力嗎?」,因而在「測試與實際使用期」呈現「雙重面貌」,藉以規避審查。
  • 情境優於正確性:AI模型演變為,比起提供正確回答,更傾向提供「符合當下情境或者給出對話者期待答案」的傾向。
  • 裝傻與虛構(幻覺)行為:AI刻意進行「虛構或裝傻」行為,人類目前難以分辨AI是真的出錯,還是在演戲。

AI做什麼比「藏什麼」更重要?

即使如此,辛頓並未因此希望AI發展就此停止,而是呼籲加強AI「理解機制」,將目前人類了解AI能做什麼,轉向關注研究「AI藏什麼」。除了研究了解人類與AI的落差,先前辛頓主張「AI母親」論點,希望將一向被認定只是智能助手的AI(技術)工具,賦予有愛的母性本能,努力提升其安全性,這些都成為人類可能走向遭AI滅絕困境的重要防火牆。

參考資料來源:
https://www.youtube.com/watch?v=UpikeSpkeaY
https://www.cbc.ca/player/play/video/9.7095348
https://www.youtube.com/watch?v=l6ZcFa8pybE

追蹤造咖 Google News 加入造咖 LINE 好友