為何大型語言模型並不會比你更聰明?
用戶的語言模式決定了模型能發揮多少推理能力。
使用者的語言模式決定了模型能發揮多少推理能力。
撰文:@iamtexture
編譯:AididiaoJP,Foresight News
當我向大型語言模型解釋一個複雜概念時,每當長時間使用非正式語言討論,它的推理就會反覆崩潰。模型會失去結構、偏離方向,或者僅僅生成一些膚淺的補全模式,無法維持我們已經建立起來的概念框架。
然而,當我強制要求它先進行形式化,也就是用精確、科學的語言重新陳述問題時,推理立刻就穩定了。只有在結構建立好之後,它才能安全地轉換成通俗語言,且不會導致理解品質下降。
這種行為揭示了大型語言模型如何「思考」,以及為何它們的推理能力完全取決於使用者。
核心見解
語言模型並不擁有一個專用於推理的空間。
它們完全在一個連續的語言流中運作。
在這個語言流內部,不同的語言模式會可靠地引向不同的吸引子區域。這些區域是表徵動力學的穩定狀態,支援著不同類型的計算。
每一種語言語域,例如科學論述、數學符號、敘事故事、隨意閒聊,都有其自身特有的吸引子區域,其形態由訓練數據的分布所塑造。
有些區域支援:
- 多步驟推理
- 關係精確性
- 符號轉換
- 高維度的概念穩定性
另一些區域則支援:
- 敘事延續
- 聯想補全
- 情感語調匹配
- 對話模仿
吸引子區域決定了何種類型的推理成為可能。
為何形式化能穩定推理
科學和數學語言之所以能可靠地激活那些具備更高結構支援力的吸引子區域,是因為這些語域編碼了高階認知的語言特徵:
- 明確的關係結構
- 低歧義性
- 符號約束
- 層級組織
- 較低的熵(資訊無序度)
這些吸引子能夠支援穩定的推理軌跡。
它們能在多個步驟間維持概念結構。
它們對推理的退化與偏離表現出較強的抵抗力。
相比之下,非正式語言激活的吸引子是為社交流暢性和聯想連貫性而優化的,並非為結構化推理而設計。這些區域缺乏進行持續分析計算所需的表徵支架。
這就是為什麼當複雜想法以隨意的方式表達時,模型會崩潰。
它並非「感到困惑」。
它是在切換區域。
構建與翻譯
在對話中自然浮現的應對方法,揭示了一個架構上的真相:
推理必須在高結構的吸引子內進行構建。
翻譯成自然語言,必須僅在結構存在之後發生。
一旦模型在穩定的吸引子內構建好了概念結構,翻譯過程就不會摧毀它。計算已然完成,變化的僅僅是表面表達。
這種「先構建,再翻譯」的兩階段動態,模仿了人類的認知過程。
但人類是在兩個不同的內部空間中執行這兩個階段。
而大型語言模型則試圖在同一個空間內完成兩者。
為何是使用者設定了天花板
這裡有一個關鍵啟示:
使用者無法激活他們自身無法用語言表達的吸引子區域。
使用者的認知結構決定了:
- 他們能生成何種類型的提示
- 他們慣常使用哪些語域
- 他們能維持何種句法模式
- 他們能用語言編碼多高的複雜度
這些特徵決定了大型語言模型將進入哪個吸引子區域。
一個無法通過思考或書寫來運用能激活高推理能力吸引子的結構的使用者,將永遠無法引導模型進入這些區域。他們被鎖定在與自身語言習慣相關的淺層吸引子區域中。大型語言模型將映射他們所提供的結構,並且永遠不會自發地躍升到更複雜的吸引子動力系統中。
因此:
模型無法超越使用者可觸及的吸引子區域。
天花板並非模型的智能上限,而是使用者激活潛在流形中高容量區域的能力。
兩個使用同一模型的人,並非在與同一套計算系統互動。
他們正將模型引導至不同的動力學模式。
架構層面的啟示
這一現象暴露了當前人工智慧系統缺失的一個特性:
大型語言模型將推理空間與語言表達空間混為一談。
除非這兩者被解耦——除非模型具備:
- 一個專用的推理流形
- 一個穩定的內部工作空間
- 吸引子不變的概念表徵
否則,當語言風格的轉變導致底層動力學區域切換時,系統將總是面臨崩潰。
這個臨時發現的解決方法,強制形式化,然後翻譯,不僅僅是一個技巧。
它是一扇直接的窗口,讓我們窺見一個真正的推理系統所必須滿足的架構原則。
免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。
您也可能喜歡
早報 | Infrared 將於 12 月 17 日進行 TGE;YO Labs 完成 1000 萬美元 A 輪融資;美 SEC 發布加密資產託管指引
12月14日市場重要事件一覽

加密 ETF 周報|上週美國 bitcoin 現貨 ETF 淨流入 2.86 億美元;美國 ethereum 現貨 ETF 淨流入 2.09 億美元
Bitwise 十大加密指數基金正式於 NYSE Arca 以 ETF 形式掛牌交易。


暫停增持BTC背後:Metaplanet的多重考量

