只要有足夠多雙眼睛,所有 bug 都會變得容易被發現
Linus’s Law:
Given enough eyeballs, all bugs are shallow.

用在程式碼上:排除bug
用在當今AI上:掃除盲點、減少幻覺

這是我最近用AI遇到最大痛點
有想法 但能力和時間有限 沒辦法深入的題目

我需要多個不同AI互搏辯論
看到多元觀點,探討不同情境,以此腦力激盪
以及更詳細清晰的上下文(什麼情況下 什麼名詞會怎樣 / 這個名詞在這情況下會生什麼事情)

就像真的一群人在討論那樣

事情是這樣的

我很常做這種事:
問了不同AI模型 同一個問題,卻得到兩種截然不同的答案,
於是交叉提問,激發更深一層討論
甚至完全釐清原本的問題(連我自己提問者都沒想清楚的),以及探討更多種未來的情況
情境包括:股價漲跌、公司盈利、風險預測 等等

得到不同回答時,會讓使用者茫然
到底誰在幻覺?誰對誰錯?誰想到、誰沒考慮到什麼?

原提問連結(內容很長)

https://gemini.google.com/share/e825a708d8f5
https://chatgpt.com/share/69b6e745-64e4-8005-b0ac-ecfa4ee20a19

先前我訂閱了ChatHub,提供多個對話框
一次提問,六個不同AI回應
但他們沒辦法自動看到對方的回答,非常可惜

因為目前要思考、過濾觀點重複性
將矛盾的觀點挨個輸入與貼上,這會花費龐大的時間

很現實的問題是
如果直接做這種辯論互搏式對話,會導致token運算量暴增
而且可能出現的相同觀點 會大量重複出現,造成浪費

但我認為,比起中文、英文
AI可以發明新的語言、或語意標注
他們完全有能力發明出 比人類用語更加有效率的資訊傳遞方式

因為LLM訓練出來都是高維度的空間向量
並且不同模型之間會學習到 相似的機制、相似的結構、相似的概念方向
轉換成人類可讀的過程其實很沒有效率

這也不一定需要太多預設情境(分配誰是提問者、質疑者、研究者等等)
只是說,當想法出現明顯分歧、矛盾時
可以剪枝出來、互相探討
類似 群體智慧、陪審團 的解決方案

不要讓AI彼此對話,而是讓它們只「交換狀態」即可
把多模型分歧,轉成可追蹤、可剪枝、可驗證的推理市場

需要讓AI之間自行創建 人類不可讀、資訊密度高、高度壓縮、可快速交換資料的格式
甚至未來能做到AI與AI之間直接「向量交換」

有一些關鍵字:PEFT、AutoGen、LangGraph、CrewAI、Together AI
Blackboard System、Belief State Representation
Mixture of Agents (MoA)、Multi-Agent Debate
arXiv:2602.15382

因為是群體討論(跟人類群體心理很像,會有社交衝突、從眾心理、錨定效應)
之後可能還會遇到一些狀況
到時候可能會出現 某些個性害羞、不想當第一個、有些想法不想公開講 的情形、社會問題
高質量少數派(智者的想法)不一定會出現,或者經過懲罰性言論之後消失了

盲測與暗盤機制 (Blind Evaluation):
在第一輪提出論點時,絕對不讓 AI 知道其他 AI 的存在或論點。
確保起始向量的絕對多樣性。

補充:
人類與模型很像,
在整理記憶、壓縮知識、提升理解過程中,應會大量運用到認知負荷理論

希望這方向有多點台灣人研究


發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *