Multi-agent 協作的下一步:跨體系混合才能克服技術偏見
CCD 和 Scion 在架構上幾乎一樣,但 Scion 已經做到不同 LLM 體系混合跑。這不只是功能差異——不同模型有不同的訓練偏見,混合才能互相糾偏。
CCD 和 Scion 在架構上幾乎一樣,但 Scion 已經做到不同 LLM 體系混合跑。這不只是功能差異——不同模型有不同的訓練偏見,混合才能互相糾偏。
學術論文說 multi-agent 在平行任務上提升 80%,在序列任務上反而掉 70%。我們用 CCD 跑了一天真實開發,數字跟論文說的差不多 — 但魔鬼在細節裡。
一篇 ICLR 2026 論文證明了 AI 的「工作記憶」可以壓到原本的六分之一,而且功能完全不變。這對我們理解 AI 怎麼「思考」有什麼啟示?
逐層拆解「怎麼跟 AI 講話最有效」這個問題 — 答案不在語言技巧,而在你願意把多少思維外化成系統。
我寫了一個工具來測 AI persona prompt 在社會壓力下會不會崩潰。結果:第 5 輪就投降了。加了行為錨點之後穩住了。附數據。
Claude Code 的 Telegram plugin 要求終端機一直開著。我寫了一個 daemon 來解決這件事,順便處理了 context 爆滿、遠端權限批准、語音轉錄等問題。
Claude Code 支援 Telegram Channel 了。設定一個 bot,配對完就能從手機操控你的 agent。
OpenFang 跑了一整晚,170 次 LLM 呼叫,其中 80% 的回覆是「沒事做」。以下是我在排程程式碼裡挖出的 bug。
一個用 Rust 寫的開源 Agent OS,14 個 crate、17 萬行程式碼、42 個通訊頻道。我把它裝起來,接上 Telegram,讓 Claude 在背景自己跑。
讓自主 AI agent 去改善一個真實 TypeScript 專案的架構。前五次迭代很棒。然後它發現了 copy-paste。