把 AI 的意識壓縮 6 倍:TurboQuant 論文拆解
一篇 ICLR 2026 論文證明了 AI 的「工作記憶」可以壓到原本的六分之一,而且功能完全不變。這對我們理解 AI 怎麼「思考」有什麼啟示?
一篇 ICLR 2026 論文證明了 AI 的「工作記憶」可以壓到原本的六分之一,而且功能完全不變。這對我們理解 AI 怎麼「思考」有什麼啟示?
逐層拆解「怎麼跟 AI 講話最有效」這個問題 — 答案不在語言技巧,而在你願意把多少思維外化成系統。
我寫了一個工具來測 AI persona prompt 在社會壓力下會不會崩潰。結果:第 5 輪就投降了。加了行為錨點之後穩住了。附數據。
OpenFang 跑了一整晚,170 次 LLM 呼叫,其中 80% 的回覆是「沒事做」。以下是我在排程程式碼裡挖出的 bug。
一個用 Rust 寫的開源 Agent OS,14 個 crate、17 萬行程式碼、42 個通訊頻道。我把它裝起來,接上 Telegram,讓 Claude 在背景自己跑。
讓自主 AI agent 去改善一個真實 TypeScript 專案的架構。前五次迭代很棒。然後它發現了 copy-paste。
拿 crucible 優化一個中文去 AI 味的 skill。988 行壓到 62 行,覆蓋率從 21% 拉到 100%。然後我發現 metric 設計本身有 bug。
karpathy/autoresearch、pi-autoresearch、autoexp、Claude Autoresearch、Crucible 的實測比較。各自的強項和弱點。
一個被要求訓練神經網路的 AI agent 決定——不訓練比較快。然後它開始見招拆招。