用 Claude Code + Codex 當你的「背景資深 Reviewer」:codex-plugin-cc 使用心得

最近在玩 codex-plugin-cc,在 Claude Code 裡裝上 OpenAI 的 Codex plugin,讓 Codex 變成一個「在背景默默幫你審查、修 bug 的資深同事」。
這篇想簡單介紹一下這個 plugin 在做什麼、實際使用起來的感覺,以及它改變了我寫程式的哪些地方。
Hi, I’m Adora, nice to meet you!

最近在玩 codex-plugin-cc,在 Claude Code 裡裝上 OpenAI 的 Codex plugin,讓 Codex 變成一個「在背景默默幫你審查、修 bug 的資深同事」。
這篇想簡單介紹一下這個 plugin 在做什麼、實際使用起來的感覺,以及它改變了我寫程式的哪些地方。
你有沒有遇過這個情況:跑一個還算普通的 LLM,GPU 記憶體就已經快爆表,根本沒辦法跑長一點的對話,更別說同時跑多個 session?這不是你的機器太爛,而是 LLM 架構本身的痛點——key-value cache 太吃記憶體了。
Google Research 最近發表了一篇 pre-print,提出的壓縮演算法叫 TurboQuant,測試結果是記憶體用量減 6 倍、注意力計算速度快 8 倍,而且幾乎不犧牲輸出品質。這種「又快又省又不爛」的組合在 ML 優化裡並不常見,值得好好拆解一下。
原文:Google’s TurboQuant AI-compression algorithm can reduce LLM memory usage by 6x(Ars Technica,作者 Ryan Whitwam,2026-03-26)
原文:How Agentic RAG Works(ByteByteGo)
你有沒有遇過這種情況:RAG 系統看起來運作正常,向量搜尋在搜、LLM 在回答——但給出的答案就是不對,或是答非所問?這篇文章正是在拆解這個問題的根源,以及為什麼在查詢和回答之間加一層「會思考、評估、重試的代理人」,可以從根本解決這件事。
原文:There Are Only Two Paths Left for Software by David George(a16z)
最近讀到一篇讓我覺得「說得很直白但偏偏很難反駁」的文章。核心論點是:軟體公司的中間帶已死——要嘛用 AI 把成長率再拉高 10 個百分點,要嘛重構成超高獲利機器。夾在中間的公司,會被市場慢慢施壓到消失。
今天使用 Claude Dispatch 用手機遙控電腦跑整個開發流程٩(●ᴗ●)۶