同樣是Mac,有人覺得本地大模型“已經(jīng)夠用了”,有人卻一打開長文檔、長代碼倉庫就開始卡、開始慢、開始爆內(nèi)存。很多時候,問題不完全在模型大小,而在另一件更容易被忽略的事上:模型的“臨時記憶”太占地方了。

這件事在技術(shù)上叫KV Cache。你可以把它理解成,大模型在推理時隨身帶著的一本筆記本。對話越長,文檔越長,代碼上下文越長,這本筆記本就越厚。隨著和模型不斷對話,Mac那本就很寶貴的統(tǒng)一內(nèi)存,也會被不斷占用。
有沒有一種辦法,能夠?qū)⑦@個筆記本壓縮一下,從而讓用戶能夠更好地在Mac上使用本地模型?
開源項目“TurboQuant+”提供了一個方法。
一個來自大廠思路的開源項目
TurboQuant+基于谷歌研究院發(fā)表在 ICLR 2026 學(xué)術(shù)會議上的最新論文,用了一套數(shù)學(xué)方法,專門解決這個"筆記本太厚"的問題。
用一句話概括:這個項目把AI的“工作記憶”壓縮到原來的1/4到1/6,但內(nèi)容幾乎不變。
就像你手機拍的一張5MB照片,壓成JPEG之后只有500KB,肉眼卻幾乎看不出差別。
TurboQuant+對AI的“記憶”做的,就是類似的事情。

數(shù)據(jù)顯示,壓縮之后原來需要2.78GB的長對話記憶,現(xiàn)在只需要0.98GB,壓縮比最高可達6.4倍,而且質(zhì)量損失極小,4-bit壓縮方案的回答質(zhì)量幾乎與未壓縮時相同。
Mac用戶福音
該項目亮相后,也被很多Mac用戶關(guān)注。因為TurboQuant+對Mac用戶的價值,比對其他平臺的用戶要大得多。
原因很簡單,因為Apple Silicon是統(tǒng)一內(nèi)存架構(gòu),運行大語言模型的時候,電腦的內(nèi)存可以直接被用作顯存。
也正因為此,統(tǒng)一內(nèi)存架構(gòu)有一個現(xiàn)實影響,那就是模型權(quán)重、KV Cache,以及系統(tǒng)本身,都在爭同一份內(nèi)存。因此TurboQuant+對于Mac的價值,就不只是“賬面上省一點”,而是會直接體現(xiàn)在可用余量上。
使用搭載M5 Max的MacBook Pro實測
壓縮空間以后,意味著同樣一款Mac,可以承載更多的內(nèi)容。壓縮后,無論是想在本地讀超長 PDF、會議紀要、技術(shù)文檔,還是想讓AI理解整個大項目的代碼,或是想做本地知識庫檢索,使用更大的模型等等,都能隨著空間的增多以及上下文長度的增強,獲得更好的體驗。
這個項目的意義在于,它的目的是盡量榨干硬件的能力,讓Mac少被內(nèi)存瓶頸卡住,不需要讓用戶立刻升級硬件。
這種“讓用戶省錢”的開源項目,自然也得到了更多用戶的關(guān)注。
一個全新的設(shè)計思路
在上手前,我還要幫大家避個坑。雖說TurboQuant+已經(jīng)有可用實現(xiàn),也和llama.cpp生態(tài)有關(guān),但不能簡單理解成目前已經(jīng)完整內(nèi)置,復(fù)制參數(shù)就能直接跑。

因為目前這個項目還是在開源社區(qū)測試,相比于真正用起來,把他看成一個很值得關(guān)注的技術(shù)方向,其實是更好的選擇。當然,如果真要上手,也可以先確認一下項目的README文件,這樣也會少踩很多坑。
如果你已經(jīng)在Mac上本地跑模型,而且經(jīng)常碰到上下文或內(nèi)存限制,或者很在意隱私,希望把文檔、知識庫、代碼分析盡量留在本地,這個開源項目都是值得關(guān)注的。說到底,TurboQuant+的意義不是讓Mac成為更強的AI助手,而是讓Mac在本地大模型這條路上,少一點束手束腳。
很多時候,真正決定體驗的不是模型排行榜頂端那一點差距,而是你手上這臺機器能不能穩(wěn)定、順暢、持續(xù)地完成你要做的事。
從這個角度看,TurboQuant+ 這種底層優(yōu)化,反而很可能是最接近“有用”的那一類進展。
如果你是 Mac 用戶,并且認真在本地用大模型,那 TurboQuant+ 值得關(guān)注。它不一定最顯眼,但它解決的是最現(xiàn)實的問題:怎樣讓同一臺 Mac,裝下更多上下文,少吃一點內(nèi)存,跑起來更像工具,而不是玩具。
版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載
-今年會jinnianhui金字招牌