如果你在網絡上搜索“Mac”、“AI”、“大模型”等關鍵詞,會發現不少網友正在用自己的Mac,搭建屬于自己的AI環境。從經濟實惠的Mac mini,到面向專業人士的Mac Studio,不同需求的用戶,都能在Mac上部署一個專屬于自己的AI大模型,提升工作效率。

能夠在一臺小設備上部署AI大模型,離不開Mac的“統一內存架構”。得益于這項架構,CPU和GPU可以共享同一個高速內存池。這意味著,一臺16GB的基礎款Mac mini,就等同于擁有了一塊16GB“顯存”的計算卡,而一臺頂配的Mac Studio,更是相當于擁有了512GB的超大顯存。在運行AI工具時,所有顯存都能被有效利用,這也讓Mac在AI時代找到了屬于自己的新賽道。
那么,Mac能不能像AI計算卡一樣,通過疊加的方式來部署更復雜的模型,從而實現更多專業級的工作?
用“搭積木”的方式 實現性能增長
傳統意義上講,想要實現AI運算能力提升的方法非常簡單,那就是竭盡所能地增加顯存。然而得益于統一內存架構,“增加顯存”在Mac上變得非常簡單,只需要增加內存容量即可。幾個月前,來自英國的創業公司Exo Labs就使用了四臺搭載M4 Pro芯片的Mac mini搭建集群,成功部署了236b的DeepSeek-Coder-V2混合專家模型,隨后他們又利用了兩臺Mac Studio搭建集群,并成功部署了671b的DeepSeek-V3模型。
借助高速的Thunderbolt 5串聯
這種利用類似“搭積木”的方式實現AI性能提升,也讓Exo Labs看到了更多可能性。這次,我有幸見到了Exo Labs使用四臺頂配版Mac Studio,并借助高速的Thunderbolt 5串聯,打造了一臺價格超越普通家用汽車的AI怪獸。當然,這套昂貴的AI設備,也擁有令人驚訝的能量,它能夠同時流暢運行兩個參數量高達671B的DeepSeek大語言模型,這也讓我們看到在AI浪潮席卷全球的今天,Mac也憑借其獨特的架構,找到了一個專屬于自己的全新定位。
Exo V2
為了充分利用好它的性能,Exo Labs還開發了一個調度工具Exo V2,它會根據用戶部署的模型,自動分配需要的內存。例如部署一個8bit量化的DeepSeek V3模型,大概需要700G的統一內存,而調度工具此時會將其平均分配到兩臺Mac Studio設備上并完成加載,在實際使用上,它的token生成速度基本上與云端大模型無異,足以滿足用戶的使用需求。

另外,Exo V2還能夠實現同步運行多個大模型。例如在運行DeepSeek V3模型的同時,還能再運行一個DeepSeek R1,實現兩個大模型并行工作。
用更強大的工具 為中小企業提供幫助
對于廣大個人用戶而言,簡單易用的云端AI工具足以滿足日常需求,但對于數據隱私有較高需求的企業或專業人士,本地部署AI工具,也能避免將包含商業機密、客戶信息或敏感研究數據的資料上傳到云端。

Mac Studio集群提供的本地化方案,可以說完美地解決了中小企業的顧慮。我更愿意將云端模型和本地模型看作是“通用工具”與“專業工具”的區別。云端大模型是強大的通用工具,知識淵博,但無法保證數據的絕對私密。而基于Mac Studio搭建的本地模型,則更像是一套為你量身定制的專業工具。
想象一下,一家律師事務所可以將海量的過往案例、法律文書輸入本地模型進行訓練,打造一個專屬于自己的、精通本所業務的AI法律顧問。或者是一家研發企業,將自己所有過往的參考文檔、項目資料喂給電腦,訓練出一個專屬于企業自己的知識庫。這些數據全部保存在本地,徹底杜絕了隱私泄露的風險,這為高價值知識型企業的AI化轉型提供了一條更安全、更可控的路徑。
值得一提的是,通過Mac來搭建AI工具,也是一項成本極低的選擇。雖說四臺Mac Studio的價值甚至超越了一臺汽車,但如果利用英偉達的計算卡來實現相同的AI能力,可能需要部署多大20張A100顯卡,其成本甚至高達數百萬。
四臺Mac Studio組成的AI集群
而且別忘了,這些龐然大物對電量的消耗同樣巨大,甚至還需要獨立的散熱空間才能確保穩定工作。相比之下,四臺Mac Studio的滿載功耗只有不到400W以內,而且大小也只有一個行李箱那么大。
寫在最后
在AI的未來版圖中,除了依賴互聯網服務商提供的云端算力,同樣也存在著對本地化、專業化、高隱私性解決方案的巨大需求,而Mac也在AI時代下,憑借其獨特的架構優勢精準地切入了這片藍海市場。它不僅僅是創意工作者的生產力工具,更成為了專業人士和中小企業觸手可及、兼顧性能與隱私的AI工作站。
這,或許才是Mac在AI時代真正的雄心所在。
版權所有,未經許可不得轉載
-金年會體育