Skip to main content

REDMADMEDIA 網誌

回前頁
Ollama 和 Hugging Face Transformers 的模型分別 - 當下科技

Ollama 和 Hugging Face Transformers 的模型分別

· · 專欄: 當下科技

本質上講,Ollama 和 Hugging Face Transformers 使用的「大腦」(模型權重和架構)通常完全相同。

例如,如果您分別透過 Ollama 和 Hugging Face 下載 Llama 3,它們都源自於 Meta 發布的相同數學檔案。然而,Ollama 和 Hugging Face Transformers 在軟體生態系統中扮演著截然不同的角色。

1) 用途(消費者 vs. 建構者) Ollama 是一個「運行器」(應用程式),您可以將 Ollama 想像成一台遊戲機(例如 PlayStation),你只想玩遊戲(運行模型),您無需擔心圖形驅動程式、記憶體管理或遊戲背後的程式碼。

Ollama 將模型封裝在一個簡潔易用的伺服器中,該伺服器會自動處理所有繁重的技術工作。

Hugging Face Transformers 則是一個「庫」(工具箱),你可以將 Hugging Face 想像成遊戲引擎(例如 Unity 或 Unreal Engine),它允許你直接存取代碼,你可以拆解模型、更改其學習方式、進行微調,或從頭開始建立一個全新的應用程式,它需要你編寫 Python 程式碼來處理記憶體、標記化和裝置配置(CPU 與 GPU)。

2) 優化(GGUF 與原始權重) 這是影響你個人電腦效能的最大技術差異。

Ollama 幾乎完全使用 GGUF 格式的模型。什麼是 GGUF?它是一種壓縮模型(量化)的技術,它將通常需要 32GB 記憶體的大型模型縮小,使其可以在配備 8GB 或 16GB 記憶體的標準筆記型電腦上運行。而且,更好的是,Ollama 會自動將圖層卸載到您的 GPU 和 CPU 上,以使其在消費級硬體上盡可能快速運作。

Hugging Face Transformers(使用原始精度):預設情況下,HF 會以其原始的龐大尺寸(Float16 或 Float32)載入模型,如果你嘗試在普通筆記型電腦上透過 Hugging Face 載入 Llama-3-70b,除非您編寫特定的程式碼對其進行壓縮(使用 bitsandbytes 或類似的函式庫),否則您的電腦很可能會崩潰(記憶體不足)。

3) 易用性(“Hello World”測試) 就Ollama而言,你只需在終端機中輸入指令:ollama run llama3,即可在 30 秒內開始聊天。而Hugging Face Transformers,你必須編寫 Python 腳本,管理依賴項,並分別處理分詞器和模型。

換言之,假設你想設定一個個人化投資分析器,該使用 Ollama(以及 LangChain),這是由於您的目標是建立一個能夠回答有關投資問題的應用程序,因此 Ollama 是更好的選擇,原因它會自動處理記憶體管理,且慢在本地筆記型電腦或桌上型電腦上運行速度更快,更好用的是,它提供了一個 LangChain 可以輕鬆連接的伺服器。

只有當你想要訓練模式永久學習特定的金融語言,而不僅僅是讀取 PDF 檔案時,才應該切換到 Hugging Face Transformers 。

0 likes

推薦文章

讓你的人壽保險回報繼續低吟

讓你的人壽保險回報繼續低吟

有舊生問我,他有兩份人壽保險已供完,見回報率很低,想拿其現金值出來投資,而同時他亦說每月從收入中有萬多元鬆動可作相關買野,問我這樣處理人壽保險妥當嗎? 我認為,不妥當!既然每月有萬多元可作投資…

中國新疆的盤龍古道

中國新疆的盤龍古道

盤龍古道是位於新疆喀什地區塔什庫爾干塔吉克自治縣的一條公路,以其壯觀的彎道和險峻的地勢而聞名,被譽為「高原天路」。 這條公路全長約36公里,卻擁有超過600個彎道,其中不乏180度的髮夾彎,從空中俯…

我們仨的張望

我們仨的張望

世間上曾有兩隻小狗,叫小吉與阿細。一年前,我正要離開,站在大門前,牠倆來相送,定睛的望著我,我知是甚麼一回事,這是我們仨最後一次的彼此張望。 離別就有預感,我關了門後,還是捨不得,再開門看看,…

留言 (0)

還沒有留言,成為第一個留言的人吧!

發表留言

您必須登入才能留言。