AI訓練模型

Ollama

Ollama是一個用於在本地計算...

標籤:

Ollama是一個用於在本地計算機上運行大型語言模型的命令行工具,允許用戶下載並本地運行像Llama 2、Code Llama和其他模型,並支持自定義和創建自己的模型。該免費開源的項目,目前支持macOS和Linux操作系統,未來還將支持Windows系統​​​​。

此外,Ollama還提供了官方的Docker鏡像,由此使用Docker容器部署大型語言模型變得更加簡單,確保所有與這些模型的交互都在本地進行,無需將私有數據發送到第三方服務。Ollama在macOS和Linux上支持GPU加速,並提供了簡單的命令行界面(CLI)以及用於與應用程序交互的REST API​​。

該工具對於需要在本地機器上運行和實驗大語言模型的開發人員或研究人員來說特別有用,無需依賴外部雲服務。

Ollama支持的模型

Ollma提供一個模型庫,用戶可以自行選擇安裝想要運行的模型,目前支持40+的模型,還在持續增加中,以下是可以下載的開源模型示例:

模型 參數大小 文件大小 下載運行命令
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Mistral 7B 4.1GB ollama run mistral
Llama 2 7B 3.8GB ollama run llama2
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
Llama 2 13B 13B 7.3GB ollama run llama2:13b
Llama 2 70B 70B 39GB ollama run llama2:70b
Orca Mini 3B 1.9GB ollama run orca-mini
Vicuna 7B 3.8GB ollama run vicuna

數據統計

相關導航

暫無評論

暫無評論...