Ollama是一個用於在本地計算機上運行大型語言模型的命令行工具,允許用戶下載並本地運行像Llama 2、Code Llama和其他模型,並支持自定義和創建自己的模型。該免費開源的項目,目前支持macOS和Linux操作系統,未來還將支持Windows系統。
此外,Ollama還提供了官方的Docker鏡像,由此使用Docker容器部署大型語言模型變得更加簡單,確保所有與這些模型的交互都在本地進行,無需將私有數據發送到第三方服務。Ollama在macOS和Linux上支持GPU加速,並提供了簡單的命令行界面(CLI)以及用於與應用程序交互的REST API。
該工具對於需要在本地機器上運行和實驗大語言模型的開發人員或研究人員來說特別有用,無需依賴外部雲服務。
Ollama支持的模型
Ollma提供一個模型庫,用戶可以自行選擇安裝想要運行的模型,目前支持40+的模型,還在持續增加中,以下是可以下載的開源模型示例:
模型 | 參數大小 | 文件大小 | 下載運行命令 |
---|---|---|---|
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Mistral | 7B | 4.1GB | ollama run mistral |
Llama 2 | 7B | 3.8GB | ollama run llama2 |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
Llama 2 13B | 13B | 7.3GB | ollama run llama2:13b |
Llama 2 70B | 70B | 39GB | ollama run llama2:70b |
Orca Mini | 3B | 1.9GB | ollama run orca-mini |
Vicuna | 7B | 3.8GB | ollama run vicuna |
數據統計
相關導航
暫無評論...