Ollama

2个月前发布 1 0 0

本地运行Llama和其他大语言模型

收录时间:
2025-03-19

Ollama是一个用于在本地计算机上运行大型语言模型的命令行工具,允许用户下载并本地运行像Llama2、CodeLlama和其他模型,并支持自定义和创建自己的模型。该免费开源的项目,目前支持macOS和Linux操作系统,未来还将支持Windows系统​​​​。

此外,Ollama还提供了官方的Docker镜像,由此使用Docker容器部署大型语言模型变得更加简单,确保所有与这些模型的交互都在本地进行,无需将私有数据发送到第三方服务。Ollama在macOS和Linux上支持GPU加速,并提供了简单的命令行界面(CLI)以及用于与应用程序交互的RESTAPI​​。

该工具对于需要在本地机器上运行和实验大语言模型的开发人员或研究人员来说特别有用,无需依赖外部云服务。

Ollama安装包获取

获取Ollama安装包,扫码关注回复:Ollama

Ollama支持的模型

Ollma提供一个模型库,用户可以自行选择安装想要运行的模型,目前支持40+的模型,还在持续增加中,以下是可以下载的开源模型示例:

模型 参数大小 文件大小 下载运行命令
DeepSeek-R1 1.5B、7B、14B、32B等 12-320GB ollamarundeepseek-r1
NeuralChat 7B 4.1GB ollamarunneural-chat
Starling 7B 4.1GB ollamarunstarling-lm
Mistral 7B 4.1GB ollamarunmistral
Llama2 7B 3.8GB ollamarunllama2
CodeLlama 7B 3.8GB ollamaruncodellama
Llama2Uncensored 7B 3.8GB ollamarunllama2-uncensored
Llama213B 13B 7.3GB ollamarunllama2:13b
Llama270B 70B 39GB ollamarunllama2:70b
OrcaMini 3B 1.9GB ollamarunorca-mini
Vicuna 7B 3.8GB ollamarunvicuna

数据统计

相关导航

暂无评论

none
暂无评论...