ollama常用命令
Ollama 的核心命令可以分为三类服务管理、模型管理和模型运行。掌握这些命令你就能轻松在本地部署和运行大语言模型了。 核心命令列表及使用说明类别命令格式说明使用示例服务管理ollama serve启动 Ollama 的后台服务。当你需要手动启动服务或更改配置时使用。ollama serveollama -v查看当前安装的 Ollama 版本。ollama -v模型管理ollama pull model_name从模型仓库下载模型到本地。ollama pull llama3.2ollama list或ollama ls列出所有已下载到本地的模型。ollama listollama rm model_name删除本地指定的模型以释放磁盘空间。ollama rm llama3.2ollama show model_name显示指定模型的详细信息如参数、配置等。ollama show llama3.2ollama cp source_model dest_model复制一个已存在的模型创建一个新副本。ollama cp llama3.2 my-llamaollama create new_model -f Modelfile通过一个Modelfile配置文件来创建自定义模型。ollama create my-model -f ./Modelfileollama push model_name将你本地的模型推送到远程仓库如 Ollama Hub。ollama push my-username/my-model模型运行ollama run model_name运行一个模型。如果模型不存在会先自动下载再运行。ollama run llama3.2ollama run model_name prompt以非交互模式运行模型直接输入提示词并获取结果。ollama run llama3.2 Explain AIollama ps查看当前正在运行中的模型及其状态如显存占用、上下文长度。ollama psollama stop model_name停止一个正在运行的模型以释放系统资源。ollama stop llama3.2 高级使用技巧与配置除了基础命令灵活运用以下技巧能让你更高效地使用 Ollama交互模式在ollama run启动的对话中可以使用一些斜杠命令辅助操作例如输入/bye退出对话或输入/help查看所有聊天命令 。多行输入在交互模式下输入(三个双引号) 然后按回车即可开始输入包含换行符的长文本再次输入并回车即可提交 。直接传入文件在非交互模式下可以用重定向让模型读取文件内容非常适合总结长文档。例如ollama run llama3.2Summarize this text:my_long_article.txt保存输出到文件使用重定向将模型的回答直接保存到文件中。ollama run llama3.2Write a haiku about AIai_haiku.txt多模态模型如果你运行的是支持图像识别的模型如llava可以在提示词后直接附上图片路径让模型“看图说话”ollama run llavaWhats in this image?/path/to/your/image.jpg修改模型存储路径默认情况下模型文件会保存在系统盘。你可以通过设置环境变量OLLAMA_MODELS来修改存储路径避免占满C盘空间 。启动时的参数调优在启动 Ollama 服务时可以设置环境变量来调整运行参数。例如设置OLLAMA_CONTEXT_LENGTH64000来增大模型的上下文窗口注意这会消耗更多显存。如果想了解如何创建自定义模型或进行更详细的API调用可以随时再问我。