拉取镜像docker pull ollama/ollama运行容器挂载路径 D:\ollama 改成你自己喜欢的路径CPU onlydocker run -d -v D:\ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollamaNvidia GPUdocker run -d --gpusall -v D:\ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama运行模型docker exec -it ollama ollama run llama2测试了一下llama2没有gemma:7b聪明所以后来我用了docker exec -it ollama ollama run gemma:7b上图就是运行成功了可以在命令行中输入任何问题了。部署web界面docker run -d -p 3000:3000 --name chatbot-ollama -e DEFAULT_MODELllama2:latest -e OLLAMA_HOSThttp://你的IP地址:11434 ghcr.io/ivanfioravanti/chatbot-ollama:main用浏览器打开http://localhost:3000即可像使用ChatGPT一样使用自己的私有GPT了。ollama RestfulApiPOST localhost:11434/api/generate{model: mistral,prompt: 请用中文描述双亲委派机制,stream: false}POST localhost:11434/api/chat{model: mistral,messages: [{role: user,content: 请用中文回答python,java,c的执行效率比较并说明原因}]}curl http://localhost:11434/api/generate -d {model: llama2,prompt:Why is the sky blue?}curl http://localhost:11434/api/chat -d {model: mistral,messages: [{ role: user, content: why is the sky blue? }]}