你知道如何在Windows上本地部署大模型么?
Ollama是一个开源的大型语言模型服务工具,它帮助用户快速在本地运行大模型。通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模型,如Llama 3
- 命令行说明
用法:
ollama [标志]
ollama [命令]
可用命令:
serve 启动 ollama
create 从 Modelfile 创建模型
show 显示模型信息
run 运行模型
pull 从注册表拉取模型
push 将模型推送到注册表
list 列出模型
cp 复制模型
rm 删除模型
help 关于任何命令的帮助
常用命令:
#本地模型下载地址
C:\Users\Administrator\.ollama
#安装目录
C:\Users\Administrator\AppData\Local\Programs\Ollama>ollama run phi3
#运行llama3
ollama run llama3
ollama run qwen
#查看模型
ollama ls
#显示模板
ollama show llama3:latest --template
http://localhost:11434/api/tags
2.模型库
3.LangChain调用
from langchain_community.llms import Ollama
llm = Ollama(model="llama3")
llm.invoke("Tell me a joke")