四时宝库

程序员的知识宝库

Ollama本地部署大模型(arima模型的建模步骤)



你知道如何在Windows上本地部署大模型么?

Ollama是一个开源的大型语言模型服务工具,它帮助用户快速在本地运行大模型。通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模型,如Llama 3

  1. 命令行说明



用法:
ollama [标志]
ollama [命令]

可用命令:
serve 启动 ollama
create 从 Modelfile 创建模型
show 显示模型信息
run 运行模型
pull 从注册表拉取模型
push 将模型推送到注册表
list 列出模型
cp 复制模型
rm 删除模型
help 关于任何命令的帮助

常用命令:

#本地模型下载地址
C:\Users\Administrator\.ollama
#安装目录
C:\Users\Administrator\AppData\Local\Programs\Ollama>ollama run phi3
#运行llama3
ollama run llama3
ollama run qwen
#查看模型
ollama ls
#显示模板
ollama show llama3:latest --template

http://localhost:11434/api/tags

2.模型库

GitHub - ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models.



3.LangChain调用

Ollama | ? LangChain

from langchain_community.llms import Ollama
llm = Ollama(model="llama3")
llm.invoke("Tell me a joke")

发表评论:

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言
    友情链接