#deepseek#-r1发布之后,很多网友利用 Ollama 进行本地大模型的部署。若个人、团队或企业有相关需求,并且硬件配置条件允许,建议安装 DeepSeek-R1:7b 、14b及更高参数的大模型。本地部署使用大模型对于隐私数据、重要数据的安全比较有保障,用户可以通过使用个人数据对模型进行微调和优化,使其更好地适配特定领域和任务,例如作业数据分析、医疗病历解读、法律合同审查等专业场景。此外,还可以自定义模型的功能,并将其与知识库系统、Web UI 等其他工具进行集成,从而拓展应用场景,如构建个人知识库、开发定制化的问答系统等。为了使本地部署的大模型能够在更多应用场景中发挥关键作用,开发人员可以调用 Ollama API,通过编程方式与本地部署的大模型进行高效交互。
近期本人用Ollama本地部署了deepseek-r1:14b大模型,下面以一个简单的控制台程序,阐述C#如何接入这个大模型。
前提条件和准备:
1、Ollama 已部署并运行:
确保我已在本地安装 Ollama 并成功运行 DeepSeek-R1:14b 模型(例如通过命令 ollama run deepseek-r1:14b)在实际开发中你可以替换成你自己部署的大模型及其版本。
默认情况下,Ollama 的服务运行在 http://localhost:11434。
2、开发环境:
使用 Visual Studio 或其他支持 C# 的 IDE。
项目需引用 System.Net.Http 和 Newtonsoft.Json(如需解析 JSON)。
3、NuGet 包:
如果未安装 Newtonsoft.Json,通过 NuGet 安装:
右键项目 -> "管理 NuGet 包" -> 搜索 Newtonsoft.Json -> 安装。
//以下是相关C#代码和详细的注释:
using System;
using System.Net.Http;//提供用于发送HTTP请求和接收HTTP响应的类
using System.Text;//包含用于编码和解码字符串的类
using System.Threading.Tasks;//包含支持异步编程模式的类
using Newtonsoft.Json;//用于JSON序列化和反序列化
// 命名空间 OllamaAPI_Call 包含了调用 Ollama API 的相关代码
namespace OllamaAPI_Call
{
// Program 类包含了调用 Ollama API 的主程序逻辑
internal class Program
{
// 定义一个静态的 HttpClient 实例,用于提高性能
private static readonly HttpClient client = new HttpClient();
// 主函数,异步调用 Ollama API
static async Task Main(string[] args)
{
// 设置 Ollama API 的基础地址
client.BaseAddress = new Uri("http://localhost:11434/");
// 调用模型并获取响应
string prompt = "请模仿唐朝张九龄的《望月怀远》写一首诗,题目自拟";
string response = await CallOllamaModel(prompt);
// 输出结果(不显示 "模型响应: " 提示)
Console.WriteLine(response);
Console.ReadLine();
}
/// <summary>
/// 调用 Ollama 模型生成文本。
/// </summary>
/// <param name="prompt">输入给模型的提示。</param>
/// <returns>模型生成的文本。</returns>
static async Task<string> CallOllamaModel(string prompt)
{
try
{
// 构造请求数据
var requestData = new
{
model = "deepseek-r1:14b", // 指定模型名称
prompt = prompt, // 输入的提示
stream = false // 是否流式输出,设为 false 返回完整响应
};
// 将数据序列化为 JSON
string jsonContent = JsonConvert.SerializeObject(requestData);
var content = new StringContent(jsonContent, Encoding.UTF8, "application/json");
// 发送 POST 请求到 Ollama API
HttpResponseMessage response = await client.PostAsync("api/generate", content);
response.EnsureSuccessStatusCode();
// 读取并解析响应
string responseBody = await response.Content.ReadAsStringAsync();
var result = JsonConvert.DeserializeObject<OllamaResponse>(responseBody);
// 返回模型生成的文本
return result.response;
}
catch (Exception ex)
{
return "调用模型时出错: " + ex.Message;
}
}
// 定义一个类来解析 Ollama 的响应
class OllamaResponse
{
public string response { get; set; }
}
}
}
程序运行结果:
可以进一步修改代码,把大模型的思考过程给省略掉,直接输出结果。通过编程方式与本地部署的大模型进行高效交互。这一过程就像是为大模型搭建了一座与外界沟通的桥梁,让其能够与其他系统和应用无缝对接。