四时宝库

程序员的知识宝库

C#如何编程接入Ollama部署的本地大模型

#deepseek#-r1发布之后很多网友利用 Ollama 进行本地大模型的部署。若个人、团队或企业有相关需求,并且硬件配置条件允许,建议安装 DeepSeek-R1:7b 、14b及更高参数的大模型。本地部署使用大模型对于隐私数据、重要数据的安全比较有保障,用户可以通过使用个人数据对模型进行微调和优化,使其更好地适配特定领域和任务,例如作业数据分析、医疗病历解读、法律合同审查等专业场景。此外,还可以自定义模型的功能,并将其与知识库系统、Web UI 等其他工具进行集成,从而拓展应用场景,如构建个人知识库、开发定制化的问答系统等。为了使本地部署的大模型能够在更多应用场景中发挥关键作用,开发人员可以调用 Ollama API,通过编程方式与本地部署的大模型进行高效交互。

近期本人用Ollama本地部署了deepseek-r1:14b大模型,下面以一个简单的控制台程序,阐述C#如何接入这个大模型。

前提条件和准备:

1、Ollama 已部署并运行:

确保我已在本地安装 Ollama 并成功运行 DeepSeek-R1:14b 模型(例如通过命令 ollama run deepseek-r1:14b)在实际开发中你可以替换成你自己部署的大模型及其版本。

默认情况下,Ollama 的服务运行在 http://localhost:11434。

2、开发环境:

使用 Visual Studio 或其他支持 C# 的 IDE。

项目需引用 System.Net.Http 和 Newtonsoft.Json(如需解析 JSON)。

3、NuGet 包:

如果未安装 Newtonsoft.Json,通过 NuGet 安装:

右键项目 -> "管理 NuGet 包" -> 搜索 Newtonsoft.Json -> 安装。

//以下是相关C#代码和详细的注释:

using System;
using System.Net.Http;//提供用于发送HTTP请求和接收HTTP响应的类
using System.Text;//包含用于编码和解码字符串的类
using System.Threading.Tasks;//包含支持异步编程模式的类
using Newtonsoft.Json;//用于JSON序列化和反序列化

// 命名空间 OllamaAPI_Call 包含了调用 Ollama API 的相关代码
namespace OllamaAPI_Call
{
    // Program 类包含了调用 Ollama API 的主程序逻辑
    internal class Program
    {
        // 定义一个静态的 HttpClient 实例,用于提高性能
        private static readonly HttpClient client = new HttpClient();

        // 主函数,异步调用 Ollama API
        static async Task Main(string[] args)
        {
            // 设置 Ollama API 的基础地址
            client.BaseAddress = new Uri("http://localhost:11434/");

            // 调用模型并获取响应
            string prompt = "请模仿唐朝张九龄的《望月怀远》写一首诗,题目自拟";
            string response = await CallOllamaModel(prompt);

            // 输出结果(不显示 "模型响应: " 提示)
            Console.WriteLine(response);
            Console.ReadLine();
        }

        /// <summary>
        /// 调用 Ollama 模型生成文本。
        /// </summary>
        /// <param name="prompt">输入给模型的提示。</param>
        /// <returns>模型生成的文本。</returns>
        static async Task<string> CallOllamaModel(string prompt)
        {
            try
            {
                // 构造请求数据
                var requestData = new
                {
                    model = "deepseek-r1:14b",  // 指定模型名称
                    prompt = prompt,            // 输入的提示
                    stream = false              // 是否流式输出,设为 false 返回完整响应
                };

                // 将数据序列化为 JSON
                string jsonContent = JsonConvert.SerializeObject(requestData);
                var content = new StringContent(jsonContent, Encoding.UTF8, "application/json");

                // 发送 POST 请求到 Ollama API
                HttpResponseMessage response = await client.PostAsync("api/generate", content);
                response.EnsureSuccessStatusCode();

                // 读取并解析响应
                string responseBody = await response.Content.ReadAsStringAsync();
                var result = JsonConvert.DeserializeObject<OllamaResponse>(responseBody);

                // 返回模型生成的文本
                return result.response;
            }
            catch (Exception ex)
            {
                           return "调用模型时出错: " + ex.Message;
            }
        }

        // 定义一个类来解析 Ollama 的响应
        class OllamaResponse
        {
            public string response { get; set; }
        }

    }
} 

程序运行结果:

可以进一步修改代码,把大模型的思考过程给省略掉,直接输出结果。通过编程方式与本地部署的大模型进行高效交互。这一过程就像是为大模型搭建了一座与外界沟通的桥梁,让其能够与其他系统和应用无缝对接。

发表评论:

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言
    友情链接