在人工智能技术飞速发展的今天大语言模型已经从云端服务走向本地部署轻量化大模型凭借体积小、速度快、无需联网、隐私安全等优势成为 AI 开发者、编程爱好者入门学习的最佳选择。Qwen2.5-1.5B-Instruct 作为通义千问系列的轻量级开源模型参数规模适中推理性能优秀完美适配个人电脑本地运行既能实现智能对话也能轻松完成文本分类、情感分析、信息提取等 NLP 任务。本文将从零开始手把手带你完成Ollama 一键部署 Qwen2.5-1.5B、魔搭社区 Git 克隆模型 Git LFS 拉取大文件、Python 代码本地推理三大核心流程全程保姆级教学即使是零基础新手也能顺利在自己的电脑上跑通轻量化大模型实现文本情感分类实战。一、方案 1Ollama 一键部署最快上手1. 下载安装 Ollama第一步打开 Ollama 官方网站https://ollama.com/首页直接显示对应系统的下载按钮点击下载 Windows 版本。第二步双击安装包全程默认下一步即可完成安装Ollama 会自动配置系统环境变量无需手动设置。2.下载Qwen2.5-1.5B在ollama中搜索qwen2.5复制1.5b版本命令。打开CMD / PowerShell直接运行ollama run qwen2.5:1.5b输入问题即可本地离线对话无需联网。二、方案 2魔搭社区源码部署可二次开发1. 准备工具安装 Git安装 Git LFS必须否则大文件下载失败Python 3.82. 魔搭搜索并克隆模型打开魔搭社区https://modelscope.cn/模型库搜索qwen2.5-1.5b-instruct复制 Git 地址CMD 执行克隆指定路径git clone https://www.modelscope.cn/qwen/Qwen2.5-1.5B-Instruct.git C:\Users\Asus\Qwen2.5-1.5B-Instruct3. 解决 Git 大文件下载问题Git 默认会忽略大模型权重必须执行cd C:\Users\Asus\Qwen2.5-1.5B-Instruct git lfs pull等待拉取完成模型文件就完整了。4. 安装 Python 依赖pip install transformers三、Python 实战基于 Qwen2.5-1.5B 实现文本情感分类本文以情感三分类正面、负面、中立为实战任务编写 Python 代码加载本地 Qwen2.5-1.5B-Instruct 模型实现对文本的情感判断代码完整可直接运行。新建文件Qwen 文本分类.py复制以下代码from transformers import AutoModelForCausalLM, AutoTokenizer # 加载本地模型 model_name rC:\Users\Asus\Qwen2.5-1.5B-Instruct model AutoModelForCausalLM.from_pretrained(model_name) tokenizer AutoTokenizer.from_pretrained(model_name) # 分类 Prompt 模板 prompt_template 请判断以下文本属于哪个类别{text}。可选类别有正面、负面、中立。 input_text 这部电影真是太差劲我非常不喜欢 prompt_input prompt_template.format(textinput_text) # 编码输入 inputs tokenizer(prompt_input, return_tensorspt) # 模型推理 output_sequences model.generate( inputs.input_ids, max_new_tokens512, attention_maskinputs.attention_mask ) # 解码结果 generated_text tokenizer.decode(output_sequences[0], skip_special_tokensTrue) result generated_text[len(prompt_input):] print(模型输出, generated_text) print(分类结果, result.strip())四、代码关键说明AutoModelForCausalLM加载生成式大模型结构AutoTokenizer文本分词、编码、解码工具Prompt 模板明确告诉模型要做文本三分类generate生成式推理控制输出长度截取结果去掉 Prompt只保留模型回答五、运行效果执行代码后输出模型输出请判断以下文本属于哪个类别这部电影真是太差劲我非常不喜欢。可选类别有正面、负面、中立。负面 分类结果负面模型成功判断出负面情感。六、两种部署方式对比方式难度速度适用场景Ollama极低极快快速体验、对话、简单调用魔搭源码中等灵活二次开发、改代码、训练微调七、总结与拓展本文完整实现了轻量化大模型本地部署的全流程从 Ollama 极速体验到魔搭源码完整下载再到 Python 文本分类实战覆盖了新手入门大模型的所有核心步骤。Qwen2.5-1.5B-Instruct 作为轻量级模型性能强悍不仅能做情感分类还能拓展到意图识别、文本摘要、代码生成、问答系统等多种任务。本地部署大模型的核心优势在于隐私安全、离线可用、低成本、高度自定义无论是学习大模型原理还是开发小型 AI 项目都是绝佳的选择。希望这篇教程能帮助大家顺利入门大模型部署开启自己的 AI 开发之旅后续可以在此基础上拓展更多功能比如封装成 Web 界面、批量处理文本数据、结合其他工具实现自动化任务让轻量化大模型真正服务于我们的学习与工作。