千贝软件工作室/千贝软件工匠工坊

创新筑梦,实践求知!
创新筑梦,实践求知!

普及本地AI部署知识 助力高效便捷应用——Ollama本地大模型使用分享活动顺利开展

2026-04-13 23:46:00
chanbey
原创
5

为帮助大家掌握本地AI搭建技巧,降低AI使用门槛,提高同学们的实操能力,于202642日星期四,一场主题为Ollama本地大模型部署与使用的分享活动举行。本次活动聚焦Ollama工具的实操应用,主讲人王智博围绕Ollama工具的核心功能、实操方法、模型应用及自定义技巧展开详细讲解,现场互动频繁、干货满满,让参与的同学们掌握本地AI部署的实用技能。


技术分享会的开始,王智博介绍了Ollama的核心定位——它是一款开源的本地大模型管理工具,无需复杂配置,即可帮助用户在个人电脑上搭建专属本地AI,实现离线运行、隐私保护等多种优势,打破了传统AI依赖联网和付费API的局限。随后,他按照“认知—安装—应用—自定义”的逻辑,逐步展开分享,确保内容通俗易懂、可操作性强。

Ollama下载与安装环节,王智博详细演示了官网下载流程,明确Ollama支持多系统适配,而且安装过程简洁,无需复杂的操作,下载完成后将以小程序形式启动,随即桌面会显示其官方标识。同时,王智博提醒,安装后需注意软件启动方式,确保后续模型下载和运行顺畅,并给出了针对解决一些安装过程启动异常问题的建议,确保每一位同学能熟练掌握安装技巧。


模型介绍与下载是本次分享会议的重点内容。王智博展示了Ollama支持的各类本地运行模型,包括千问、DeepSeekLlamaLava等多种类型,涵盖不同参数规模,其中既有30B300亿参数)、占用空间30G的大型模型,也有适配普通电脑的轻量化模型,可满足不同用户的使用需求。针对模型的下载,他介绍了两种实用方法:一是通过软件界面直接选择模型下载,操作直观,适合新手;二是通过终端命令下载,需通过Win+R调出命令提示符,输入对应指令即可完成下载,灵活高效。

为了让大家更直观感受模型应用效果,王智博现场演示了两款常用模型的使用。Llama模型侧重数学逻辑,可连续回答简单数学问题及日常咨询;Lava模型则具备图片、视频识别功能,无需联网、无需调用API,可直接读取本地C盘内的图片并进行描述,同时支持中英文切换,但仅适配PNGJPG格式图片,现场演示中也通过实例提醒同学们注意图片格式适配的问题。

在自定义AI模型环节,王智博分享了具体的操作流程。他介绍,自定义AI模型需借助配置文件(modelfile),在记事本中编写配置参数,包括模型名称、专长领域、交流方式、创造力参数(0-1之间,数值越高创造力越强)等,且文件需保存至C盘,命名规范为“modelfile”(首字母大写,无需后缀)。随后,通过终端输入对应命令,引用配置文件地址,即可构建专属自定义AI。现场,他以自身搭建的自定义AI为例,演示了提问、互动流程,其可根据配置实现个性化回答,如讲笑话、讲故事等,展现了自定义模型的灵活性。

分享过程中,王智博还说明了注意事项:一是模型默认下载至C盘,无法更改存储路径,若电脑内存不足会导致运行卡顿,建议合理控制模型数量;二是多余模型可通过终端命令删除,删除后可通过对应指令查看剩余模型,确保清理彻底;三是模型可通过终端命令更新,实现功能优化;四是若需自定义AI支持中文,可引用千问等中文模型,或在配置文件中设置中文交流指令。

互动环节,参与同学围绕“模型能否编写代码”“能否与其他软件联动”“如何提升自定义AI智能度”等问题积极提问,主讲人王智博逐一耐心解答,明确模型功能与使用场景——部分擅长编程的模型可编写代码,且可嵌入其他软件使用,而提升自定义AI智能度需补充相关代码,后续将开展专题分享。此外,他还表示,可向有需求的同学提供modelfile模板及相关资源,帮助大家快速上手。

此次分享活动,不仅让参与这次会议的同学们全面了解了Ollama工具的核心优势与使用方法,掌握了本地AI部署、模型应用及自定义技巧,更降低了本地AI的使用门槛,为大家后续高效、便捷使用本地AI提供了有力指导。