导入

如今,私有化部署一个大模型早已不是什么有门槛或技术含量的工作了,更多的只是一种信息差而已。照着这个教程来,即使小白也可以在本地部署大模型

技术要求:会点鼠标,会打字

我们只需要两个软件:

Ollama

Ollama 是一个开源的大型语言模型(LLM)服务工具,它旨在简化在本地运行大语言模型的过程,降低使用大语言模型的门槛。它允许开发者、研究人员和爱好者在本地环境中快速实验、管理和部署最新的大语言模型,包括但不限于 Qwen2、Llama3、Phi3、Gemma2 等开源的大型语言模型。Ollama 通过提供一个简单而高效的接口,使用户能够轻松地创建、运行和管理这些模型,同时还提供了丰富的预构建模型库,方便集成到各种应用程序中

下载 Ollama

官网下载 Ollama:https://ollama.com

安装 Ollama

一路点点点,安装完成

下载模型

在 Ollama 的模型仓库,查找你喜欢的模型,为了测试方便我们可以找一个 tiny 点的大模型

可以使用 qwen2 0.5b 的模型,这个模型用了 4bit 的量化,模型大小只有 352MB:

在终端输入拉取模型的命令:

ollama pull qwen2:0.5b

启动 Ollama

输入命令,启动 qwen2:0.5b:

ollama run qwen2:0.5b

至此,你的电脑里已经有了一个本地大模型了,你也可以拉取其它更大的模型来提升模型效果

ChatBox

Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用

下载 ChatBox

在官网下载 chatbox:https://chatboxai.app/zh#download

安装 ChatBox

一路点点点,安装完成

配置 ChatBox

在 chatbox 左下角找到设置,模型提供方选 Ollama:

api设置为: http://localhost:11434

模型设置为:qwen2:0.5b

可以看到已经使用 qwen2:0.5b 回答了。如果你有很强的 GPU,完全可以拉取更大的模型部署,效果更好。 全程不需要高深的计算机知识,只需要正常安装软件的能力即可