导入
如今,私有化部署一个大模型早已不是什么有门槛或技术含量的工作了,更多的只是一种信息差而已。照着这个教程来,即使小白也可以在本地部署大模型
技术要求:会点鼠标,会打字
我们只需要两个软件:
Ollama
Ollama 是一个开源的大型语言模型(LLM)服务工具,它旨在简化在本地运行大语言模型的过程,降低使用大语言模型的门槛。它允许开发者、研究人员和爱好者在本地环境中快速实验、管理和部署最新的大语言模型,包括但不限于 Qwen2、Llama3、Phi3、Gemma2 等开源的大型语言模型。Ollama 通过提供一个简单而高效的接口,使用户能够轻松地创建、运行和管理这些模型,同时还提供了丰富的预构建模型库,方便集成到各种应用程序中
下载 Ollama
官网下载 Ollama:https://ollama.com
安装 Ollama
一路点点点,安装完成
下载模型
在 Ollama 的模型仓库,查找你喜欢的模型,为了测试方便我们可以找一个 tiny 点的大模型
可以使用 qwen2 0.5b 的模型,这个模型用了 4bit 的量化,模型大小只有 352MB:
在终端输入拉取模型的命令:
ollama pull qwen2:0.5b
启动 Ollama
输入命令,启动 qwen2:0.5b:
ollama run qwen2:0.5b
至此,你的电脑里已经有了一个本地大模型了,你也可以拉取其它更大的模型来提升模型效果
ChatBox
Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用
下载 ChatBox
在官网下载 chatbox:https://chatboxai.app/zh#download
安装 ChatBox
一路点点点,安装完成
配置 ChatBox
在 chatbox 左下角找到设置,模型提供方选 Ollama:
api设置为: http://localhost:11434
模型设置为:qwen2:0.5b
可以看到已经使用 qwen2:0.5b 回答了。如果你有很强的 GPU,完全可以拉取更大的模型部署,效果更好。 全程不需要高深的计算机知识,只需要正常安装软件的能力即可