目前市场上的 AI 大语言模型种类繁多,覆盖国内外各大厂商,既有开源模型,也有商业闭源模型,适合不同需求的用户。
国外比较主流的有 OpenAI的ChatGPT和Anthropic的Claude,包含免费和付费功能。国内主流的模型有百度的文心一言,专注中文场景,提供文案生成、代码辅助等功能;讯飞星火聚焦教育领域,提供更贴合教学和语言训练的能力;阿里通义千问专注企业级应用,适合电商、客户服务等场景。
国外开源的模型有: Llama(Meta):支持高效推理和微调,受到开发者青睐。 Mistral:在多任务学习中性能突出,轻量级模型适合资源受限的硬件。 Falcon:优异的生成性能和灵活性。
国内开源模型: ChatGLM(清华大学与智谱合作):针对中文优化,开源灵活,适合科研与本地化部署。 BLOOM(国际团队参与):支持多语言生成,包括中文。
对于国内用户,由于某些众所周知的原因,像 ChatGPT 和 Claude 这样的国外模型可能无法直接使用。这使得本地部署 AI 大语言模型的优势尤为显著。
本地部署 AI 大语言模型是指,将AI大语言模型存储和运行在用户自己的设备或服务器上,而不是使用云端服务(如ChatGPT)。这意味着数据处理、计算等任务都是在用户的本地主机上进行的,而不需要通过互联网连接到远程服务器。
本地部署 AI 模型有这几个优势:
数据隐私保护:本地部署无需上传数据到云端,适合对数据敏感的企业和个人,用户数据不需要上传到服务器,减少了数据泄露和滥用的风险。
成本可控:一次性投入硬件和模型微调,比长期订阅服务更具性价比。
定制化:本地部署支持模型微调,能根据行业需求优化性能,如医疗、法律等领域的垂直应用。组织或个人对模型有完全的控制权,可以根据自身需求进行调整,甚至可以开发自己的业务逻辑。
不依赖网络。无需依赖外网,规避访问受限或中断的风险,无论是Wi-F还是网络限制,都不会对模型性能造成影响。
但是本地部署也有一定的限制,主要是对用户的主机资源有一定要求。目前主流的大语言模型,基本都需要电脑至少有 8 GB 的内存,但目前的个人PC配置,一般都可以满足。
特点:专注于简单的本地化部署,支持一键运行多种模型,尤其是 Llama 系列模型。
易用性:提供用户友好的界面,无需复杂配置,即可快速启动和管理本地 LLM。
推荐场景:个人开发者或小团队需要快速测试或部署模型时使用。
优势:支持多种大模型,提供命令行界面和简单的API接口。适合喜欢使用命令行工具进行操作的用户。
劣势:可能缺乏直观的图形用户界面(GUI),对于新手来说可能不太友好。
适合极简部署
网站简洁,点击下载,选择自己对应的系统,一路安装到底。
安装完后,电脑右下角会有一个小羊驼的标志,说明已经成功运行了。需要注意的是,Ollama默认是开机自动启用的,如果想关掉,需要去开机项修改下。
回到 Ollama 的官网,点击右上方的模型(Models),里面基本涵盖了目前开源的主流大模型,比如 Meta 的 llama3.2,阿里云的千问(qwen2.5),谷歌的 Gemma2,以及李开复团队研发的新 AI 大模型 Yi等。
以 llama3.2 为例,点进去,然后复制右侧的代码。
这里需要注意,默认的模型参数一般是比较合适的,llama3.2比较小,这里的 3b 模型大概是 2.0 GB,1b是1.3GB,如果是llama3.2-vision,下载11b需要7.9GB,90b需要55GB,普通电脑带不起来,这里就按默认的下载即可。
打开电脑的终端,如果是Window系统,话按 Win+R,然后输入 cmd 按回车。
把上面代码粘帖进去,直接运行,就可以开始下载大模型到电脑里。
下载好之后,你就可以在命令行里开始和 AI 大模型对话了. 有几个比较常用的命令。
第一个,查看目前你所有的模型。
## [1] "Ollama list"
第二个,更新模型。
## [1] "ollama pull llama3.2"
到这里,已经可以开始和 AI 对话了。
但是,在命令行的对话无法保存。想要保存的话,我们可以借助 OpenWeb UI,来搭建一个类似 ChatGPT 一样的界面,用于保存和分类我们的大模型对话。
首先,我们需要去下载一个Docker,登陆官网:https://www.docker.com/ , 点击下载,一路安装到底。
接着,前往 Github,搜索 OpenWeb UI,会找到 Ollama 环境下安装 OpenWeb UI 的代码,网址是:https://github.com/open-webui/open-webui
安装完后,Docker 界面就会有新的端口3000:8080,点击它,就会跳转到浏览器,到这一步,就算全部完成了。
现在,可以新建对话,并且选择想要用的大语言模型。