浏览器免费调用本地大模型API 无需显卡

随着人工智能AI的发展,互联网的基本工具浏览器亟需智能化。但大部分用户无法获取使用高端显卡,本地部署困难也不经济,这里讲述使用云端模型本地无显卡部署方案。
  • 品牌型号:X86平台inter,amd,海光cpu
  • 系统版本:Windows10,11
  • 软件版本:Ollama0.12以上
  • 爱问经验方法/步骤

    1/6分步阅读

    从官网下载安装Ollama版本0.12以上,当前最新版本0.12.3,下载地址http://ollama.com/download,大多数小白使用Windows系统,这里下载Windows版本即可。下载后得到OllamaSetp.exe,直接运行安装就可以了,这里不再累述

    [图]2/6

    运行Ollama主程序,打开图形界面,有多种大模型可以选择,注意:模型列表右侧有下载图标的,是把模型下载到本地部署,根据显卡显存容量选择适当的大模型。对于没有高端显卡的友友们,直接选择云端大模型体验满血版,由于我们主要面对浏览器自动化处理,推荐选择coder版大模型效果更好。这里选择阿里的qwen3-coder:480b-cloud

    [图]3/6

    选择云端大模型后,Ollama要求我们登录账号,如果你还没有账号,点击注册一个新账号就可以了,这一切都是免费的哦。

    [图]4/6

    Ollama云端大模型部署完毕,其本地API已默认开启,浏览器如何调用API呢?打开木头AI浏览器,进入系统设置。

    [图]5/6

    在智能控制设置中,选择Ollama Api,调用本地http://localhost:11434端口,浏览器自动加载当前可用的大模型列表,同样选择云端大模型qwen3-coder:480b-cloud.

    [图]6/6

    最后我们测试一下效果吧,打开浏览器Ai控制窗口,输入提示词“打开闲鱼二手网站”,浏览器调用本地Ai大模型接口,获取完成操作需要的代码,并执行代码完成操作。

    [图]

    注意事项

    对于需要重复执行的操作,重复调用大模型效率低时间长,我们可以保存代码为项目文件,以后就可以直接执行操作而无需调用大模型了。

    编辑于2025-10-01,内容仅供参考并受版权保护

    分享经验:https://www.sinaiask.com/sina/b7001fe11617774f7282dde2.html