在当下大模型技术风靡的时代,越来越多的爱好者和开发者开始关注本地部署的大型语言模型工具,如 Ollama。有些用户在互联网上开放了该工具的 11434 端口,允许远程调用。本文将介绍如何利用 FOFA 搜索到这些部署的 Ollama 接口,并通过 ChatBox 或 Cherry Studio 等可视化工具进行交互。同时,我们将探讨如何防止本地部署被他人远程利用。
1. 通过 FOFA 查询开放的 Ollama 接口
FOFA 是一款强大的网络空间搜索引擎,可以帮助我们筛选出全球范围内公开暴露的服务。针对部署了 Ollama 的机器,如果其服务配置不当(例如绑定到 0.0.0.0
且防火墙规则松散),则可能被 FOFA 搜索到。
FOFA地址:https://fofa.info/
1.1 搜索语法示例
例如,使用如下 FOFA 查询语句来查找开放 11434 端口并返回状态码为 200 的目标:
port="11434" && status_code="200"
通过这种方式,你可以初步定位到那些“白嫖”部署了 Ollama 服务的目标计算机。
2. 利用 ChatBox 或 Cherry Studio 进行交互
查询到开放接口后,可以尝试使用可视化客户端与这些接口进行交互。市面上常见的两款工具是 ChatBox 和 Cherry Studio。
2.1 ChatBox 的使用
ChatBox 是一个简洁的 AI 客户端,支持直接调用 Ollama 部署的模型进行文本对话。操作步骤如下:
- 下载并安装
从 ChatBox 官网 下载适合你操作系统的客户端版本并安装。 配置 API 接口
在 ChatBox 的设置中,将 API 地址配置为目标机器的地址,例如:http://目标IP:11434/
如果目标接口无需认证,则直接保存即可。
- 选择模型并开始对话
2.2 Cherry Studio 的使用
Cherry Studio 是一款功能强大的 AI 客户端,支持对话等多种应用。基本操作步骤如下:
- 安装 Cherry Studio
访问 Cherry Studio 官网,下载并安装客户端。 配置 Ollama 接口
在 Cherry Studio 客户端中,进入“设置” → “模型服务” → 选择 Ollama,将 API 地址设置为:http://目标IP:11434
如果目标部署不需要 API 密钥,则直接保存;否则,请输入相应的凭证。
- 添加并验证模型
进入模型管理页面,添加目标模型(例如“deepseek-r1:1.5b”),点击“检查连接”,确保连接成功,提示“连接成功”后即可使用。
3. 如何防止自己的本地部署被别人远程利用
如果你在本地部署了 Ollama 模型服务,并不希望被他人随意访问,可以参考以下安全措施,并按照新手步骤操作:
3.1 限制监听地址
操作步骤(以 Linux 为例):
- 查找配置文件
找到 Ollama 服务的配置文件(如/etc/ollama/config.conf
),查找绑定地址设置。 修改绑定地址
将绑定地址修改为127.0.0.1
:bind_address = 127.0.0.1 port = 11434
保存并重启服务
保存配置文件后,运行:sudo systemctl restart ollama
这样,服务只在本机上监听,外部无法直接访问。
3.2 配置防火墙规则
Windows 环境:
- 打开“控制面板” → “系统和安全” → “Windows Defender 防火墙”,点击“高级设置”。
- 创建新的入站规则,选择“端口”,指定 TCP 和端口号 11434。
- 选择“允许连接”,在“远程IP地址”中添加信任的内网 IP 段(如
192.168.1.0/24
)。 - 保存规则,其他 IP 的访问请求将被拒绝。
Linux 环境(以 ufw 为例):
启用 ufw:
sudo ufw enable
允许局域网内 IP 访问:
sudo ufw allow from 192.168.1.0/24 to any port 11434
如果默认策略不是拒绝,可以添加拒绝规则:
sudo ufw deny 11434
查看规则确认:
sudo ufw status verbose
3.3 启用认证和访问控制
如果服务必须对外开放,可以在应用层添加身份验证:
- 基于 Node.js/Express 的简单认证: 使用
basic-auth
模块,添加认证中间件。 - Web 服务器(Apache/Nginx)配置基本认证: 通过
htpasswd
工具生成密码文件,并在配置中启用基本认证。
3.4 使用反向代理等方式
如有需要,可以使用 Nginx 或 Apache 反向代理配置,提高安全性。
结语
通过本文,我们了解了如何利用 FOFA 搜索到互联网上“白嫖”部署的 Ollama 服务计算机,并通过可视化工具进行交互体验。同时,提供了详细的安全措施,帮助用户保护自己的本地部署不被他人远程利用。
希望这篇文章对你有所帮助,既能让你在“白嫖”免费资源时学到技术,也能在保护自己服务安全方面提供参考。如有更多疑问或建议,欢迎在评论区交流!