# 关于 ollama 的 11434 等端口 的“漏洞” *开源技术栏* Ollama 11434 端口安全漏洞 无需担心,11434 无 apikey 导致算力泄露事件的问题 我们提供了完整的分析及解决方案 ## 目录 [TOC]  # 一、安全风险原因 > 请注意,此问题几乎无法对服务器造成任何伤害,不必因此惊慌,营销号傻*,将此问题夸大其词,如果您完全知道如何处理此问题,请移步~ > 本教程虽然探讨的是关于 ollama 的 11434 端口泄露问题,本质上都是端口无校验导致的问题,此文章适用于所有端口无校验因此的算力或数据泄露情况! ## 1 无APIKey验证机制 Ollama默认开放的11434端口未强制要求APIKey验证,任何能访问该端口的客户端均可直接调用API接口4。这使得攻击者可通过扫描IP和端口发起未授权访问,导致模型滥用、数据泄露或服务资源耗尽1。 ## 2 暴露敏感操作接口 该端口提供模型管理、生成等核心功能,若未设防,攻击者可: ## 3 任意下载/删除模型 窃取生成内容 发起DDoS攻击导致服务瘫痪 默认网络配置宽松 部分部署场景下(如Docker容器),11434端口可能直接暴露在公网,加剧风险2。 # 二、修复方案 ## 1 网络层防护 ``` # 使用防火墙限制访问IP(示例) sudo ufw allow from 192.168.1.0/24 to any port 11434 ``` 通过IP白名单机制限制访问范围,仅允许可信网络访问2。 ## 2 反向代理+认证 使用Nginx添加Basic Auth: ``` server { listen 443 ssl; location / { proxy_pass http://localhost:11434; auth_basic "Ollama API"; auth_basic_user_file /etc/nginx/.htpasswd; } } ``` 生成密码文件:`htpasswd -c /etc/nginx/.htpasswd username` ## 3 容器化部署增强 在docker-compose中配置网络策略: ``` Yaml services: ollama: networks: - internal_network environment: - OLLAMA_HOST=0.0.0.0:11434 networks: internal_network: internal: true ``` 禁止外部直接访问,仅允许内部服务通信。 ## 4 客户端集成认证 调用时添加自定义Header: ```Python import requests response = requests.post( "http://localhost:11434/api/generate", headers={"Authorization": "Bearer YOUR_API_KEY"}, json={"model": "llama2", "prompt": "Hello"} ) ``` 需配合服务端中间件进行验证。当发现携带信息不符合 直接不处理! ## 5 更换云或其它本地框架 您可以更换使用 [码本API](https://www.lingyuzhao.top/b/Article/377388518747589),也可以使用其它的三方框架,他们或许提供了一些更好的方案! ------ ***操作记录*** 作者:[zhao](https://www.lingyuzhao.top//index.html?search=4 "zhao") 操作时间:2025-03-14 17:43:31 星期五 【时区:UTC 8】 事件描述备注:保存/发布 中国 天津 [](如果不需要此记录可以手动删除,每次保存都会自动的追加记录)