
美中 AI 競賽的新視角:2025 年 Ollama 部署比較與全球 AI 模型趨勢洞察
Ollama 是一個流行的開源工具,旨在簡化在本地運行、創建和分享大型語言模型 (LLMs) 的過程。它將模型權重、配置和數據打包成一個由 Modelfile 定義的套件,並提供 API 以便與這些模型互動。這使得開發者和研究人員能夠輕鬆地在個人電腦或伺服器上部署和實驗各種先進的 AI 模型。
1. 引言
Ollama 是一個流行的開源工具,旨在簡化在本地運行、創建和分享大型語言模型 (LLMs) 的過程。它將模型權重、配置和數據打包成一個由 Modelfile 定義的套件,並提供 API 以便與這些模型互動。這使得開發者和研究人員能夠輕鬆地在個人電腦或伺服器上部署和實驗各種先進的 AI 模型。
本報告旨在透過分析全球部署的 174,590 個 Ollama 實例的數據,揭示部署趨勢、模型偏好、地理分佈和網絡特徵。
注意:第五章和第七章的數據統計來源於全部 174,590 個實例。第六章的數據來源於可訪問的實例。出於安全考慮,我們未列出 Ollama 版本的統計數據。
數據截至:2025 年 4 月 24 日。
報告來源:Tenthe AI https://tenthe.com
作者:Ryan
2. 執行摘要
本報告基於對全球公開可訪問的 Ollama 實例進行掃描數據分析和 API 探測。主要發現包括:
在全球,透過 Fofa 初步識別的約 174,590 筆記錄中(99,412 個獨立 IP),成功探測到 41,021 個 Ollama 實例具備可訪問的 API,分佈在 24,038 個獨立 IP 地址上(可訪問率約為 24.18%)。
從地理上看,美國和中國是 Ollama 部署數量最多的國家。雲服務提供商,特別是 AWS、阿里云和騰訊雲,是 Ollama 實例的主要託管方。
模型部署呈現多樣性,
llama3
、deepseek-r1
、mistral
和qwen
系列模型廣受歡迎。其中,llama3:latest
和deepseek-r1:latest
是部署最廣泛的兩個模型標籤。參數量在 7B-8B 的模型是使用者首選,而 Q4_K_M 和 Q4_0 等 4 位量化模型因在性能和資源消耗之間取得良好平衡而被廣泛採用。
預設端口
11434
是最常用的端口,並且大多數實例透過 HTTP 協議暴露服務。
3. 數據來源與方法
本報告數據主要來源於兩個階段:
初步掃描:使用 Fofa 等網絡空間搜索引擎,以條件
app="Ollama" && is_domain=false
初步識別全球可能部署的 Ollama 實例。此階段發現了 174,590 筆記錄,經去重後涉及 99,412 個獨立 IP。API 驗證與數據豐富:對初步掃描到的 IP 地址探測
ip:port/api/tags
API 端點,以確認 Ollama 服務的可訪問性並獲取已部署的具體 AI 模型信息。此階段確認了 41,021 個成功響應的 Ollama 實例(來自 24,038 個獨立 IP,數據儲存在ollama
表中)。最終數據儲存在
ollama
表中。
本報告的分析主要基於 ollama
表中的數據,該表包含了成功探測到 API 並獲取詳細信息的記錄,包括 IP、端口、地理位置以及 JSON 響應(包含模型列表)等。
4. 總體部署統計
Fofa 初步掃描記錄數:174,590
Fofa 初步掃描獨立 IP 數:99,412
成功訪問
/api/tags
的 Ollama 實例數:41,021(來自ollama
表中status = 'success'
的記錄)對應的獨立 IP 地址數:24,038(來自
ollama
表中status = 'success'
的記錄)可訪問 IP 佔初步識別 IP 的比例:(24038 / 99412) * 100% ≈ 24.18%
這表明在所有透過 Fofa 識別的 Ollama 實例中,約有四分之一的 /api/tags
接口是公開可訪問的,這使得我們能夠檢索它們已部署的模型信息。
5. 地理分佈分析
5.1 部署國家/地區前 20 名
下表顯示了按 Ollama 實例獨立 IP 數量排名的前 20 個國家/地區。
排名 | 國家/地區 | 獨立 IP 數量 |
---|---|---|
1 | 美國 | 29195 |
2 | 中國 | 16464 |
3 | 日本 | 5849 |
4 | 德國 | 5438 |
5 | 英國 | 4014 |
6 | 印度 | 3939 |
7 | 新加坡 | 3914 |
8 | 韓國 | 3773 |
9 | 愛爾蘭 | 3636 |
10 | 法國 | 3599 |
11 | 澳洲 | 3558 |
12 | 巴西 | 2909 |
13 | 加拿大 | 2763 |
14 | 南非 | 2742 |
15 | 瑞典 | 2113 |
16 | 香港特別行政區,中國 | 1277 |
17 | 以色列 | 675 |
18 | 台灣,中國 | 513 |
19 | 俄羅斯 | 475 |
20 | 芬蘭 | 308 |

5.2 全球城市部署前 20 名
下表顯示了按 Ollama 實例獨立 IP 數量排名的全球前 20 個城市。
排名 | 城市 | 國家/地區 | 獨立 IP 數量 |
---|---|---|---|
1 | Ashburn | 美國 | 5808 |
2 | Portland | 美國 | 5130 |
3 | 新加坡 | 新加坡 | 3914 |
4 | Frankfurt am Main | 德國 | 3908 |
5 | 北京 | 中國 | 3906 |
6 | 倫敦 | 英國 | 3685 |
7 | Columbus | 美國 | 3672 |
8 | 孟買 | 印度 | 3637 |
9 | 都柏林 | 愛爾蘭 | 3631 |
10 | 東京 | 日本 | 3620 |
11 | 悉尼 | 澳洲 | 3487 |
12 | 巴黎 | 法國 | 3175 |
13 | 聖荷西 | 美國 | 2815 |
14 | 聖保羅 | 巴西 | 2753 |
15 | 開普敦 | 南非 | 2692 |
16 | 蒙特利爾 | 加拿大 | 2535 |
17 | 西雅圖 | 美國 | 2534 |
18 | 杭州 | 中國 | 2447 |
19 | 首爾 | 韓國 | 2327 |
20 | 大阪 | 日本 | 2184 |
5.3 美國城市部署前 10 名
排名 | 城市 | 獨立 IP 數量 |
---|---|---|
1 | Ashburn | 5808 |
2 | Portland | 5130 |
3 | Columbus | 3672 |
4 | San Jose | 2815 |
5 | Seattle | 2534 |
6 | Westlake Village | 1714 |
7 | Boardman | 855 |
8 | Florence | 776 |
9 | San Francisco | 753 |
10 | Boulder | 642 |

5.4 中國大陸城市部署前 10 名
香港和台灣的部署未反映在此城市排名前 10 名表中,因為它們已包含在國家/地區統計中。
排名 | 城市 | 國家 ( | 獨立 IP 數量 |
---|---|---|---|
1 | 北京 | 中國 | 3906 |
2 | 杭州 | 中國 | 2447 |
3 | 上海 | 中國 | 1335 |
4 | 廣州 | 中國 | 1296 |
5 | 深圳 | 中國 | 768 |
6 | 成都 | 中國 | 469 |
7 | 南京 | 中國 | 329 |
8 | 重慶 | 中國 | 259 |
9 | 蘇州 | 中國 | 257 |
10 | 武漢 | 中國 | 249 |

5.5 美中城市部署前 10 名比較
為了更直觀地比較 Ollama 在美中兩國城市層面的部署情況,下表並列了兩國前 10 大城市的獨立 IP 部署數量:
排名 | 美國城市 (前 10) | 美國獨立 IP 數量 | 中國城市 (前 10) | 中國獨立 IP 數量 |
---|---|---|---|---|
1 | Ashburn | 5808 | 北京 | 3906 |
2 | Portland | 5130 | 杭州 | 2447 |
3 | Columbus | 3672 | 上海 | 1335 |
4 | San Jose | 2815 | 廣州 | 1296 |
5 | Seattle | 2534 | 深圳 | 768 |
6 | Westlake Village | 1714 | 成都 | 469 |
7 | Boardman | 855 | 南京 | 329 |
8 | Florence | 776 | 重慶 | 259 |
9 | San Francisco | 753 | 蘇州 | 257 |
10 | Boulder | 642 | 武漢 | 249 |

簡要評論:
領先城市體量:美國排名前 3 的城市(Ashburn、Portland、Columbus)各自擁有超過 3,000 個獨立 IP 的 Ollama 部署。中國排名第 1 的城市(北京)超過 3,000 個部署,第 2 名的城市(杭州)超過 2,000 個。
技術和經濟中心:兩國列表中的許多城市都是知名的科技創新中心或重要的經濟區域。
數據中心區域:美國城市如 Ashburn 的入榜也反映出 Ollama 實例可能大量部署在雲伺服器和數據中心內。
分佈差異:總體而言,美國前 10 大城市的 IP 總數明顯高於中國前 10 大城市。然而,兩國都顯示出一種模式,即少數核心城市佔據了 Ollama 部署的絕大多數。
這種城市層面的比較進一步揭示了 Ollama 作為一個開發者工具的推廣和應用,與區域的科技生態和產業發展密切相關。
6. 模型分析
6.1 AI 模型、參數和量化簡介
Ollama 支持多種開源大型語言模型。這些模型通常透過以下特徵區分:
6.1.1 常見模型家族
目前的開源社區湧現出許多優秀的 LLM 家族,各有特色:
Llama 系列 (Meta AI): 例如 Llama 2, Llama 3, Code Llama。以其強大的通用能力和廣泛的社區支持而聞名,衍生出大量微調版本。數據中看到的
llama3.1
,hermes3
等模型通常基於 Llama 架構。Mistral 系列 (Mistral AI): 例如 Mistral 7B, Mixtral 8x7B。因其高效和高性能而受到關注,特別是其 MoE (Mixture of Experts) 模型。
Gemma 系列 (Google): 例如 Gemma 2B, Gemma 7B。Google 發布的開源權重模型,技術源自其更強大的 Gemini 模型。
Phi 系列 (Microsoft): 例如 Phi-2, Phi-3。專注於小型但能力強大的模型,強調「SLMs (Small Language Models)」。
DeepSeek 系列 (DeepSeek AI): 例如 DeepSeek Coder, DeepSeek LLM。在編碼和通用任務方面表現優異的中國 AI 模型。
Qwen 系列 (Alibaba Tongyi Qianwen): 例如 Qwen1.5。阿里巴巴達摩院推出的模型系列,支持多語言和多任務。
還有許多其他優秀模型,如 Yi (01.AI), Command R (Cohere) 等。
Ollama 透過其 Modelfile
機制,讓使用者可以輕鬆使用這些基礎模型或其微調版本。模型名稱通常遵循 family:size-variant-quantization
的格式,例如 llama3:8b-instruct-q4_K_M
。
6.1.2 模型參數 (Parameter Size)
模型參數數量(通常以 B - Billion;或 M - Million 為單位)是衡量模型規模和潛在能力的重要指標。常見的參數量包括:
小型模型:< 7B (例如 1.5B, 2B, 3B)。通常運行速度快,資源消耗低,適合特定任務或資源受限環境。
中型模型:7B, 8B, 13B。在能力和資源消耗之間取得良好平衡,是目前社區中最流行的尺寸之一。
大型模型:30B, 33B, 40B, 70B+。通常能力更強,但也需要更多的計算資源(RAM, VRAM)和更長的推理時間。
數據中的 parameter_size
字段(例如 "8.0B", "7B", "134.52M")指示了這一點。
6.1.3 量化版本 (Quantization Level)
量化是一種透過降低模型權重的數值精度(例如從 16 位浮點 FP16 到 4 位整數 INT4),以減少模型大小和加速推理的技術。
常見量化級別:Ollama 和 GGUF 格式(Llama.cpp 使用)支持多種量化策略,例如
Q2_K
,Q3_K_S
,Q3_K_M
,Q3_K_L
,Q4_0
,Q4_K_M
,Q5_K_M
,Q6_K
,Q8_0
等。數字(例如 2, 3, 4, 5, 6, 8)大致表示位數。
K
系列量化(例如Q4_K_M
)是 llama.cpp 中引入的改進量化方法,通常在相同位數下實現更好的性能。_S
,_M
,_L
通常表示 K 量化的不同變體,影響模型的不同部分。F16
(FP16) 表示 16 位浮點,通常被視為未量化或基礎量化版本。F32
(FP32) 是全精度。
權衡:更高的量化(更低的位數)導致模型更小、更快,但通常會伴隨一些性能損失(模型表現變差)。使用者需要根據其硬件和模型質量要求進行選擇。
數據中的 quantization_level
字段(例如 "Q4_K_M", "F16")指示了這一點。
6.2 熱門模型名稱前 10 名
下表顯示了按獨立 IP 部署數量排名的前 10 個模型標籤,包括它們的家族、參數大小和量化級別信息。
排名 | 模型名稱 (model_name) | 獨立 IP 部署數 | 總部署實例數 |
---|---|---|---|
1 |
| 12659 | 24628 |
2 |
| 12572 | 24578 |
3 |
| 11163 | 22638 |
4 |
| 9868 | 21007 |
5 |
| 9845 | 20980 |
6 |
| 4058 | 5016 |
7 |
| 3124 | 3928 |
8 |
| 2856 | 3372 |
9 |
| 2714 | 3321 |
10 |
| 2668 | 3391 |

(注意:獨立 IP 部署數是指至少部署了此模型標籤一個實例的獨立 IP 地址數量。總部署實例數是指此模型標籤在所有 IP 的 models
列表中出現的總次數。一個 IP 可能透過不同方式或記錄多次指向同一個模型標籤,或者一個 IP 可能運行屬於同一個基礎模型但不同標籤的多個實例。)
初步觀察 (熱門模型名稱):
帶有
:latest
標籤的模型非常普遍,例如llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
。這表明許多使用者傾向於直接拉取模型的最新版本。Llama 系列模型(例如
llama3:latest
,llama3:8b-text-q4_K_S
,llama2:latest
,llama3.1:8b
)佔據多個位置,顯示其強大的普及度。deepseek-r1:latest
(DeepSeek 系列) 和qwen:latest
(通義千問系列) 等中國 AI 模型表現也令人矚目,排名靠前。特定的量化版本如
llama3:8b-text-q4_K_S
也進入了前十名,表明使用者對特定性能/資源消耗平衡的偏好。小型模型如
smollm2:135m
和qwen2.5:1.5b
也有相當數量的部署,滿足了輕量級模型的需求。
6.3 熱門模型家族
模型家族 (details.family
字段) 代表了模型的基礎架構或主要技術血統。根據我們的數據分析,以下是部署數量較多的模型家族:
排名 | 模型家族 (family) | 獨立 IP 部署數 (估計) | 總部署實例數 (估計) |
---|---|---|---|
1 |
| ~20250 | ~103480 |
2 |
| ~17881 | ~61452 |
3 |
| ~1479 | ~1714 |
4 |
| ~1363 | ~2493 |
5 |
| ~1228 | ~2217 |
6 |
| ~943 | ~1455 |
7 |
| ~596 | ~750 |
8 |
| ~484 | ~761 |
9 |
| ~368 | ~732 |
10 |
| ~244 | ~680 |

(注意:這裡的具體數值是根據之前查詢到的 Top 50 模型詳細信息列表估計匯總而來,可能與精確的全球統計數據略有差異,但趨勢具有代表性。)
初步觀察 (熱門模型家族):
llama
家族佔據絕對主導地位,這與 Llama 系列模型是許多現代開源 LLM 的基礎及其自身廣泛應用相符。其龐大的生態系統和眾多微調版本使其成為最受歡迎的選擇。qwen2
(通義千問 Qwen2 系列) 作為第二大家族,顯示了其在中國乃至全球的強勁競爭力。nomic-bert
和bert
的出現值得注意。儘管它們通常不被歸類為「大型語言模型」(對話式),而是文本嵌入或其他自然語言處理的基礎模型,它們的高部署量表明 Ollama 也被廣泛用於此類任務。Ollama 在執行某些操作(如生成嵌入向量)時會自動下載一個預設的嵌入模型(例如nomic-embed-text
),這可能是這些家族排名靠前的主要原因。Google 的
gemma
系列(包括gemma3
,gemma
,gemma2
)也顯示出不錯的採用率。其他知名模型家族如
deepseek2
和phi3
也進入了前十名。mllama
可能代表了各種基於 Llama 的混合、修改或社區命名的模型集合。
6.4 熱門原始參數大小統計
模型參數大小 (details.parameter_size
字段) 是衡量模型規模的重要指標。由於原始數據中參數大小的表示方式多樣(例如 "8.0B", "7B", "134.52M"),我們直接統計這些原始字符串。以下是部署數量較多的參數大小表示:
排名 | 參數大小 (原始字符串) | 獨立 IP 部署數 (估計) | 總部署實例數 (估計) |
---|---|---|---|
1 |
| ~14480 | ~52577 |
2 |
| ~14358 | ~28105 |
3 |
| ~11233 | ~22907 |
4 |
| ~9895 | ~21058 |
5 |
| ~4943 | ~11738 |
6 |
| ~4062 | ~5266 |
7 |
| ~2759 | ~3596 |
8 |
| ~2477 | ~3311 |
9 |
| ~2034 | ~2476 |
10 |
| ~1553 | ~2244 |
11 |
| ~1477 | ~1708 |
12 |
| ~1421 | ~2000 |
13 |
| ~1254 | ~2840 |
14 |
| ~1123 | ~2091 |
15 |
| ~943 | ~1194 |

(注意:數值是根據之前查詢到的 Top 50 模型詳細信息列表中的參數信息匯總估計而來。)
初步觀察 (熱門參數大小):
7B 到 8B 規模的模型是絕對主流:"8.0B", "7.6B", "7.2B", "7B" 佔據了絕大多數部署。這通常對應於社區中非常流行的模型,如 Llama 2/3 的 7B/8B 系列、Mistral 7B 等及其各種微調版本。它們在性能和資源消耗之間取得了良好的平衡。
4B 規模的模型也佔據重要位置:"4B" 的高部署量值得關注。
百萬參數級別 (M) 的輕量級模型廣泛存在:"134.52M" 和 "137M" 的高排名可能與嵌入模型(如
nomic-embed-text
)或非常小型的專用模型(如smollm
系列)的普及有關。這些模型體積小、速度快,適合資源受限或延遲敏感的場景。1B-4B 範圍的小型模型需求穩定:參數大小為 "1.5B", "1.8B", "3.2B", "4.3B" 的模型也受到一部分使用者青睞。
10B 以上的大型模型:如 "13B", "12.2B", "32.8B", "14.8B",雖然獨立 IP 部署數不如 7-8B 級別多,但也有相當的部署體量,表明社區對更強大模型的需求依然存在,儘管它們的硬件要求更高。
6.5 熱門量化級別統計
模型量化級別 (details.quantization_level
字段) 反映了模型為減小體積和加速推理而採用的權重精度。以下是部署數量較多的量化級別:
排名 | 量化級別 (原始字符串) | 獨立 IP 部署數 (估計) | 總部署實例數 (估計) |
---|---|---|---|
1 |
| ~20966 | ~53688 |
2 |
| ~18385 | ~88653 |
3 |
| ~9860 | ~21028 |
4 |
| ~5793 | ~9837 |
5 |
| ~596 | ~1574 |
6 |
| ~266 | ~1318 |
7 |
| ~97 | ~283 |
8 |
| ~85 | ~100 |
9 |
| ~60 | ~178 |
10 |
| ~54 | ~140 |

(注意:數值是根據之前查詢到的 Top 50 模型詳細信息列表中的量化信息匯總估計而來。)
初步觀察 (熱門量化級別):
4 位量化是主流方案:
Q4_K_M
,Q4_0
和Q4_K_S
這三種 4 位量化級別絕對領先。這清楚地表明社區廣泛採用 4 位量化作為在模型性能、推理速度和資源佔用(特別是 VRAM)之間取得最佳平衡的首選方案。F16
(16 位浮點) 仍佔有一席之地:作為未量化(或僅基礎量化)的版本,F16
的高部署量顯示相當一部分使用者為了追求最高的模型保真度或因擁有充足的硬件資源而選擇它。Q8_0
(8 位量化) 作為補充選項:提供了介於 4 位和F16
之間的選擇。unknown
值的出現:表明某些模型元數據中缺少或非標準的量化級別信息。
6.6 AI 算力分佈 (按模型參數大小):中國 vs 美國
為了更深入地了解不同規模的模型在主要國家的部署情況,我們對美國和中國 Ollama 實例上部署的模型的參數大小進行了分類和統計。參數大小通常被視為衡量模型複雜度和潛在 AI 算力需求的重要指標。
參數規模分類標準:
小型: < 10 億參數 (< 1B)
中型: 10 億到 < 100 億參數 (1B to < 10B)
大型: 100 億到 < 500 億參數 (10B to < 50B)
超大型: >= 500 億參數 (>= 50B)
下表顯示了在美國和中國部署不同參數規模模型的獨立 IP 數量:
國家 | 參數規模類別 | 獨立 IP 數量 |
---|---|---|
中國 | 小型 (<1B) | 3313 |
中國 | 中型 (1B to <10B) | 4481 |
中國 | 大型 (10B to <50B) | 1548 |
中國 | 超大型 (>=50B) | 280 |
美國 | 小型 (<1B) | 1368 |
美國 | 中型 (1B to <10B) | 6495 |
美國 | 大型 (10B to <50B) | 1301 |
美國 | 超大型 (>=50B) | 58 |
--China-vs-USA.jpeg)
數據洞察與分析:
中型模型是主流,但側重點不同:
美國:中型模型 (1B-10B) 的部署在美國佔據絕對主導地位 (6495 個獨立 IP)。
中國:中型模型 (4481 個獨立 IP) 也是中國部署最多的類型,但小型模型 (<1B) 在中國的部署 (3313 個獨立 IP) 非常可觀。
小型模型差異顯著:中國大量部署小型模型可能反映了對邊緣計算、移動 AI 應用及類似場景的偏好。
大型及超大型模型部署:中國在探索大型和超大型模型方面顯示出更高的活躍度(儘管基數相對較小)。
對整體算力投入的推斷:美國在中型模型的基礎顯示了實際 AI 應用的普及程度。中國在小型模型方面有優勢,並積極探索大型模型。
對全球趨勢的啟示:中型模型可能是全球範圍內的流行選擇。不同地區可能根據其生態系統和資源條件,在模型採用策略上有所差異。
透過對中國和美國的模型參數規模進行細分,我們可以看出 Ollama 應用在這兩個國家不同的側重點和發展潛力。
7. 網絡洞察
7.1 端口使用情況
11434
(預設端口):絕大多數 (30,722 個獨立 IP) 的 Ollama 實例運行在預設端口11434
上。其他常用端口:
80
(1,619 個獨立 IP),8080
(1,571 個獨立 IP),443
(1,339 個獨立 IP) 等端口也被使用,這可能表明一些實例部署在反向代理之後或使用者自定義了端口。
7.2 協議使用情況
HTTP:約有 65,506 個獨立 IP 的實例透過 HTTP 協議提供服務。
HTTPS:約有 43,765 個獨立 IP 的實例透過 HTTPS 協議提供服務。
大多數實例仍然透過未加密的 HTTP 暴露,這可能帶來一定的安全風險。(請注意:一個 IP 可能同時支持 HTTP 和 HTTPS,因此這裡的 IP 數量總和可能超過獨立 IP 總數)
7.3 主要託管提供商 (AS 組織)
Ollama 實例託管高度集中在雲服務提供商中。
排名 | AS 組織 | 獨立 IP 數量 | 主要相關提供商 |
---|---|---|---|
1 | AMAZON-02 | 53658 | AWS |
2 | AMAZON-AES | 5539 | AWS |
3 | Chinanet | 4964 | 中國電信 |
4 | Hangzhou Alibaba Advertising Co.,Ltd. | 2647 | 阿里云 |
5 | HENGTONG-IDC-LLC | 2391 | 託管提供商 |
6 | Shenzhen Tencent Computer Systems Company Limited | 1682 | 騰訊雲 |
7 | CHINA UNICOM China169 Backbone | 1606 | 中國聯通 |
8 | Hetzner Online GmbH | 972 | Hetzner |
9 | China Unicom Beijing Province Network | 746 | 中國聯通 (北京) |
10 | LEASEWEB-USA-LAX | 735 | Leaseweb |

AWS (AMAZON-02, AMAZON-AES) 佔據最大份額,其次是中國主要的電信運營商和雲服務提供商(如阿里云、騰訊雲)。其他託管提供商如 Hetzner 和 Leaseweb 也佔有相當的份額。
8. 安全及其他觀察
版本信息:出於安全考慮,我們未列出 Ollama 版本的統計數據。
HTTP 暴露風險:如前所述,大量 Ollama 實例透過 HTTP 暴露且未加密 TLS,這可能導致通訊內容(例如與模型的互動)容易被竊聽或篡改。建議使用者配置反向代理並啟用 HTTPS。
API 可訪問性:本報告的數據基於
/api/tags
接口公開可訪問的 Ollama 實例。實際的部署數量可能更高,但部分實例可能部署在私有網絡中或被防火牆限制了外部訪問。
9. 結論與簡要回顧
本報告透過分析全球公開可訪問的 99,412 個 Ollama 實例(透過其 /api/tags
接口)的數據,得出以下主要結論和觀察:
1. 全球部署概況與地理分佈:
Ollama 作為一個方便在本地運行大型模型的工具,已在全球範圍內得到廣泛部署。本次分析識別出 99,412 個公開可訪問的獨立 IP。
地理高度集中:美國和中國是 Ollama 部署最集中的兩個國家/地區,兩者合計佔總可訪問實例的很大一部分(美國 29,195 個,中國 16,464 個)。日本、德國、英國、印度、新加坡等國家也有顯著的部署數量。
城市熱點:在美國,Ashburn、Portland、Columbus 等城市在部署數量上領先;在中國,北京、杭州、上海、廣州等科技發達城市是主要的部署地點。這通常與科技公司、數據中心和開發者社區的集中有關。
2. AI 模型部署趨勢:
熱門模型標籤:
llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
等通用最新標籤最受歡迎。特定優化版本如llama3:8b-text-q4_K_S
也因其良好的平衡性而受青睞。主導模型家族:
llama
家族以絕對優勢領先,其次是qwen2
。嵌入模型家族如nomic-bert
和bert
的高排名值得注意,可能與 Ollama 的預設行為有關。參數大小偏好:7B-8B 參數的模型是目前主流。百萬參數級別的輕量級模型和 10B 以上的大型模型也各有市場。美中對比顯示,美國部署了更多中型模型,而中國在小型和超大型模型的探索上更為活躍。
量化級別選擇:4 位量化(特別是
Q4_K_M
和Q4_0
)是壓倒性的選擇。F16
作為更高保真度的選項,也佔有重要地位。元數據複雜性:對模型元數據的分析(例如對模型家族字段的解讀)有時會顯示出其記錄與模型名稱或普遍理解之間的複雜性,突顯了開源生態系統中元數據管理的多元性。
3. 技術基礎設施:
託管環境:大量 Ollama 實例託管在主流雲服務提供商如 AWS、阿里云、騰訊雲以及各國主要電信運營商的網絡中。
服務端口:Ollama 的預設端口
11434
是最常用的,但也有相當數量的實例透過標準 Web 端口暴露。
4. 客觀評估:
Ollama 的普及度:數據清楚地顯示了 Ollama 在全球開發者和 AI 愛好者中的高採用率。
開源生態的活力:熱門模型的多樣性以及各種參數和量化版本的廣泛使用,反映了開源 AI 模型生態的蓬勃發展。
使用者偏好的平衡:使用者在選擇模型時傾向於在模型能力、運行效率和硬件成本之間尋求平衡。
安全與開放性:大量實例允許公開訪問其模型列表,這在方便社區的同時,也可能帶來安全風險。
5. 未來展望:
隨著更高效、更小型模型的湧現以及量化技術的進一步發展,Ollama 的部署門檻預計將持續降低。
模型元數據的標準化以及社區共享模型的規範化,對提升生態系統的透明度和可用性至關重要。
總之,Ollama 正成為連接前沿大型語言模型與廣大開發者、研究人員乃至普通使用者之間的重要橋樑。本次數據分析為了解其當前全球部署狀況和使用者偏好提供了有價值的洞察。
評論
comments.comments (0)
Please login first
Sign in