Tenthe ai directory logo
美中 AI 競賽的新視角:2025 年 Ollama 部署比較與全球 AI 模型趨勢洞察

美中 AI 競賽的新視角:2025 年 Ollama 部署比較與全球 AI 模型趨勢洞察

Ryan@ryan
0 瀏覽次數0 評論

Ollama 是一個流行的開源工具,旨在簡化在本地運行、創建和分享大型語言模型 (LLMs) 的過程。它將模型權重、配置和數據打包成一個由 Modelfile 定義的套件,並提供 API 以便與這些模型互動。這使得開發者和研究人員能夠輕鬆地在個人電腦或伺服器上部署和實驗各種先進的 AI 模型。

1. 引言

Ollama 是一個流行的開源工具,旨在簡化在本地運行、創建和分享大型語言模型 (LLMs) 的過程。它將模型權重、配置和數據打包成一個由 Modelfile 定義的套件,並提供 API 以便與這些模型互動。這使得開發者和研究人員能夠輕鬆地在個人電腦或伺服器上部署和實驗各種先進的 AI 模型。

本報告旨在透過分析全球部署的 174,590 個 Ollama 實例的數據,揭示部署趨勢、模型偏好、地理分佈和網絡特徵。

注意:第五章和第七章的數據統計來源於全部 174,590 個實例。第六章的數據來源於可訪問的實例。出於安全考慮,我們未列出 Ollama 版本的統計數據。

  • 數據截至:2025 年 4 月 24 日。

  • 報告來源:Tenthe AI https://tenthe.com

  • 作者:Ryan

2. 執行摘要

本報告基於對全球公開可訪問的 Ollama 實例進行掃描數據分析和 API 探測。主要發現包括:

  • 在全球,透過 Fofa 初步識別的約 174,590 筆記錄中(99,412 個獨立 IP),成功探測到 41,021 個 Ollama 實例具備可訪問的 API,分佈在 24,038 個獨立 IP 地址上(可訪問率約為 24.18%)。

  • 從地理上看,美國和中國是 Ollama 部署數量最多的國家。雲服務提供商,特別是 AWS、阿里云和騰訊雲,是 Ollama 實例的主要託管方。

  • 模型部署呈現多樣性,llama3deepseek-r1mistralqwen 系列模型廣受歡迎。其中,llama3:latestdeepseek-r1:latest 是部署最廣泛的兩個模型標籤。

  • 參數量在 7B-8B 的模型是使用者首選,而 Q4_K_M 和 Q4_0 等 4 位量化模型因在性能和資源消耗之間取得良好平衡而被廣泛採用。

  • 預設端口 11434 是最常用的端口,並且大多數實例透過 HTTP 協議暴露服務。

3. 數據來源與方法

本報告數據主要來源於兩個階段:

  1. 初步掃描:使用 Fofa 等網絡空間搜索引擎,以條件 app="Ollama" && is_domain=false 初步識別全球可能部署的 Ollama 實例。此階段發現了 174,590 筆記錄,經去重後涉及 99,412 個獨立 IP。

  2. API 驗證與數據豐富:對初步掃描到的 IP 地址探測 ip:port/api/tags API 端點,以確認 Ollama 服務的可訪問性並獲取已部署的具體 AI 模型信息。此階段確認了 41,021 個成功響應的 Ollama 實例(來自 24,038 個獨立 IP,數據儲存在 ollama 表中)。

  3. 最終數據儲存在 ollama 表中。

本報告的分析主要基於 ollama 表中的數據,該表包含了成功探測到 API 並獲取詳細信息的記錄,包括 IP、端口、地理位置以及 JSON 響應(包含模型列表)等。

4. 總體部署統計

  • Fofa 初步掃描記錄數:174,590

  • Fofa 初步掃描獨立 IP 數:99,412

  • 成功訪問 /api/tags 的 Ollama 實例數41,021(來自 ollama 表中 status = 'success' 的記錄)

  • 對應的獨立 IP 地址數24,038(來自 ollama 表中 status = 'success' 的記錄)

  • 可訪問 IP 佔初步識別 IP 的比例:(24038 / 99412) * 100% ≈ 24.18%

這表明在所有透過 Fofa 識別的 Ollama 實例中,約有四分之一的 /api/tags 接口是公開可訪問的,這使得我們能夠檢索它們已部署的模型信息。

5. 地理分佈分析

5.1 部署國家/地區前 20 名

下表顯示了按 Ollama 實例獨立 IP 數量排名的前 20 個國家/地區。

排名

國家/地區

獨立 IP 數量

1

美國

29195

2

中國

16464

3

日本

5849

4

德國

5438

5

英國

4014

6

印度

3939

7

新加坡

3914

8

韓國

3773

9

愛爾蘭

3636

10

法國

3599

11

澳洲

3558

12

巴西

2909

13

加拿大

2763

14

南非

2742

15

瑞典

2113

16

香港特別行政區,中國

1277

17

以色列

675

18

台灣,中國

513

19

俄羅斯

475

20

芬蘭

308

Ollama 部署國家/地區前 20 名

5.2 全球城市部署前 20 名

下表顯示了按 Ollama 實例獨立 IP 數量排名的全球前 20 個城市。

排名

城市

國家/地區

獨立 IP 數量

1

Ashburn

美國

5808

2

Portland

美國

5130

3

新加坡

新加坡

3914

4

Frankfurt am Main

德國

3908

5

北京

中國

3906

6

倫敦

英國

3685

7

Columbus

美國

3672

8

孟買

印度

3637

9

都柏林

愛爾蘭

3631

10

東京

日本

3620

11

悉尼

澳洲

3487

12

巴黎

法國

3175

13

聖荷西

美國

2815

14

聖保羅

巴西

2753

15

開普敦

南非

2692

16

蒙特利爾

加拿大

2535

17

西雅圖

美國

2534

18

杭州

中國

2447

19

首爾

韓國

2327

20

大阪

日本

2184

5.3 美國城市部署前 10 名

排名

城市

獨立 IP 數量

1

Ashburn

5808

2

Portland

5130

3

Columbus

3672

4

San Jose

2815

5

Seattle

2534

6

Westlake Village

1714

7

Boardman

855

8

Florence

776

9

San Francisco

753

10

Boulder

642

Ollama 美國城市部署前 10 名

5.4 中國大陸城市部署前 10 名

香港和台灣的部署未反映在此城市排名前 10 名表中,因為它們已包含在國家/地區統計中。

排名

城市

國家 (country_name)

獨立 IP 數量

1

北京

中國

3906

2

杭州

中國

2447

3

上海

中國

1335

4

廣州

中國

1296

5

深圳

中國

768

6

成都

中國

469

7

南京

中國

329

8

重慶

中國

259

9

蘇州

中國

257

10

武漢

中國

249

Ollama 全球城市部署前 20 名

5.5 美中城市部署前 10 名比較

為了更直觀地比較 Ollama 在美中兩國城市層面的部署情況,下表並列了兩國前 10 大城市的獨立 IP 部署數量:

排名

美國城市 (前 10)

美國獨立 IP 數量

中國城市 (前 10)

中國獨立 IP 數量

1

Ashburn

5808

北京

3906

2

Portland

5130

杭州

2447

3

Columbus

3672

上海

1335

4

San Jose

2815

廣州

1296

5

Seattle

2534

深圳

768

6

Westlake Village

1714

成都

469

7

Boardman

855

南京

329

8

Florence

776

重慶

259

9

San Francisco

753

蘇州

257

10

Boulder

642

武漢

249

Ollama 美中城市部署前 10 名比較

簡要評論:

  • 領先城市體量:美國排名前 3 的城市(Ashburn、Portland、Columbus)各自擁有超過 3,000 個獨立 IP 的 Ollama 部署。中國排名第 1 的城市(北京)超過 3,000 個部署,第 2 名的城市(杭州)超過 2,000 個。

  • 技術和經濟中心:兩國列表中的許多城市都是知名的科技創新中心或重要的經濟區域。

  • 數據中心區域:美國城市如 Ashburn 的入榜也反映出 Ollama 實例可能大量部署在雲伺服器和數據中心內。

  • 分佈差異:總體而言,美國前 10 大城市的 IP 總數明顯高於中國前 10 大城市。然而,兩國都顯示出一種模式,即少數核心城市佔據了 Ollama 部署的絕大多數。

這種城市層面的比較進一步揭示了 Ollama 作為一個開發者工具的推廣和應用,與區域的科技生態和產業發展密切相關。

6. 模型分析

6.1 AI 模型、參數和量化簡介

Ollama 支持多種開源大型語言模型。這些模型通常透過以下特徵區分:

6.1.1 常見模型家族

目前的開源社區湧現出許多優秀的 LLM 家族,各有特色:

  • Llama 系列 (Meta AI): 例如 Llama 2, Llama 3, Code Llama。以其強大的通用能力和廣泛的社區支持而聞名,衍生出大量微調版本。數據中看到的 llama3.1, hermes3 等模型通常基於 Llama 架構。

  • Mistral 系列 (Mistral AI): 例如 Mistral 7B, Mixtral 8x7B。因其高效和高性能而受到關注,特別是其 MoE (Mixture of Experts) 模型。

  • Gemma 系列 (Google): 例如 Gemma 2B, Gemma 7B。Google 發布的開源權重模型,技術源自其更強大的 Gemini 模型。

  • Phi 系列 (Microsoft): 例如 Phi-2, Phi-3。專注於小型但能力強大的模型,強調「SLMs (Small Language Models)」。

  • DeepSeek 系列 (DeepSeek AI): 例如 DeepSeek Coder, DeepSeek LLM。在編碼和通用任務方面表現優異的中國 AI 模型。

  • Qwen 系列 (Alibaba Tongyi Qianwen): 例如 Qwen1.5。阿里巴巴達摩院推出的模型系列,支持多語言和多任務。

  • 還有許多其他優秀模型,如 Yi (01.AI), Command R (Cohere) 等。

Ollama 透過其 Modelfile 機制,讓使用者可以輕鬆使用這些基礎模型或其微調版本。模型名稱通常遵循 family:size-variant-quantization 的格式,例如 llama3:8b-instruct-q4_K_M

6.1.2 模型參數 (Parameter Size)

模型參數數量(通常以 B - Billion;或 M - Million 為單位)是衡量模型規模和潛在能力的重要指標。常見的參數量包括:

  • 小型模型:< 7B (例如 1.5B, 2B, 3B)。通常運行速度快,資源消耗低,適合特定任務或資源受限環境。

  • 中型模型:7B, 8B, 13B。在能力和資源消耗之間取得良好平衡,是目前社區中最流行的尺寸之一。

  • 大型模型:30B, 33B, 40B, 70B+。通常能力更強,但也需要更多的計算資源(RAM, VRAM)和更長的推理時間。

數據中的 parameter_size 字段(例如 "8.0B", "7B", "134.52M")指示了這一點。

6.1.3 量化版本 (Quantization Level)

量化是一種透過降低模型權重的數值精度(例如從 16 位浮點 FP16 到 4 位整數 INT4),以減少模型大小和加速推理的技術。

  • 常見量化級別:Ollama 和 GGUF 格式(Llama.cpp 使用)支持多種量化策略,例如 Q2_K, Q3_K_S, Q3_K_M, Q3_K_L, Q4_0, Q4_K_M, Q5_K_M, Q6_K, Q8_0 等。

    • 數字(例如 2, 3, 4, 5, 6, 8)大致表示位數。

    • K 系列量化(例如 Q4_K_M)是 llama.cpp 中引入的改進量化方法,通常在相同位數下實現更好的性能。

    • _S, _M, _L 通常表示 K 量化的不同變體,影響模型的不同部分。

    • F16 (FP16) 表示 16 位浮點,通常被視為未量化或基礎量化版本。F32 (FP32) 是全精度。

  • 權衡:更高的量化(更低的位數)導致模型更小、更快,但通常會伴隨一些性能損失(模型表現變差)。使用者需要根據其硬件和模型質量要求進行選擇。

數據中的 quantization_level 字段(例如 "Q4_K_M", "F16")指示了這一點。

6.2 熱門模型名稱前 10 名

下表顯示了按獨立 IP 部署數量排名的前 10 個模型標籤,包括它們的家族、參數大小和量化級別信息。

排名

模型名稱 (model_name)

獨立 IP 部署數

總部署實例數

1

llama3:latest

12659

24628

2

deepseek-r1:latest

12572

24578

3

mistral:latest

11163

22638

4

qwen:latest

9868

21007

5

llama3:8b-text-q4_K_S

9845

20980

6

smollm2:135m

4058

5016

7

llama2:latest

3124

3928

8

hermes3:8b

2856

3372

9

llama3.1:8b

2714

3321

10

qwen2.5:1.5b

2668

3391

Ollama 熱門模型名稱前 10 名

(注意:獨立 IP 部署數是指至少部署了此模型標籤一個實例的獨立 IP 地址數量。總部署實例數是指此模型標籤在所有 IP 的 models 列表中出現的總次數。一個 IP 可能透過不同方式或記錄多次指向同一個模型標籤,或者一個 IP 可能運行屬於同一個基礎模型但不同標籤的多個實例。)

初步觀察 (熱門模型名稱):

  • 帶有 :latest 標籤的模型非常普遍,例如 llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest。這表明許多使用者傾向於直接拉取模型的最新版本。

  • Llama 系列模型(例如 llama3:latest, llama3:8b-text-q4_K_S, llama2:latest, llama3.1:8b)佔據多個位置,顯示其強大的普及度。

  • deepseek-r1:latest (DeepSeek 系列) 和 qwen:latest (通義千問系列) 等中國 AI 模型表現也令人矚目,排名靠前。

  • 特定的量化版本如 llama3:8b-text-q4_K_S 也進入了前十名,表明使用者對特定性能/資源消耗平衡的偏好。

  • 小型模型如 smollm2:135mqwen2.5:1.5b 也有相當數量的部署,滿足了輕量級模型的需求。

6.3 熱門模型家族

模型家族 (details.family 字段) 代表了模型的基礎架構或主要技術血統。根據我們的數據分析,以下是部署數量較多的模型家族:

排名

模型家族 (family)

獨立 IP 部署數 (估計)

總部署實例數 (估計)

1

llama

~20250

~103480

2

qwen2

~17881

~61452

3

nomic-bert

~1479

~1714

4

gemma3

~1363

~2493

5

bert

~1228

~2217

6

mllama

~943

~1455

7

gemma

~596

~750

8

deepseek2

~484

~761

9

phi3

~368

~732

10

gemma2

~244

~680

Ollama 熱門模型家族

(注意:這裡的具體數值是根據之前查詢到的 Top 50 模型詳細信息列表估計匯總而來,可能與精確的全球統計數據略有差異,但趨勢具有代表性。)

初步觀察 (熱門模型家族):

  • llama 家族佔據絕對主導地位,這與 Llama 系列模型是許多現代開源 LLM 的基礎及其自身廣泛應用相符。其龐大的生態系統和眾多微調版本使其成為最受歡迎的選擇。

  • qwen2 (通義千問 Qwen2 系列) 作為第二大家族,顯示了其在中國乃至全球的強勁競爭力。

  • nomic-bertbert 的出現值得注意。儘管它們通常不被歸類為「大型語言模型」(對話式),而是文本嵌入或其他自然語言處理的基礎模型,它們的高部署量表明 Ollama 也被廣泛用於此類任務。Ollama 在執行某些操作(如生成嵌入向量)時會自動下載一個預設的嵌入模型(例如 nomic-embed-text),這可能是這些家族排名靠前的主要原因。

  • Google 的 gemma 系列(包括 gemma3, gemma, gemma2)也顯示出不錯的採用率。

  • 其他知名模型家族如 deepseek2phi3 也進入了前十名。

  • mllama 可能代表了各種基於 Llama 的混合、修改或社區命名的模型集合。

6.4 熱門原始參數大小統計

模型參數大小 (details.parameter_size 字段) 是衡量模型規模的重要指標。由於原始數據中參數大小的表示方式多樣(例如 "8.0B", "7B", "134.52M"),我們直接統計這些原始字符串。以下是部署數量較多的參數大小表示:

排名

參數大小 (原始字符串)

獨立 IP 部署數 (估計)

總部署實例數 (估計)

1

8.0B

~14480

~52577

2

7.6B

~14358

~28105

3

7.2B

~11233

~22907

4

4B

~9895

~21058

5

7B

~4943

~11738

6

134.52M

~4062

~5266

7

1.5B

~2759

~3596

8

13B

~2477

~3311

9

1.8B

~2034

~2476

10

3.2B

~1553

~2244

11

137M

~1477

~1708

12

12.2B

~1421

~2000

13

32.8B

~1254

~2840

14

14.8B

~1123

~2091

15

4.3B

~943

~1194

Ollama 熱門原始參數大小統計

(注意:數值是根據之前查詢到的 Top 50 模型詳細信息列表中的參數信息匯總估計而來。)

初步觀察 (熱門參數大小):

  • 7B 到 8B 規模的模型是絕對主流:"8.0B", "7.6B", "7.2B", "7B" 佔據了絕大多數部署。這通常對應於社區中非常流行的模型,如 Llama 2/3 的 7B/8B 系列、Mistral 7B 等及其各種微調版本。它們在性能和資源消耗之間取得了良好的平衡。

  • 4B 規模的模型也佔據重要位置:"4B" 的高部署量值得關注。

  • 百萬參數級別 (M) 的輕量級模型廣泛存在:"134.52M" 和 "137M" 的高排名可能與嵌入模型(如 nomic-embed-text)或非常小型的專用模型(如 smollm 系列)的普及有關。這些模型體積小、速度快,適合資源受限或延遲敏感的場景。

  • 1B-4B 範圍的小型模型需求穩定:參數大小為 "1.5B", "1.8B", "3.2B", "4.3B" 的模型也受到一部分使用者青睞。

  • 10B 以上的大型模型:如 "13B", "12.2B", "32.8B", "14.8B",雖然獨立 IP 部署數不如 7-8B 級別多,但也有相當的部署體量,表明社區對更強大模型的需求依然存在,儘管它們的硬件要求更高。

6.5 熱門量化級別統計

模型量化級別 (details.quantization_level 字段) 反映了模型為減小體積和加速推理而採用的權重精度。以下是部署數量較多的量化級別:

排名

量化級別 (原始字符串)

獨立 IP 部署數 (估計)

總部署實例數 (估計)

1

Q4_K_M

~20966

~53688

2

Q4_0

~18385

~88653

3

Q4_K_S

~9860

~21028

4

F16

~5793

~9837

5

Q8_0

~596

~1574

6

unknown

~266

~1318

7

Q5_K_M

~97

~283

8

F32

~85

~100

9

Q6_K

~60

~178

10

Q2_K

~54

~140

Ollama 熱門量化級別統計

(注意:數值是根據之前查詢到的 Top 50 模型詳細信息列表中的量化信息匯總估計而來。)

初步觀察 (熱門量化級別):

  • 4 位量化是主流方案:Q4_K_M, Q4_0Q4_K_S 這三種 4 位量化級別絕對領先。這清楚地表明社區廣泛採用 4 位量化作為在模型性能、推理速度和資源佔用(特別是 VRAM)之間取得最佳平衡的首選方案。

  • F16 (16 位浮點) 仍佔有一席之地:作為未量化(或僅基礎量化)的版本,F16 的高部署量顯示相當一部分使用者為了追求最高的模型保真度或因擁有充足的硬件資源而選擇它。

  • Q8_0 (8 位量化) 作為補充選項:提供了介於 4 位和 F16 之間的選擇。

  • unknown 值的出現:表明某些模型元數據中缺少或非標準的量化級別信息。

6.6 AI 算力分佈 (按模型參數大小):中國 vs 美國

為了更深入地了解不同規模的模型在主要國家的部署情況,我們對美國和中國 Ollama 實例上部署的模型的參數大小進行了分類和統計。參數大小通常被視為衡量模型複雜度和潛在 AI 算力需求的重要指標。

參數規模分類標準:

  • 小型: < 10 億參數 (< 1B)

  • 中型: 10 億到 < 100 億參數 (1B to < 10B)

  • 大型: 100 億到 < 500 億參數 (10B to < 50B)

  • 超大型: >= 500 億參數 (>= 50B)

下表顯示了在美國和中國部署不同參數規模模型的獨立 IP 數量:

國家

參數規模類別

獨立 IP 數量

中國

小型 (<1B)

3313

中國

中型 (1B to <10B)

4481

中國

大型 (10B to <50B)

1548

中國

超大型 (>=50B)

280

美國

小型 (<1B)

1368

美國

中型 (1B to <10B)

6495

美國

大型 (10B to <50B)

1301

美國

超大型 (>=50B)

58

下表顯示了在美國和中國部署不同參數規模模型的獨立 IP 數量

數據洞察與分析:

  1. 中型模型是主流,但側重點不同

    • 美國:中型模型 (1B-10B) 的部署在美國佔據絕對主導地位 (6495 個獨立 IP)。

    • 中國:中型模型 (4481 個獨立 IP) 也是中國部署最多的類型,但小型模型 (<1B) 在中國的部署 (3313 個獨立 IP) 非常可觀。

  2. 小型模型差異顯著:中國大量部署小型模型可能反映了對邊緣計算、移動 AI 應用及類似場景的偏好。

  3. 大型及超大型模型部署:中國在探索大型和超大型模型方面顯示出更高的活躍度(儘管基數相對較小)。

  4. 對整體算力投入的推斷:美國在中型模型的基礎顯示了實際 AI 應用的普及程度。中國在小型模型方面有優勢,並積極探索大型模型。

  5. 對全球趨勢的啟示:中型模型可能是全球範圍內的流行選擇。不同地區可能根據其生態系統和資源條件,在模型採用策略上有所差異。

透過對中國和美國的模型參數規模進行細分,我們可以看出 Ollama 應用在這兩個國家不同的側重點和發展潛力。

7. 網絡洞察

7.1 端口使用情況

  • 11434 (預設端口):絕大多數 (30,722 個獨立 IP) 的 Ollama 實例運行在預設端口 11434 上。

  • 其他常用端口80 (1,619 個獨立 IP), 8080 (1,571 個獨立 IP), 443 (1,339 個獨立 IP) 等端口也被使用,這可能表明一些實例部署在反向代理之後或使用者自定義了端口。

7.2 協議使用情況

  • HTTP:約有 65,506 個獨立 IP 的實例透過 HTTP 協議提供服務。

  • HTTPS:約有 43,765 個獨立 IP 的實例透過 HTTPS 協議提供服務。

大多數實例仍然透過未加密的 HTTP 暴露,這可能帶來一定的安全風險。(請注意:一個 IP 可能同時支持 HTTP 和 HTTPS,因此這裡的 IP 數量總和可能超過獨立 IP 總數

7.3 主要託管提供商 (AS 組織)

Ollama 實例託管高度集中在雲服務提供商中。

排名

AS 組織

獨立 IP 數量

主要相關提供商

1

AMAZON-02

53658

AWS

2

AMAZON-AES

5539

AWS

3

Chinanet

4964

中國電信

4

Hangzhou Alibaba Advertising Co.,Ltd.

2647

阿里云

5

HENGTONG-IDC-LLC

2391

託管提供商

6

Shenzhen Tencent Computer Systems Company Limited

1682

騰訊雲

7

CHINA UNICOM China169 Backbone

1606

中國聯通

8

Hetzner Online GmbH

972

Hetzner

9

China Unicom Beijing Province Network

746

中國聯通 (北京)

10

LEASEWEB-USA-LAX

735

Leaseweb

Ollama 實例託管高度集中在雲服務提供商中

AWS (AMAZON-02, AMAZON-AES) 佔據最大份額,其次是中國主要的電信運營商和雲服務提供商(如阿里云、騰訊雲)。其他託管提供商如 Hetzner 和 Leaseweb 也佔有相當的份額。

8. 安全及其他觀察

  • 版本信息:出於安全考慮,我們未列出 Ollama 版本的統計數據。

  • HTTP 暴露風險:如前所述,大量 Ollama 實例透過 HTTP 暴露且未加密 TLS,這可能導致通訊內容(例如與模型的互動)容易被竊聽或篡改。建議使用者配置反向代理並啟用 HTTPS。

  • API 可訪問性:本報告的數據基於 /api/tags 接口公開可訪問的 Ollama 實例。實際的部署數量可能更高,但部分實例可能部署在私有網絡中或被防火牆限制了外部訪問。

9. 結論與簡要回顧

本報告透過分析全球公開可訪問的 99,412 個 Ollama 實例(透過其 /api/tags 接口)的數據,得出以下主要結論和觀察:

1. 全球部署概況與地理分佈:

  • Ollama 作為一個方便在本地運行大型模型的工具,已在全球範圍內得到廣泛部署。本次分析識別出 99,412 個公開可訪問的獨立 IP。

  • 地理高度集中:美國和中國是 Ollama 部署最集中的兩個國家/地區,兩者合計佔總可訪問實例的很大一部分(美國 29,195 個,中國 16,464 個)。日本、德國、英國、印度、新加坡等國家也有顯著的部署數量。

  • 城市熱點:在美國,Ashburn、Portland、Columbus 等城市在部署數量上領先;在中國,北京、杭州、上海、廣州等科技發達城市是主要的部署地點。這通常與科技公司、數據中心和開發者社區的集中有關。

2. AI 模型部署趨勢:

  • 熱門模型標籤:llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest 等通用最新標籤最受歡迎。特定優化版本如 llama3:8b-text-q4_K_S 也因其良好的平衡性而受青睞。

  • 主導模型家族:llama 家族以絕對優勢領先,其次是 qwen2。嵌入模型家族如 nomic-bertbert 的高排名值得注意,可能與 Ollama 的預設行為有關。

  • 參數大小偏好:7B-8B 參數的模型是目前主流。百萬參數級別的輕量級模型和 10B 以上的大型模型也各有市場。美中對比顯示,美國部署了更多中型模型,而中國在小型和超大型模型的探索上更為活躍。

  • 量化級別選擇:4 位量化(特別是 Q4_K_MQ4_0)是壓倒性的選擇。F16 作為更高保真度的選項,也佔有重要地位。

  • 元數據複雜性:對模型元數據的分析(例如對模型家族字段的解讀)有時會顯示出其記錄與模型名稱或普遍理解之間的複雜性,突顯了開源生態系統中元數據管理的多元性。

3. 技術基礎設施:

  • 託管環境:大量 Ollama 實例託管在主流雲服務提供商如 AWS、阿里云、騰訊雲以及各國主要電信運營商的網絡中。

  • 服務端口:Ollama 的預設端口 11434 是最常用的,但也有相當數量的實例透過標準 Web 端口暴露。

4. 客觀評估:

  • Ollama 的普及度:數據清楚地顯示了 Ollama 在全球開發者和 AI 愛好者中的高採用率。

  • 開源生態的活力:熱門模型的多樣性以及各種參數和量化版本的廣泛使用,反映了開源 AI 模型生態的蓬勃發展。

  • 使用者偏好的平衡:使用者在選擇模型時傾向於在模型能力、運行效率和硬件成本之間尋求平衡。

  • 安全與開放性:大量實例允許公開訪問其模型列表,這在方便社區的同時,也可能帶來安全風險。

5. 未來展望:

  • 隨著更高效、更小型模型的湧現以及量化技術的進一步發展,Ollama 的部署門檻預計將持續降低。

  • 模型元數據的標準化以及社區共享模型的規範化,對提升生態系統的透明度和可用性至關重要。

總之,Ollama 正成為連接前沿大型語言模型與廣大開發者、研究人員乃至普通使用者之間的重要橋樑。本次數據分析為了解其當前全球部署狀況和使用者偏好提供了有價值的洞察。

評論

comments.comments (0)

Please login first

Sign in