Tenthe ai directory logo
美中 AI 競賽新視角:2025 年 Ollama 部署比較與全球 AI 模型趨勢洞察

美中 AI 競賽新視角:2025 年 Ollama 部署比較與全球 AI 模型趨勢洞察

Ryan@ryan
0 瀏覽次數0 評論

Ollama 是一個流行的開源工具,旨在簡化在本地端執行、建立和分享大型語言模型 (LLMs) 的過程。它將模型權重、配置和資料打包成一個由 Modelfile 定義的套件,並提供 API 以便與這些模型互動。這使得開發人員和研究人員能夠輕鬆地在個人電腦或伺服器上部署和實驗各種先進的 AI 模型。

1. 引言

Ollama 是一個流行的開源工具,旨在簡化在本地端執行、建立和分享大型語言模型 (LLMs) 的過程。它將模型權重、配置和資料打包成一個由 Modelfile 定義的套件,並提供 API 以便與這些模型互動。這使得開發人員和研究人員能夠輕鬆地在個人電腦或伺服器上部署和實驗各種先進的 AI 模型。

本報告旨在透過分析全球部署的 174,590 個 Ollama 實例的資料,揭示部署趨勢、模型偏好、地理分佈和網路特性。

注意:第五章和第七章的資料統計來源於全部 174,590 個實例。第六章的資料來源於可訪問的實例。出於安全考慮,我們未列出 Ollama 版本的統計資料。

  • 資料截至:2025 年 4 月 24 日。

  • 報告來源:Tenthe AI https://tenthe.com

  • 作者:Ryan

2. 執行摘要

本報告基於對全球公開可用的 Ollama 實例進行掃描資料和 API 探測的分析。主要發現包括:

  • 在全球範圍內,透過 Fofa 最初識別的約 174,590 條記錄(99,412 個獨立 IP)中,成功探測到 41,021 個 API 可訪問的 Ollama 實例,分佈在 24,038 個獨立 IP 位址上(可訪問率約為 24.18%)。

  • 從地理上看,美國和中國是 Ollama 部署數量最多的國家。雲服務提供商,特別是 AWS、阿里云和騰訊雲,是 Ollama 實例的主要託管者。

  • 模型部署呈現多樣性,其中 llama3deepseek-r1mistralqwen 系列模型廣受歡迎。其中,llama3:latestdeepseek-r1:latest 是部署最廣泛的兩個模型標籤。

  • 7B-8B 參數的模型是使用者的首選,而 Q4_K_M 和 Q4_0 等 4 位元量化模型因其在效能和資源消耗之間的良好平衡而被廣泛採用。

  • 預設埠 11434 是最常用的埠,大多數實例透過 HTTP 協議暴露服務。

3. 資料來源與方法論

本報告的資料主要來自兩個階段:

  1. 初步掃描:使用網路空間搜尋引擎(如 Fofa),設定條件 app="Ollama" && is_domain=false,初步識別全球部署的潛在 Ollama 實例。此階段找到 174,590 條記錄,去重後涉及 99,412 個獨立 IP。

  2. API 驗證與資料豐富:對初步掃描到的 IP 位址探測 ip:port/api/tags API 端點,以確認 Ollama 服務的可訪問性,並獲取已部署特定 AI 模型的資訊。此階段確認 41,021 個成功響應的 Ollama 實例(來自 24,038 個獨立 IP,資料儲存在 ollama 表中)。

  3. 最終的資料儲存在 ollama 表中。

本報告的分析主要基於 ollama 表中的資料,該表包含成功探測到 API 的記錄及其詳細資訊,包括 IP、埠、地理位置以及 JSON 響應(包含模型列表)等。

4. 整體部署統計

  • Fofa 初步掃描記錄數:174,590

  • Fofa 初步掃描獨立 IP 數:99,412

  • 成功訪問到 /api/tags 的 Ollama 實例數41,021(來自 ollama 表中 status = 'success' 的記錄)

  • 對應的獨立 IP 位址數24,038(來自 ollama 表中 status = 'success' 的記錄)

  • 可訪問 IP 佔初步識別 IP 的比例:(24038 / 99412) * 100% ≈ 24.18%

這表明,在透過 Fofa 識別到的所有 Ollama 實例中,約有四分之一的 /api/tags 介面是公開可訪問的,這使我們能夠檢索其部署的模型資訊。

5. 地理分佈分析

5.1 部署國家/地區 Top 20

下表展示了按 Ollama 實例獨立 IP 數量排名的前 20 個國家/地區。

排名

國家/地區

獨立 IP 數量

1

United States

29195

2

China

16464

3

Japan

5849

4

Germany

5438

5

United Kingdom

4014

6

India

3939

7

Singapore

3914

8

South Korea

3773

9

Ireland

3636

10

France

3599

11

Australia

3558

12

Brazil

2909

13

Canada

2763

14

South Africa

2742

15

Sweden

2113

16

Hong Kong SAR, China

1277

17

Israel

675

18

Taiwan, China

513

19

Russia

475

20

Finland

308

Ollama Top 20 Deployment Countries/Regions

5.2 全球城市部署 Top 20

下表展示了按 Ollama 實例獨立 IP 數量排名的全球前 20 個城市。

排名

城市

國家/地區

獨立 IP 數量

1

Ashburn

United States

5808

2

Portland

United States

5130

3

Singapore

Singapore

3914

4

Frankfurt am Main

Germany

3908

5

Beijing

China

3906

6

London

United Kingdom

3685

7

Columbus

United States

3672

8

Mumbai

India

3637

9

Dublin

Ireland

3631

10

Tokyo

Japan

3620

11

Sydney

Australia

3487

12

Paris

France

3175

13

San Jose

United States

2815

14

Sao Paulo

Brazil

2753

15

Cape Town

South Africa

2692

16

Montreal

Canada

2535

17

Seattle

United States

2534

18

Hangzhou

China

2447

19

Seoul

South Korea

2327

20

Osaka

Japan

2184

5.3 美國城市分佈 Top 10

排名

城市

獨立 IP 數量

1

Ashburn

5808

2

Portland

5130

3

Columbus

3672

4

San Jose

2815

5

Seattle

2534

6

Westlake Village

1714

7

Boardman

855

8

Florence

776

9

San Francisco

753

10

Boulder

642

Ollama Top 10 US City Distribution

5.4 中國大陸城市分佈 Top 10

香港和台灣的部署未在此 Top 10 城市表中體現,因其已包含在國家/地區統計中。

排名

城市

國家 (country_name)

獨立 IP 數量

1

Beijing

China

3906

2

Hangzhou

China

2447

3

Shanghai

China

1335

4

Guangzhou

China

1296

5

Shenzhen

China

768

6

Chengdu

China

469

7

Nanjing

China

329

8

Chongqing

China

259

9

Suzhou

China

257

10

Wuhan

China

249

Ollama Top 20 Global City Deployments

5.5 美中 Top 10 城市部署比較

為了更直觀地比較 Ollama 在美國和中國城市層級的部署情況,下表並列了兩國 Top 10 城市的獨立 IP 部署數量:

排名

美國城市 (Top 10)

美國獨立 IP 數量

中國城市 (Top 10)

中國獨立 IP 數量

1

Ashburn

5808

Beijing

3906

2

Portland

5130

Hangzhou

2447

3

Columbus

3672

Shanghai

1335

4

San Jose

2815

Guangzhou

1296

5

Seattle

2534

Shenzhen

768

6

Westlake Village

1714

Chengdu

469

7

Boardman

855

Nanjing

329

8

Florence

776

Chongqing

259

9

San Francisco

753

Suzhou

257

10

Boulder

642

Wuhan

249

Ollama US-China Top 10 City Deployment Comparison

簡要評論:

  • 領先城市規模:美國前 3 個城市(Ashburn、Portland、Columbus)的 Ollama 獨立 IP 部署數量均超過 3,000 個。中國的首位城市(Beijing)部署數量超過 3,000 個,第二位城市(Hangzhou)超過 2,000 個。

  • 科技與經濟中心:兩國列表中的許多城市都是知名的科技創新中心或重要經濟區域。

  • 資料中心區域:包含美國城市如 Ashburn 也反映出 Ollama 實例可能大量部署在雲伺服器和資料中心內。

  • 分佈差異:總體而言,美國 Top 10 城市的 IP 總數顯著高於中國 Top 10 城市。然而,兩國都呈現出少數核心城市佔據絕大多數 Ollama 部署的模式。

這種城市層級的比較進一步揭示了 Ollama 作為開發工具的推廣和應用與區域科技生態系統和產業發展密切相關。

6. 模型分析

6.1 AI 模型、參數和量化簡述

Ollama 支援多種開源大型語言模型。這些模型通常透過以下特徵區分:

6.1.1 常見模型家族

目前的開源社群湧現了眾多優秀的 LLM 家族,各有特色:

  • Llama 系列 (Meta AI):如 Llama 2、Llama 3、Code Llama。以其強大的通用能力和廣泛的社群支援而聞名,催生了眾多微調版本。我們資料中看到的 llama3.1hermes3 等模型通常基於 Llama 架構。

  • Mistral 系列 (Mistral AI):如 Mistral 7B、Mixtral 8x7B。因其高效能和高效率而受到關注,特別是其 MoE (Mixture of Experts) 模型。

  • Gemma 系列 (Google):如 Gemma 2B、Gemma 7B。Google 釋出的開權重模型,技術源自其更強大的 Gemini 模型。

  • Phi 系列 (Microsoft):如 Phi-2、Phi-3。專注於小型但功能強大的模型,強調「SLMs (Small Language Models)」。

  • DeepSeek 系列 (DeepSeek AI):如 DeepSeek Coder、DeepSeek LLM。在程式碼生成和通用任務上表現出色的中國 AI 模型。

  • Qwen 系列 (阿里巴巴通義千問):如 Qwen1.5。阿里巴巴達摩院推出的系列模型,支援多種語言和任務。

  • 還有許多其他優秀的模型,如 Yi (01.AI)、Command R (Cohere) 等。

Ollama 透過其 Modelfile 機制,允許使用者輕鬆使用這些基礎模型或其微調版本。模型名稱通常遵循 家族:大小-變體-量化 的格式,例如 llama3:8b-instruct-q4_K_M

6.1.2 模型參數 (Parameter Size)

模型參數數量(通常以 B - Billion;或 M - Million 為單位)是衡量模型規模和潛在能力的重要指標。常見的參數大小包括:

  • 小型模型:< 7B (例如 1.5B, 2B, 3B)。通常執行速度快,資源消耗低,適合特定任務或資源受限環境。

  • 中型模型:7B, 8B, 13B。在能力和資源消耗之間取得良好平衡,是目前社群中最受歡迎的尺寸之一。

  • 大型模型:30B, 33B, 40B, 70B+。通常能力更強,但也需要更多的計算資源 (RAM, VRAM) 和更長的推理時間。

我們資料中的 parameter_size 欄位(例如 "8.0B", "7B", "134.52M")指示了這一點。

6.1.3 量化版本 (Quantization Level)

量化是一種透過降低模型權重的數值精度(例如從 16 位元浮點數 FP16 降至 4 位元整數 INT4)來減小模型大小和加速推理的技術。

  • 常見量化等級:Ollama 和 GGUF 格式(Llama.cpp 使用)支援多種量化策略,如 Q2_K, Q3_K_S, Q3_K_M, Q3_K_L, Q4_0, Q4_K_M, Q5_K_M, Q6_K, Q8_0 等。

    • 數字(例如 2, 3, 4, 5, 6, 8)大致表示位元數。

    • K 系列量化(例如 Q4_K_M)是 llama.cpp 中引入的改進量化方法,通常能在相同位元數下獲得更好的效能。

    • _S, _M, _L 通常表示 K 量化的不同變體,影響模型的不同部分。

    • F16 (FP16) 表示 16 位元浮點數,通常被視為未量化或基礎量化版本。F32 (FP32) 是全精度。

  • 權衡:更高的量化(更低的位元數)會使模型更小、更快,但通常會伴隨一些效能損失(模型表現變差)。使用者需要根據硬體和模型品質要求進行選擇。

我們資料中的 quantization_level 欄位(例如 "Q4_K_M", "F16")指示了這一點。

6.2 熱門模型名稱 Top 10

下表展示了按獨立 IP 部署數量排名的 Top 10 模型標籤,包括其家族、參數大小和量化等級資訊。

排名

模型名稱 (model_name)

獨立 IP 部署數量

總部署實例數量

1

llama3:latest

12659

24628

2

deepseek-r1:latest

12572

24578

3

mistral:latest

11163

22638

4

qwen:latest

9868

21007

5

llama3:8b-text-q4_K_S

9845

20980

6

smollm2:135m

4058

5016

7

llama2:latest

3124

3928

8

hermes3:8b

2856

3372

9

llama3.1:8b

2714

3321

10

qwen2.5:1.5b

2668

3391

Ollama Top Popular Model Names

(註:獨立 IP 部署數量是指至少部署了該模型標籤一次的獨立 IP 位址數量。總部署實例數量是指該模型標籤在所有 IP 的 models 列表中出現的總次數。一個 IP 可能透過不同方式或記錄指向同一個模型標籤多次,或者一個 IP 可能執行屬於同一個基礎模型的不同標籤的多個實例。)

初步觀察(熱門模型名稱):

  • 帶有 :latest 標籤的模型非常普遍,如 llama3:latestdeepseek-r1:latestmistral:latestqwen:latest。這表明許多使用者偏好直接拉取模型的最新版本。

  • Llama 系列模型(如 llama3:latestllama3:8b-text-q4_K_Sllama2:latestllama3.1:8b)佔據多個席位,顯示其強大的受歡迎程度。

  • 中國 AI 模型如 deepseek-r1:latest(DeepSeek 系列)和 qwen:latest(通義千問系列)表現也十分亮眼,排名靠前。

  • 特定的量化版本如 llama3:8b-text-q4_K_S 也進入前十名,表明使用者對特定效能/資源消耗平衡的偏好。

  • 小型模型如 smollm2:135mqwen2.5:1.5b 也有相當數量的部署,滿足了輕量級模型的需求。

6.3 熱門模型家族 Top 10

模型家族 (details.family 欄位) 代表了模型的基礎架構或主要技術血統。根據我們的資料分析,以下是部署數量較多的模型家族:

排名

模型家族 (family)

獨立 IP 部署數量 (估計)

總部署實例數量 (估計)

1

llama

~20250

~103480

2

qwen2

~17881

~61452

3

nomic-bert

~1479

~1714

4

gemma3

~1363

~2493

5

bert

~1228

~2217

6

mllama

~943

~1455

7

gemma

~596

~750

8

deepseek2

~484

~761

9

phi3

~368

~732

10

gemma2

~244

~680

Ollama Top Model Families

(註:此處具體數值是根據之前查詢的 Top 50 模型詳細資訊列表匯總估計得出,可能與精確的全域統計略有差異,但趨勢具有代表性。)

初步觀察(熱門模型家族):

  • llama 家族佔據絕對主導地位,這與 Llama 系列模型是許多現代開源 LLM 的基礎及其自身廣泛應用相符。其龐大的生態系統和眾多微調版本使其成為最受歡迎的選擇。

  • qwen2(通義千問 Qwen2 系列)作為第二大模型家族,顯示了其在中國乃至全球的強勁競爭力。

  • nomic-bertbert 的出現值得注意。儘管它們通常不被歸類為「大型語言模型」(對話型),而是文本嵌入或其他自然語言處理基礎模型,但其高部署量表明 Ollama 也被廣泛用於此類任務。Ollama 在執行某些操作(如生成嵌入向量)時會自動下載一個預設的嵌入模型(例如 nomic-embed-text),這可能是這些家族排名靠前的主要原因。

  • Google 的 gemma 系列(包括 gemma3, gemma, gemma2)也顯示出不錯的採用率。

  • 其他知名模型家族如 deepseek2phi3 也進入了前十名。

  • mllama 可能代表了各種基於 Llama 的混合、修改或社群命名的模型集合。

6.4 原始參數大小統計 Top 15

模型參數大小 (details.parameter_size 欄位) 是衡量模型規模的重要指標。由於原始資料中參數大小的表示方式多樣(例如 "8.0B", "7B", "134.52M"),我們直接對這些原始字串進行計數。以下是部署數量較多的參數大小表示方式:

排名

參數大小 (原始字串)

獨立 IP 部署數量 (估計)

總部署實例數量 (估計)

1

8.0B

~14480

~52577

2

7.6B

~14358

~28105

3

7.2B

~11233

~22907

4

4B

~9895

~21058

5

7B

~4943

~11738

6

134.52M

~4062

~5266

7

1.5B

~2759

~3596

8

13B

~2477

~3311

9

1.8B

~2034

~2476

10

3.2B

~1553

~2244

11

137M

~1477

~1708

12

12.2B

~1421

~2000

13

32.8B

~1254

~2840

14

14.8B

~1123

~2091

15

4.3B

~943

~1194

Ollama Top Original Parameter Size Statistics

(註:數值是根據之前查詢的 Top 50 模型詳細資訊列表中的參數資訊匯總估計得出。)

初步觀察(熱門參數大小):

  • 7B 到 8B 規模的模型是絕對主流:"8.0B", "7.6B", "7.2B", "7B" 佔據了絕大多數的部署。這通常對應於社群中非常流行的模型,如 Llama 2/3 7B/8B 系列、Mistral 7B 及其各種微調版本。它們在效能和資源消耗之間取得了良好的平衡。

  • 4B 規模的模型也佔據重要地位:"4B" 的高部署量值得關注。

  • 百萬參數級 (M) 輕量級模型廣泛部署:"134.52M" 和 "137M" 的高排名可能與嵌入模型(如 nomic-embed-text)或非常小型的專用模型(如 smollm 系列)的流行有關。這些模型體積小、速度快,適合資源受限或對延遲敏感的場景。

  • 1B-4B 範圍小型模型的需求穩定:參數大小為 "1.5B", "1.8B", "3.2B", "4.3B" 的模型也受到部分使用者青睞。

  • 10B 以上大型模型:如 "13B", "12.2B", "32.8B", "14.8B",雖然獨立 IP 部署數量不如 7-8B 級別,但仍有可觀的部署量,表明社群對更強大模型的需求,儘管它們對硬體要求更高。

6.5 量化等級統計 Top 10

模型量化等級 (details.quantization_level 欄位) 反映了模型為減小體積和加速推理所採用的權重精度。以下是部署數量較多的量化等級:

排名

量化等級 (原始字串)

獨立 IP 部署數量 (估計)

總部署實例數量 (估計)

1

Q4_K_M

~20966

~53688

2

Q4_0

~18385

~88653

3

Q4_K_S

~9860

~21028

4

F16

~5793

~9837

5

Q8_0

~596

~1574

6

unknown

~266

~1318

7

Q5_K_M

~97

~283

8

F32

~85

~100

9

Q6_K

~60

~178

10

Q2_K

~54

~140

Ollama Top Quantization Level Statistics

(註:數值是根據之前查詢的 Top 50 模型詳細資訊列表中的量化資訊匯總估計得出。)

初步觀察(熱門量化等級):

  • 4 位元量化是主流方案:Q4_K_MQ4_0Q4_K_S 這三種 4 位元量化等級絕對居於榜首。這清楚地表明社群廣泛採用 4 位元量化作為在模型效能、推理速度和資源佔用(特別是 VRAM)之間取得最佳平衡的首選方案。

  • F16(16 位元浮點數)仍佔據重要地位:作為未經量化(或僅進行基礎量化)的版本,F16 的高部署量顯示相當一部分使用者為了追求最高的模型精度或因為擁有充足的硬體資源而選擇它。

  • Q8_0(8 位元量化)作為補充:提供介於 4 位元和 F16 之間的選項。

  • 出現 unknown 值:表明部分模型的元資料中缺少或存在非標準的量化等級資訊。

6.6 AI 算力分佈(按模型參數大小):中國 vs 美國

為了更深入地了解不同規模的模型在主要國家的部署情況,我們對美國和中國 Ollama 實例上部署的模型參數大小進行了分類和統計。參數大小通常被認為是衡量模型複雜度和潛在 AI 算力需求的重要指標。

參數規模分類標準:

  • 小型:小於 10 億參數 (< 1B)

  • 中型:10 億到小於 100 億參數 (1B 到 < 10B)

  • 大型:100 億到小於 500 億參數 (10B 到 < 50B)

  • 超大型:大於等於 500 億參數 (>= 50B)

下表顯示了美國和中國部署不同參數規模模型的獨立 IP 數量:

國家

參數規模類別

獨立 IP 數量

China

Small (<1B)

3313

China

Medium (1B to <10B)

4481

China

Large (10B to <50B)

1548

China

Extra Large (>=50B)

280

United States

Small (<1B)

1368

United States

Medium (1B to <10B)

6495

United States

Large (10B to <50B)

1301

United States

Extra Large (>=50B)

58

The table below shows the number of unique IPs deploying models of different parameter scales in the US and China

資料洞察與分析:

  1. 中型模型是主流,但側重不同

    • 美國:中型模型(1B-10B)的部署在美國佔據絕對主導地位(6495 個獨立 IP)。

    • 中國:中型模型(4481 個獨立 IP)也是中國部署最多的類型,但中國小型模型(<1B)的部署量(3313 個獨立 IP)非常可觀。

  2. 小型模型差異顯著:中國對小型模型的大規模部署可能反映了其在邊緣計算、行動 AI 應用等場景的側重。

  3. 大型和超大型模型的部署:中國在探索大型和超大型模型方面顯示出更高的活躍度(儘管基數較小)。

  4. 對整體算力投入的推斷:美國在中型模型上的基數顯示了實用性 AI 應用的普及。中國則在小型模型上有優勢,並在積極探索大型模型。

  5. 對全球趨勢的啟示:中型模型可能是全球範圍內的主流選擇。不同地區可能根據其生態系統和資源條件,在模型採用策略上有所差異。

  6. 透過對比分析中美兩國的模型參數規模分佈,我們可以看到 Ollama 應用在這兩個國家的不同側重點和發展潛力。

    7. 網路洞察

    7.1 埠使用情況

    • 11434(預設埠):絕大多數 Ollama 實例(30,722 個獨立 IP)運行在預設埠 11434 上。

    • 其他常見埠80(1,619 個獨立 IP)、8080(1,571 個獨立 IP)、443(1,339 個獨立 IP)等埠也被使用,這可能表明部分實例部署在反向代理後或使用者自訂了埠。

    7.2 協議使用情況

    • HTTP:約 65,506 個獨立 IP 的實例透過 HTTP 協議提供服務。

    • HTTPS:約 43,765 個獨立 IP 的實例透過 HTTPS 協議提供服務。

    大多數實例仍然透過未加密的 HTTP 暴露服務,這可能存在一定的安全風險。(請注意:一個 IP 可能同時支援 HTTP 和 HTTPS,因此此處 IP 數量的總和可能超過獨立 IP 總數

    7.3 主要託管提供商 (AS Organization)

    Ollama 實例的託管高度集中於雲服務提供商。

    排名

    AS 組織

    獨立 IP 數量

    主要關聯提供商

    1

    AMAZON-02

    53658

    AWS

    2

    AMAZON-AES

    5539

    AWS

    3

    Chinanet

    4964

    China Telecom

    4

    Hangzhou Alibaba Advertising Co.,Ltd.

    2647

    Alibaba Cloud

    5

    HENGTONG-IDC-LLC

    2391

    Hosting Provider

    6

    Shenzhen Tencent Computer Systems Company Limited

    1682

    Tencent Cloud

    7

    CHINA UNICOM China169 Backbone

    1606

    China Unicom

    8

    Hetzner Online GmbH

    972

    Hetzner

    9

    China Unicom Beijing Province Network

    746

    China Unicom (Beijing)

    10

    LEASEWEB-USA-LAX

    735

    Leaseweb

    Ollama instance hosting is highly concentrated among cloud service providers

    AWS (AMAZON-02, AMAZON-AES) 佔據最大份額,其次是中國主要電信營運商和雲服務提供商(如阿里云、騰訊雲)。Hetzner 和 Leaseweb 等其他託管提供商也佔據 significant 份額。

    8. 安全與其他觀察

    • 版本資訊:出於安全原因,我們未列出 Ollama 版本的統計資料。

    • HTTP 暴露風險:如前所述,大量 Ollama 實例透過 HTTP 暴露且未進行 TLS 加密,這可能導致通訊內容(例如與模型的互動)容易受到竊聽或篡改。建議使用者配置反向代理並啟用 HTTPS。

    • API 可訪問性:本報告的資料基於其 /api/tags 介面公開可訪問的 Ollama 實例。實際部署數量可能更高,但部分實例可能部署在私人網路中或透過防火牆限制了外部訪問。

    9. 結論與簡要回顧

    本報告透過對全球公開可訪問的 99,412 個 Ollama 實例(透過其 /api/tags 介面)的資料分析,得出以下主要結論和觀察:

    1. 全球部署概況與地理分佈:

    • Ollama 作為一個方便在本地運行大型模型的工具,在全球範圍內得到了廣泛部署。本次分析識別出 99,412 個公開可訪問的獨立 IP。

    • 地理高度集中:美國和中國是 Ollama 部署最集中的兩個國家/地區,合計佔據了可訪問實例的顯著比例(美國 29,195 個,中國 16,464 個)。日本、德國、英國、印度、新加坡等國家也有可觀的部署數量。

    • 城市熱點:在美國,Ashburn、Portland、Columbus 等城市領先部署;在中國,北京、杭州、上海、廣州等科技發達城市是主要部署地點。這通常與科技公司、資料中心和開發社群的集中度相關。

    2. AI 模型部署趨勢:

    • 熱門模型標籤:llama3:latestdeepseek-r1:latestmistral:latestqwen:latest 等通用最新標籤最受歡迎。特定的優化版本如 llama3:8b-text-q4_K_S 也因其良好的平衡性而受到青睞。

    • 主導模型家族:llama 家族以絕對優勢領先,其次是 qwen2。嵌入模型家族如 nomic-bertbert 的高排名值得注意,這可能與 Ollama 的預設行為有關。

    • 參數大小偏好:7B-8B 參數的模型是目前的主流。百萬參數級的輕量級模型和 10B 以上的大型模型也各有市場。中美對比顯示,美國部署中型模型更多,而中國在探索小型和超大型模型方面更為活躍。

    • 量化等級選擇:4 位元量化(特別是 Q4_K_MQ4_0)是壓倒性的選擇。F16 作為更高精度的選項也佔據重要地位。

    • 元資料的複雜性:對模型元資料(例如解釋模型家族欄位)的分析有時會揭示其記錄與模型名稱或普遍理解之間的複雜性,這突顯了開源生態系統中元資料管理的多元性。

    3. 技術基礎設施:

    • 託管環境:大量 Ollama 實例託管在 AWS、阿里云、騰訊雲等主要雲服務提供商以及各國主要電信營運商的網路中。

    • 服務埠:Ollama 的預設埠 11434 是最常用的埠,但也有相當數量的實例透過標準網頁埠暴露。

    4. 客觀評價:

    • Ollama 的普及度:資料清楚地顯示了 Ollama 在全球開發者和 AI 愛好者中的高採用率。

    • 開源生態的活力:熱門模型的多樣性以及各種參數和量化版本的廣泛使用反映了開源 AI 模型生態的蓬勃發展。

    • 使用者偏好的平衡:使用者在選擇模型時傾向於在模型能力、運行效率和硬體成本之間尋求平衡。

    • 安全與開放性:大量實例允許公開訪問其模型列表,這在方便社群的同時,也可能帶來安全風險。

    5. 未來展望:

    • 隨著更高效、更小型模型的出現以及量化技術的進一步發展,Ollama 的部署門檻預計將持續降低。

    • 模型元資料的標準化和社群共用模型的規範化對於提升生態系統的透明度和可用性至關重要。

    總之,Ollama 正在成為連接前沿大型語言模型與廣大開發者、研究人員乃至普通使用者的重要橋樑。本次資料分析為理解其當前全球部署現狀和使用者偏好提供了有價值的洞察。

評論

comments.comments (0)

Please login first

Sign in