Tenthe ai directory logo
米中AI競争の新たな視点:2025年Ollamaデプロイメント比較とグローバルAIモデルトレンドの洞察

米中AI競争の新たな視点:2025年Ollamaデプロイメント比較とグローバルAIモデルトレンドの洞察

Ryan@ryan
0 閲覧数0 コメント

Ollamaは、ローカルで大規模言語モデル(LLM)を実行、作成、共有するプロセスを簡素化するために設計された人気のオープンソースツールです。モデルの重み、設定、およびデータをModelfileによって定義されたパッケージにバンドルし、これらのモデルと対話するためのAPIを提供します。これにより、開発者や研究者は、様々な高度なAIモデルをパーソナルコンピューターやサーバーに簡単にデプロイし、実験することができます。

1. はじめに

Ollamaは、ローカルで大規模言語モデル(LLM)を実行、作成、共有するプロセスを簡素化するために設計された人気のオープンソースツールです。モデルの重み、設定、およびデータをModelfileによって定義されたパッケージにバンドルし、これらのモデルと対話するためのAPIを提供します。これにより、開発者や研究者は、様々な高度なAIモデルをパーソナルコンピューターやサーバーに簡単にデプロイし、実験することができます。

本レポートは、世界中にデプロイされた174,590のOllamaインスタンスからのデータを分析することにより、デプロイメントのトレンド、モデルの好み、地理的な分布、およびネットワーク特性を明らかにすることを目的としています。

注:第5章と第7章のデータ統計は、すべての174,590インスタンスからのものです。第6章のデータは、アクセス可能なインスタンスからのものです。セキュリティ上の理由から、Ollamaのバージョンに関する統計はリストしていません。

  • データ取得日:2025年4月24日。

  • レポートソース:Tenthe AI https://tenthe.com

  • 著者:Ryan

2. エグゼクティブサマリー

本レポートは、世界中の公開されているOllamaインスタンスのスキャンデータとAPIプロービングの分析に基づいています。主な調査結果は以下の通りです。

  • Fofa経由で最初に特定された約174,590件の記録(99,412件のユニークIP)のうち、アクセス可能なAPIを持つ41,021件のOllamaインスタンスが正常にプローブされ、24,038件のユニークIPアドレスに分散していました(アクセス可能性は約24.18%)。

  • 地理的には、米国と中国がOllamaのデプロイメント数が最も多い国です。特にAWS、Alibaba Cloud、Tencent Cloudなどのクラウドサービスプロバイダーが、Ollamaインスタンスの主要なホストです。

  • モデルのデプロイメントは多様性を示しており、llama3deepseek-r1mistralqwenシリーズのモデルが広く普及しています。中でも、llama3:latestdeepseek-r1:latestが最も広くデプロイされているモデルタグです。

  • 7B-8Bパラメータを持つモデルがユーザーにとって最も一般的な選択肢であり、Q4_K_MやQ4_0のような4ビット量子化モデルは、性能とリソース消費の良好なバランスから広く採用されています。

  • デフォルトポート11434が最も一般的に使用されており、ほとんどのインスタンスはHTTPプロトコル経由でサービスを公開しています。

3. データソースと方法論

本レポートのデータは主に以下の2つの段階から得られています。

  1. 初期スキャン: Fofaのようなネットワーク空間検索エンジンを使用し、条件app="Ollama" && is_domain=falseで、世界中にデプロイされた潜在的なOllamaインスタンスを最初に特定しました。この段階で174,590件の記録が見つかり、重複排除後99,412件のユニークIPが含まれていました。

  2. API検証とデータ拡充: 最初にスキャンされたIPアドレスに対してip:port/api/tags APIエンドポイントをプローブし、Ollamaサービスのアクセス可能性を確認し、デプロイされている特定のAIモデルに関する情報を取得しました。この段階で、正常に応答した41,021件のOllamaインスタンス(24,038件のユニークIPから、データはollamaテーブルに保存)が確認されました。

  3. 最終的なデータはollamaテーブルに保存されています。

本レポートの分析は主にollamaテーブルのデータに基づいており、正常にプローブされたAPIとその詳細情報(IP、ポート、地理的位置、モデルリストを含むJSON応答など)の記録が含まれています。

4. 全体的なデプロイメント統計

  • Fofaスキャンからの初期記録数:174,590

  • Fofa初期スキャンからのユニークIP数:99,412

  • /api/tagsに正常にアクセスできたOllamaインスタンス数41,021ollamaテーブルでstatus = 'success'の記録から)

  • 対応するユニークIPアドレス数24,038ollamaテーブルでstatus = 'success'の記録から)

  • アクセス可能なIPの、最初に特定されたIPに対する比率:(24038 / 99412) * 100% ≈ 24.18%

これは、Fofa経由で特定されたすべてのOllamaインスタンスのうち、約4分の1が/api/tagsインターフェースを公開しており、デプロイされているモデルに関する情報を取得できることを示しています。

5. 地理的分布分析

5.1 デプロイメント国/地域トップ20

以下の表は、Ollamaインスタンスを持つユニークIPの数でランク付けされた国/地域トップ20を示しています。

順位

国/地域

ユニークIP数

1

米国

29195

2

中国

16464

3

日本

5849

4

ドイツ

5438

5

英国

4014

6

インド

3939

7

シンガポール

3914

8

韓国

3773

9

アイルランド

3636

10

フランス

3599

11

オーストラリア

3558

12

ブラジル

2909

13

カナダ

2763

14

南アフリカ

2742

15

スウェーデン

2113

16

香港特別行政区、中国

1277

17

イスラエル

675

18

台湾、中国

513

19

ロシア

475

20

フィンランド

308

Ollamaのデプロイメント国/地域トップ20

5.2 世界の都市デプロイメントトップ20

以下の表は、Ollamaインスタンスを持つユニークIPの数でランク付けされた世界の都市トップ20を示しています。

順位

都市

国/地域

ユニークIP数

1

アッシュバーン

米国

5808

2

ポートランド

米国

5130

3

シンガポール

シンガポール

3914

4

フランクフルト・アム・マイン

ドイツ

3908

5

北京

中国

3906

6

ロンドン

英国

3685

7

コロンバス

米国

3672

8

ムンバイ

インド

3637

9

ダブリン

アイルランド

3631

10

東京

日本

3620

11

シドニー

オーストラリア

3487

12

パリ

フランス

3175

13

サンノゼ

米国

2815

14

サンパウロ

ブラジル

2753

15

ケープタウン

南アフリカ

2692

16

モントリオール

カナダ

2535

17

シアトル

米国

2534

18

杭州

中国

2447

19

ソウル

韓国

2327

20

大阪

日本

2184

5.3 米国の都市分布トップ10

順位

都市

ユニークIP数

1

アッシュバーン

5808

2

ポートランド

5130

3

コロンバス

3672

4

サンノゼ

2815

5

シアトル

2534

6

ウェストレイクビレッジ

1714

7

ボードマン

855

8

フローレンス

776

9

サンフランシスコ

753

10

ボルダー

642

Ollamaの米国都市分布トップ10

5.4 中国本土の都市分布トップ10

香港と台湾のデプロイメントは、国/地域の統計に含まれているため、都市トップ10の表には反映されていません。

順位

都市

国 (country_name)

ユニークIP数

1

北京

中国

3906

2

杭州

中国

2447

3

上海

中国

1335

4

広州

中国

1296

5

深圳

中国

768

6

成都

中国

469

7

南京

中国

329

8

重慶

中国

259

9

蘇州

中国

257

10

武漢

中国

249

Ollamaの中国本土都市分布トップ10

5.5 米中都市デプロイメント比較トップ10

Ollamaのデプロイメントを米中の都市レベルでより直感的に比較するために、以下の表は両国の上位10都市におけるユニークIPデプロイメント数を並べて示しています。

順位

米国都市 (トップ10)

米国ユニークIP数

中国都市 (トップ10)

中国ユニークIP数

1

アッシュバーン

5808

北京

3906

2

ポートランド

5130

杭州

2447

3

コロンバス

3672

上海

1335

4

サンノゼ

2815

広州

1296

5

シアトル

2534

深圳

768

6

ウェストレイクビレッジ

1714

成都

469

7

ボードマン

855

南京

329

8

フローレンス

776

重慶

259

9

サンフランシスコ

753

蘇州

257

10

ボルダー

642

武漢

249

Ollamaの米中都市デプロイメント比較トップ10

簡単な考察:

  • 主要都市のボリューム:米国のトップ3都市(アッシュバーン、ポートランド、コロンバス)はそれぞれ3,000以上のユニークIPでOllamaがデプロイされています。中国のトップ都市(北京)は3,000以上、第2位(杭州)は2,000以上のデプロイメントがあります。

  • 技術・経済の中心地:両国のリストにある多くの都市は、有名な技術革新の中心地または重要な経済地域です。

  • データセンター地域:アッシュバーンなどの米国都市が含まれていることは、Ollamaインスタンスが主にクラウドサーバーやデータセンター内にデプロイされている可能性が高いことを示唆しています。

  • 分布の違い:全体として、米国のトップ10都市の総IP数は、中国のトップ10都市よりも大幅に多いです。しかし、両国とも、少数の中心都市がOllamaデプロイメントの大部分を占めているというパターンを示しています。

この都市レベルの比較は、Ollamaが開発者ツールとして普及し、その応用が地域の技術エコシステムや産業発展と密接に関連していることをさらに明らかにしています。

6. モデル分析

6.1 AIモデル、パラメータ、量子化の概要

Ollamaは、さまざまなオープンソースの大規模言語モデルをサポートしています。これらのモデルは通常、以下の特徴によって区別されます。

6.1.1 一般的なモデルファミリー

現在のオープンソースコミュニティでは、優れたLLMファミリーが数多く登場しており、それぞれに独自の特徴があります。

  • Llamaシリーズ (Meta AI): Llama 2、Llama 3、Code Llamaなど。強力な汎用機能と広範なコミュニティサポートで知られ、多数のファインチューニングバージョンが存在します。データに見られるllama3.1hermes3などのモデルは、しばしばLlamaアーキテクチャに基づいています。

  • Mistralシリーズ (Mistral AI): Mistral 7B、Mixtral 8x7Bなど。効率性と高い性能、特にMoE(Mixture of Experts)モデルで注目を集めています。

  • Gemmaシリーズ (Google): Gemma 2B、Gemma 7Bなど。Googleが公開したオープンウェイトモデルで、技術はより強力なGeminiモデルから派生しています。

  • Phiシリーズ (Microsoft): Phi-2、Phi-3など。「SLMs (Small Language Models)」を強調し、小型ながら高性能なモデルに焦点を当てています。

  • DeepSeekシリーズ (DeepSeek AI): DeepSeek Coder、DeepSeek LLMなど。コーディングや汎用タスクに優れた中国のAIモデルです。

  • Qwenシリーズ (Alibaba Tongyi Qianwen): Qwen1.5など。Alibaba DAMO Academyが開発したモデルシリーズで、複数の言語とタスクをサポートしています。

  • 他にも、Yi (01.AI)、Command R (Cohere)など、多くの優れたモデルがあります。

Ollamaは、Modelfileメカニズムを通じて、これらのベースモデルやそのファインチューニングバージョンを簡単に使用できるようにしています。モデル名はしばしばfamily:size-variant-quantizationの形式に従います。例えば、llama3:8b-instruct-q4_K_Mのようになります。

6.1.2 モデルパラメータ(パラメータサイズ)

モデルパラメータ数(通常、B - Billion(10億)、M - Million(100万))は、モデルの規模と潜在的な能力を示す重要な指標です。一般的なパラメータサイズには以下が含まれます。

  • 小型モデル: < 7B (例: 1.5B, 2B, 3B)。通常、リソース消費が少なく高速に実行され、特定のタスクやリソース制約のある環境に適しています。

  • 中型モデル: 7B, 8B, 13B。能力とリソース消費のバランスが良く、現在コミュニティで最も人気のあるサイズの1つです。

  • 大型モデル: 30B, 33B, 40B, 70B+。一般的に能力が高いですが、より多くの計算リソース(RAM、VRAM)と長い推論時間が必要です。

データにあるparameter_sizeフィールド(例: "8.0B", "7B", "134.52M")はこれを示しています。

6.1.3 量子化バージョン(量子化レベル)

量子化は、モデルの重みの数値精度を下げる(例: 16ビット浮動小数点FP16から4ビット整数INT4へ)ことで、モデルサイズを削減し、推論を高速化する技術です。

  • 一般的な量子化レベル: OllamaおよびGGUFフォーマット(Llama.cppで使用)は、Q2_KQ3_K_SQ3_K_MQ3_K_LQ4_0Q4_K_MQ5_K_MQ6_KQ8_0など、さまざまな量子化戦略をサポートしています。

    • 数値(例: 2, 3, 4, 5, 6, 8)は、ビット数をおおまかに示しています。

    • Kシリーズ量子化(例: Q4_K_M)は、llama.cppで導入された改良された量子化手法で、通常、同じビット数でより良い性能を達成します。

    • _S_M_Lは通常、K-quantsの異なるバリアントを示し、モデルの異なる部分に影響を与えます。

    • F16 (FP16) は16ビット浮動小数点を示し、しばしば非量子化または基本量子化バージョンと見なされます。F32 (FP32) は完全精度です。

  • トレードオフ: 量子化レベルが高い(ビット数が少ない)ほど、モデルは小さく高速になりますが、通常、ある程度の性能損失(モデルの性能が低下)を伴います。ユーザーは、ハードウェアとモデル品質の要件に基づいて選択する必要があります。

データにあるquantization_levelフィールド(例: "Q4_K_M", "F16")はこれを示しています。

6.2 人気モデル名トップ

以下の表は、ユニークIPデプロイメント数でランク付けされたモデルタグトップ10を示しており、そのファミリー、パラメータサイズ、量子化レベル情報を含んでいます。

順位

モデル名 (model_name)

ユニークIPデプロイメント数

合計デプロイメントインスタンス数

1

llama3:latest

12659

24628

2

deepseek-r1:latest

12572

24578

3

mistral:latest

11163

22638

4

qwen:latest

9868

21007

5

llama3:8b-text-q4_K_S

9845

20980

6

smollm2:135m

4058

5016

7

llama2:latest

3124

3928

8

hermes3:8b

2856

3372

9

llama3.1:8b

2714

3321

10

qwen2.5:1.5b

2668

3391

Ollamaの人気モデル名トップ10

(注:ユニークIPデプロイメント数は、このモデルタグのインスタンスを少なくとも1つデプロイしているユニークIPアドレスの数を示します。合計デプロイメントインスタンス数は、すべてのIPのmodelsリストにこのモデルタグが表示される合計回数を示します。1つのIPが異なる手段や記録を通じて同じモデルタグを複数回指すことや、1つのIPが同じベースモデルに属する異なるタグの複数インスタンスを実行する可能性があります。)

初期観察(人気モデル名):

  • :latestタグを持つモデルが非常に一般的です。llama3:latestdeepseek-r1:latestmistral:latestqwen:latestなど。これは、多くのユーザーがモデルの最新バージョンを直接プルすることを好むことを示しています。

  • Llamaシリーズのモデル(例: llama3:latestllama3:8b-text-q4_K_Sllama2:latestllama3.1:8b)が複数のスポットを占めており、その強い人気を示しています。

  • deepseek-r1:latest (DeepSeekシリーズ) や qwen:latest (Tongyi Qianwenシリーズ) のような中国のAIモデルも目覚ましい成績を収め、高い順位に位置しています。

  • llama3:8b-text-q4_K_Sのような特定の量子化バージョンもトップ10に入っており、ユーザーが特定の性能/リソース消費バランスを好むことを示しています。

  • smollm2:135mqwen2.5:1.5bのような小型モデルもかなりの数デプロイされており、軽量モデルへの需要を満たしています。

6.3 人気モデルファミリー

モデルファミリー(details.familyフィールド)は、モデルのベースアーキテクチャまたは主要な技術系統を表します。以下は、データ分析に基づきデプロイメント数が多いモデルファミリーです。

順位

モデルファミリー (family)

ユニークIPデプロイメント数 (推定)

合計デプロイメントインスタンス数 (推定)

1

llama

~20250

~103480

2

qwen2

~17881

~61452

3

nomic-bert

~1479

~1714

4

gemma3

~1363

~2493

5

bert

~1228

~2217

6

mllama

~943

~1455

7

gemma

~596

~750

8

deepseek2

~484

~761

9

phi3

~368

~732

10

gemma2

~244

~680

Ollamaの人気モデルファミリートップ10

(注:ここでの具体的な値は、以前にクエリされたモデル詳細リストトップ50に基づいて推定および集計されたものであり、正確なグローバル統計とはわずかに異なる場合がありますが、傾向は代表的です。)

初期観察(人気モデルファミリー):

  • llamaファミリーが絶対的な優位を占めており、これはLlamaシリーズモデルが多くの現代のオープンソースLLMの基盤であり、それ自体の広範な応用と一致しています。その広大なエコシステムと多数のファインチューニングバージョンが、最も人気のある選択肢となっています。

  • qwen2 (Tongyi Qianwen Qwen2シリーズ) は、2番目に大きなファミリーとして、中国や世界でもその強い競争力を見せています。

  • nomic-bertbertの出現は注目に値します。これらは通常、「大規模言語モデル」(会話型)ではなく、テキスト埋め込みやその他の自然言語処理のベースモデルと見なされますが、その高いデプロイメントボリュームは、Ollamaがこれらのタスクにも広く使用されていることを示唆しています。Ollamaは、特定の操作(埋め込みベクトル生成など)を実行する際に、デフォルトの埋め込みモデル(例: nomic-embed-text)を自動的にダウンロードするため、これがこれらのファミリーが高い順位にランクインしている主な理由と考えられます。

  • Googleのgemmaシリーズ(gemma3gemmagemma2を含む)も、かなりの採用率を示しています。

  • deepseek2phi3といった他の有名なモデルファミリーもトップ10に入っています。

  • mllamaは、さまざまなLlamaベースのハイブリッド、修正、またはコミュニティ名のモデルの集合体を表している可能性があります。

6.4 元パラメータサイズ統計トップ

モデルパラメータサイズ(details.parameter_sizeフィールド)は、モデルの規模を示す重要な指標です。生データではパラメータサイズの表現が多様であるため(例: "8.0B", "7B", "134.52M")、これらの元の文字列を直接カウントします。以下は、デプロイメント数が多いパラメータサイズ表現です。

順位

パラメータサイズ (元の文字列)

ユニークIPデプロイメント数 (推定)

合計デプロイメントインスタンス数 (推定)

1

8.0B

~14480

~52577

2

7.6B

~14358

~28105

3

7.2B

~11233

~22907

4

4B

~9895

~21058

5

7B

~4943

~11738

6

134.52M

~4062

~5266

7

1.5B

~2759

~3596

8

13B

~2477

~3311

9

1.8B

~2034

~2476

10

3.2B

~1553

~2244

11

137M

~1477

~1708

12

12.2B

~1421

~2000

13

32.8B

~1254

~2840

14

14.8B

~1123

~2091

15

4.3B

~943

~1194

Ollamaの元パラメータサイズ統計トップ15

(注:値は、以前にクエリされたモデル詳細リストトップ50からのパラメータ情報の集計に基づいて推定されています。)

初期観察(人気パラメータサイズ):

  • 7Bから8B規模のモデルが絶対的な主流です: "8.0B"、"7.6B"、"7.2B"、"7B"がデプロイメントの大部分を占めています。これは通常、Llama 2/3 7B/8Bシリーズ、Mistral 7B、およびそれらのさまざまなファインチューニングバージョンなど、コミュニティで非常に人気のあるモデルに対応しています。これらは性能とリソース消費のバランスが優れています。

  • 4B規模のモデルも重要な位置を占めています: "4B"の高いデプロイメントは注目に値します。

  • 百万パラメータレベル(M)の軽量モデルが広く普及しています: "134.52M"および"137M"の高い順位は、埋め込みモデル(例: nomic-embed-text)や非常に小型の特化モデル(smollmシリーズなど)の人気に関連している可能性が高いです。これらのモデルは小型で高速であり、リソース制約のあるシナリオや低遅延が求められるシナリオに適しています。

  • 1Bから4Bの範囲の小型モデルの安定した需要: "1.5B"、"1.8B"、"3.2B"、"4.3B"のようなパラメータサイズのモデルも、一部のユーザーに支持されています。

  • 10Bを超える大型モデル: "13B"、"12.2B"、"32.8B"、"14.8B"などは、7-8BレベルほどユニークIPデプロイメントが多くありませんが、かなりのデプロイメントボリュームがあり、より高性能なモデルへのコミュニティ需要があることを示しています。ただし、それらはより高いハードウェア要件を伴います。

6.5 量子化レベル統計トップ

モデル量子化レベル(details.quantization_levelフィールド)は、モデルがサイズを削減し推論を高速化するために採用した重み精度を反映しています。以下は、デプロイメント数が多い量子化レベルです。

順位

量子化レベル (元の文字列)

ユニークIPデプロイメント数 (推定)

合計デプロイメントインスタンス数 (推定)

1

Q4_K_M

~20966

~53688

2

Q4_0

~18385

~88653

3

Q4_K_S

~9860

~21028

4

F16

~5793

~9837

5

Q8_0

~596

~1574

6

unknown

~266

~1318

7

Q5_K_M

~97

~283

8

F32

~85

~100

9

Q6_K

~60

~178

10

Q2_K

~54

~140

Ollamaの量子化レベル統計トップ10

(注:値は、以前にクエリされたモデル詳細リストトップ50からの量子化情報の集計に基づいて推定されています。)

初期観察(人気量子化レベル):

  • 4ビット量子化が支配的なソリューションです: Q4_K_MQ4_0、およびQ4_K_Sといった3つの4ビット量子化レベルが圧倒的に上位を占めています。これは、コミュニティがモデル性能、推論速度、リソース占有率(特にVRAM)の最適なバランスを実現するための優先ソリューションとして4ビット量子化を広く採用していることを明確に示しています。

  • F16 (16ビット浮動小数点) も重要な位置を占めています: 非量子化(または基本的な量子化のみ)バージョンとして、F16の高いデプロイメントは、かなりの数のユーザーが最高のモデル忠実性を追求するため、または十分なハードウェアリソースを持っているため、これを選択していることを示しています。

  • Q8_0 (8ビット量子化) が補完的なオプションとして存在します: 4ビットとF16の間の選択肢を提供しています。

  • unknownの値の出現: 一部のモデルメタデータで量子化レベル情報が欠落しているか、非標準であることを示しています。

6.6 AIコンピューティングパワーの分布(モデルパラメータサイズ別):中国 vs. 米国

主要国で異なる規模のモデルがどのようにデプロイされているかをより深く理解するために、米国と中国のOllamaインスタンスにデプロイされたモデルのパラメータサイズを分類し、集計しました。パラメータサイズは、モデルの複雑さと潜在的なAIコンピューティングパワー需要の重要な指標と見なされることが多いです。

パラメータ規模分類基準:

  • 小型: 10億パラメータ未満 (< 1B)

  • 中型: 10億パラメータ以上 100億パラメータ未満 (1B to < 10B)

  • 大型: 100億パラメータ以上 500億パラメータ未満 (10B to < 50B)

  • 超大型: 500億パラメータ以上 (>= 50B)

以下の表は、米国と中国で異なるパラメータ規模のモデルをデプロイしているユニークIPの数を示しています。

パラメータ規模カテゴリ

ユニークIP数

中国

小型 (<1B)

3313

中国

中型 (1B to <10B)

4481

中国

大型 (10B to <50B)

1548

中国

超大型 (>=50B)

280

米国

小型 (<1B)

1368

米国

中型 (1B to <10B)

6495

米国

大型 (10B to <50B)

1301

米国

超大型 (>=50B)

58

中国 vs. 米国におけるAIコンピューティングパワーの分布(モデルパラメータサイズ別)

データからの洞察と分析:

  1. 中型モデルが主流だが、焦点が異なる

    • 米国:米国では中型モデル(1B-10B)のデプロイメントが圧倒的に支配的です(6495ユニークIP)。

    • 中国:中国でも中型モデル(4481ユニークIP)が最も多くデプロイされていますが、中国における小型モデル(<1B)のデプロイメント(3313ユニークIP)も非常に多いです。

  2. 小型モデルにおける顕著な違い:中国における小型モデルの大規模なデプロイメントは、エッジコンピューティング、モバイルAIアプリケーション、および同様のシナリオへの好みを反映している可能性があります。

  3. 大型および超大型モデルのデプロイメント:中国は、大型および超大型モデルの探求においてより高い活動を示しています(ただし、ベースは小さいですが)。

  4. 全体的なコンピューティングパワー投資への示唆:中型モデルにおける米国の基盤は、実用的なAIアプリケーションの普及を示しています。中国は小型モデルに強みがあり、大型モデルを積極的に探求しています。

  5. グローバルトレンドへの影響:中型モデルは世界的に人気がある可能性が高いです。地域によって、そのエコシステムとリソース条件に基づいた異なるモデル採用戦略があるかもしれません。

中国と米国におけるモデルパラメータ規模をセグメント化することで、両国におけるOllamaアプリケーションの異なる焦点と開発ポテンシャルを見ることができます。

7. ネットワーク洞察

7.1 ポート使用状況

  • 11434 (デフォルトポート):Ollamaインスタンスの大部分(30,722ユニークIP)は、デフォルトポート11434で実行されています。

  • その他の一般的なポート80 (1,619ユニークIP)、8080 (1,571ユニークIP)、443 (1,339ユニークIP) などのポートも使用されており、これは一部のインスタンスがリバースプロキシの背後にデプロイされているか、ユーザーがポートをカスタマイズしている可能性を示唆しています。

7.2 プロトコル使用状況

  • HTTP:約65,506ユニークIPがHTTPプロトコル経由でサービスを提供しています。

  • HTTPS:約43,765ユニークIPがHTTPSプロトコル経由でサービスを提供しています。

ほとんどのインスタンスはまだ暗号化されていないHTTP経由で公開されており、これにより通信内容(モデルとのやり取りなど)が傍受や改ざんに対して脆弱になる可能性があります。ユーザーには、リバースプロキシを設定し、HTTPSを有効にすることが推奨されます。(注:1つのIPがHTTPとHTTPSの両方をサポートしている可能性があるため、ここでのIP数の合計はユニークIPの総数を超える場合があります)

7.3 主なホスティングプロバイダー (AS組織)

Ollamaインスタンスのホスティングは、クラウドサービスプロバイダーに高度に集中しています。

順位

AS組織

ユニークIP数

主な関連プロバイダー

1

AMAZON-02

53658

AWS

2

AMAZON-AES

5539

AWS

3

Chinanet

4964

China Telecom

4

Hangzhou Alibaba Advertising Co.,Ltd.

2647

Alibaba Cloud

5

HENGTONG-IDC-LLC

2391

ホスティングプロバイダー

6

Shenzhen Tencent Computer Systems Company Limited

1682

Tencent Cloud

7

CHINA UNICOM China169 Backbone

1606

China Unicom

8

Hetzner Online GmbH

972

Hetzner

9

China Unicom Beijing Province Network

746

China Unicom (北京)

10

LEASEWEB-USA-LAX

735

Leaseweb

Ollamaインスタンスのホスティングはクラウドサービスプロバイダーに高度に集中しています

AWS (AMAZON-02, AMAZON-AES) が最大のシェアを占め、次いで主要な中国の通信事業者およびクラウドサービスプロバイダー(Alibaba Cloud、Tencent Cloudなど)が続きます。HetznerやLeasewebなどの他のホスティングプロバイダーもかなりのシェアを持っています。

8. セキュリティおよびその他の観察

  • バージョン情報:セキュリティ上の理由から、Ollamaのバージョンに関する統計はリストしていません。

  • HTTP公開リスク:前述のように、多数のOllamaインスタンスがTLS暗号化なしのHTTP経由で公開されており、これにより通信内容(モデルとのやり取りなど)が盗聴や改ざんに対して脆弱になる可能性があります。ユーザーはリバースプロキシを設定し、HTTPSを有効にすることが推奨されます。

  • APIアクセス可能性:本レポートのデータは、/api/tagsインターフェースが公開されているOllamaインスタンスに基づいています。実際のデプロイメント数はこれより多い可能性がありますが、一部のインスタンスはプライベートネットワークにデプロイされているか、ファイアウォールによって外部アクセスが制限されている可能性があります。

9. 結論と簡単なレビュー

本レポートは、世界中の99,412件の公開されているOllamaインスタンス(/api/tagsインターフェース経由)からのデータを分析することにより、以下の主な結論と観察を導き出しました。

1. グローバルデプロイメント概要と地理的分布:

  • Ollamaは、大規模モデルをローカルで実行するための便利なツールとして、世界中で広くデプロイされています。この分析では、99,412件の公開されているユニークIPが特定されました。

  • 高い地理的集中度: 米国と中国は、Ollamaのデプロイメントが最も集中している2つの国/地域であり、公開されているインスタンスの大部分を占めています(米国 29,195件、中国 16,464件)。日本、ドイツ、英国、インド、シンガポールなどの国々も注目すべきデプロイメント数を持っています。

  • 都市のホットスポット: 米国では、アッシュバーン、ポートランド、コロンバスなどの都市がデプロイメントをリードしています。中国では、北京、杭州、上海、広州などの技術的に進んだ都市が主要なデプロイメント拠点です。これは、テクノロジー企業、データセンター、開発者コミュニティの集中と関連していることが多いです。

2. AIモデルのデプロイメントトレンド:

  • 人気モデルタグ: llama3:latestdeepseek-r1:latestmistral:latestqwen:latestのような一般的な最新タグが最も人気があります。llama3:8b-text-q4_K_Sのような特定の最適化バージョンも、その良好なバランスから好まれています。

  • 支配的なモデルファミリー: llamaファミリーが絶対的な差でリードしており、次いでqwen2が続きます。nomic-bertbertのような埋め込みモデルファミリーの高い順位は注目に値し、Ollamaのデフォルトの挙動に関連している可能性があります。

  • パラメータサイズへの好み: 7B-8Bパラメータを持つモデルが現在の主流です。百万パラメータレベルの軽量モデルや10Bを超える大型モデルもそれぞれ独自の市場を持っています。米中比較では、米国がより多くの中型モデルをデプロイしているのに対し、中国は小型および超大型モデルの探求に積極的です。

  • 量子化レベルの選択: 4ビット量子化(特にQ4_K_MQ4_0)が圧倒的な選択肢です。F16は、より高い忠実性のオプションとして、重要な位置を占めています。

  • メタデータの複雑性: モデルメタデータ(例:モデルファミリーフィールドの解釈)の分析は、その記録とモデル名や一般的な理解との間の複雑性を時折明らかにし、オープンソースエコシステムにおけるメタデータ管理の多様性を示しています。

3. 技術インフラ:

  • ホスティング環境: 多数のOllamaインスタンスは、AWS、Alibaba Cloud、Tencent Cloudなどの主要なクラウドサービスプロバイダーや、主要な国家通信事業者のネットワーク上でホストされています。

  • サービスポート: Ollamaのデフォルトポート11434が最も一般的に使用されていますが、かなりの数のインスタンスが標準的なウェブポート経由でも公開されています。

4. 客観的評価:

  • Ollamaの人気: データは、Ollamaが世界中の開発者やAI愛好家の間で高い採用率を持っていることを明確に示しています。

  • オープンソースエコシステムの活力: 人気のあるモデルの多様性と、さまざまなパラメータおよび量子化バージョンの広範な使用は、オープンソースAIモデルエコシステムの活発な発展を反映しています。

  • ユーザーの好みのバランス: モデルを選択する際、ユーザーはモデルの能力、運用効率、ハードウェアコストのバランスを求める傾向があります。

  • セキュリティと公開性: 多数のインスタンスがモデルリストへの公開アクセスを許可しており、これはコミュニティにとって便利である一方で、セキュリティリスクをもたらす可能性もあります。

5. 将来展望:

  • より効率的で小型のモデルの登場と、量子化技術のさらなる進歩により、Ollamaのデプロイメント障壁は引き続き低下すると予想されます。

  • モデルメタデータの標準化とコミュニティ共有モデルは、エコシステムの透明性と使いやすさを向上させるために不可欠です。

要約すると、Ollamaは最先端の大規模言語モデルと幅広い開発者、研究者、さらには一般ユーザーを結ぶ重要な橋渡し役になりつつあります。このデータ分析は、その現在のグローバルなデプロイメント状況とユーザーの好みを理解するための貴重な洞察を提供します。

コメント

comments.comments (0)

Please login first

Sign in