Tenthe ai directory logo
Ett nytt perspektiv på AI-kapplöpningen mellan USA och Kina: Jämförelse av Ollama-distributioner 2025 och insikter om globala AI-modellers trender

Ett nytt perspektiv på AI-kapplöpningen mellan USA och Kina: Jämförelse av Ollama-distributioner 2025 och insikter om globala AI-modellers trender

Ryan@ryan
0 Visningar0 Kommentarer

Ollama är ett populärt verktyg med öppen källkod designat för att förenkla processen att köra, skapa och dela stora språkmodeller (LLM) lokalt. Det paketerar modellvikter, konfiguration och data i ett paket definierat av en Modelfile och tillhandahåller ett API för att interagera med dessa modeller. Detta gör det möjligt för utvecklare och forskare att enkelt distribuera och experimentera med olika avancerade AI-modeller på persondatorer eller servrar.

1. Introduktion

Ollama är ett populärt verktyg med öppen källkod designat för att förenkla processen att köra, skapa och dela stora språkmodeller (LLM) lokalt. Det paketerar modellvikter, konfiguration och data i ett paket definierat av en Modelfile och tillhandahåller ett API för att interagera med dessa modeller. Detta gör det möjligt för utvecklare och forskare att enkelt distribuera och experimentera med olika avancerade AI-modeller på persondatorer eller servrar.

Denna rapport syftar till att avslöja distributionstrender, modellpreferenser, geografisk spridning och nätverksegenskaper genom att analysera data från 174 590 Ollama-instanser distribuerade globalt.

Obs: Datastatistiken i kapitel 5 och kapitel 7 kommer från alla 174 590 instanser. Data i kapitel 6 kommer från tillgängliga instanser. Av säkerhetsskäl har vi inte listat statistik över Ollama-versioner.

  • Data per: 24 april 2025.

  • Rapportkälla: Tenthe AI https://tenthe.com

  • Författare: Ryan

2. Sammanfattning

Denna rapport är baserad på analys av skanningsdata och API-sondering av publikt tillgängliga Ollama-instanser världen över. Viktiga resultat inkluderar:

  • Globalt, bland cirka 174 590 poster som initialt identifierades via Fofa (99 412 unika IP-adresser), sonderades 41 021 Ollama-instanser med tillgängliga API:er framgångsrikt, distribuerade över 24 038 unika IP-adresser (en tillgänglighet på cirka 24,18%).

  • Geografiskt är USA och Kina de länder med flest Ollama-distributioner. Molntjänstleverantörer, särskilt AWS, Alibaba Cloud och Tencent Cloud, är de primära värdarna för Ollama-instanser.

  • Modelldistributionerna visar mångfald, med modeller som llama3, deepseek-r1, mistral och qwen-serierna som är allmänt populära. Bland dem är llama3:latest och deepseek-r1:latest de två mest distribuerade modell-taggarna.

  • Modeller med 7B-8B parametrar är det mest populära valet för användare, medan 4-bitars kvantiserade modeller som Q4_K_M och Q4_0 är allmänt antagna för sin goda balans mellan prestanda och resursförbrukning.

  • Standardporten 11434 är den mest använda, och de flesta instanser exponerar tjänster via HTTP-protokollet.

3. Datakällor och metodik

Data för denna rapport kommer primärt från två steg:

  1. Initial skanning: Användning av nätverksutrymmessökmotorer som Fofa, med villkoret app="Ollama" && is_domain=false, för att initialt identifiera potentiella Ollama-instanser distribuerade globalt. Detta steg fann 174 590 poster, involverande 99 412 unika IP-adresser efter deduplicering.

  2. API-verifiering och dataanrikning: Sondering av API-slutpunkten ip:port/api/tags för de initialt skannade IP-adresserna för att bekräfta tillgängligheten av Ollama-tjänster och erhålla information om de specifika AI-modeller som distribuerats. Detta steg bekräftade 41 021 framgångsrikt svarande Ollama-instanser (från 24 038 unika IP-adresser, med data lagrad i tabellen ollama).

  3. Den slutliga datan lagras i tabellen ollama.

Analysen i denna rapport är primärt baserad på data från tabellen ollama, som innehåller poster över framgångsrikt sonderade API:er och deras detaljerade information, inklusive IP, port, geografisk plats och JSON-svaret (innehållande modelllistan), etc.

4. Övergripande distributionsstatistik

  • Antal initiala poster från Fofa-skanning: 174 590

  • Antal unika IP-adresser från Fofa initial skanning: 99 412

  • Antal Ollama-instanser som framgångsrikt kunde nå /api/tags: 41 021 (från poster där status = 'success' i tabellen ollama)

  • Antal motsvarande unika IP-adresser: 24 038 (från poster där status = 'success' i tabellen ollama)

  • Förhållandet mellan tillgängliga IP-adresser och initialt identifierade IP-adresser: (24038 / 99412) * 100% ≈ 24,18%

Detta indikerar att bland alla Ollama-instanser som identifierades via Fofa, har cirka en fjärdedel sitt /api/tags-gränssnitt publikt tillgängligt, vilket gör det möjligt för oss att hämta information om deras distribuerade modeller.

5. Geografisk distributionsanalys

5.1 Topp 20 distributionsländer/regioner

Tabellen nedan visar de 20 främsta länderna/regionerna rankade efter antalet unika IP-adresser med Ollama-instanser.

Rank

Land/Region

Antal unika IP

1

United States

29195

2

China

16464

3

Japan

5849

4

Germany

5438

5

United Kingdom

4014

6

India

3939

7

Singapore

3914

8

South Korea

3773

9

Ireland

3636

10

France

3599

11

Australia

3558

12

Brazil

2909

13

Canada

2763

14

South Africa

2742

15

Sweden

2113

16

Hong Kong SAR, China

1277

17

Israel

675

18

Taiwan, China

513

19

Russia

475

20

Finland

308

Ollama Top 20 Deployment Countries/Regions

5.2 Topp 20 globala stadsdistributioner

Tabellen nedan visar de 20 främsta städerna globalt rankade efter antalet unika IP-adresser med Ollama-instanser.

Rank

Stad

Land/Region

Antal unika IP

1

Ashburn

United States

5808

2

Portland

United States

5130

3

Singapore

Singapore

3914

4

Frankfurt am Main

Germany

3908

5

Beijing

China

3906

6

London

United Kingdom

3685

7

Columbus

United States

3672

8

Mumbai

India

3637

9

Dublin

Ireland

3631

10

Tokyo

Japan

3620

11

Sydney

Australia

3487

12

Paris

France

3175

13

San Jose

United States

2815

14

Sao Paulo

Brazil

2753

15

Cape Town

South Africa

2692

16

Montreal

Canada

2535

17

Seattle

United States

2534

18

Hangzhou

China

2447

19

Seoul

South Korea

2327

20

Osaka

Japan

2184

5.3 Topp 10 stadsdistributioner i USA

Rank

Stad

Antal unika IP

1

Ashburn

5808

2

Portland

5130

3

Columbus

3672

4

San Jose

2815

5

Seattle

2534

6

Westlake Village

1714

7

Boardman

855

8

Florence

776

9

San Francisco

753

10

Boulder

642

Ollama Top 10 US City Distribution

5.4 Topp 10 stadsdistributioner i Kina (fastlandet)

Distributioner i Hongkong och Taiwan återspeglas inte i tabellen över de 10 främsta städerna, då de redan ingår i statistiken för länder/regioner.

Rank

Stad

Land (country_name)

Antal unika IP

1

Beijing

China

3906

2

Hangzhou

China

2447

3

Shanghai

China

1335

4

Guangzhou

China

1296

5

Shenzhen

China

768

6

Chengdu

China

469

7

Nanjing

China

329

8

Chongqing

China

259

9

Suzhou

China

257

10

Wuhan

China

249

Ollama Top 20 Global City Deployments

5.5 Jämförelse av topp 10 stadsdistributioner i USA och Kina

För att mer intuitivt jämföra Ollama-distributioner på stadsnivå i USA och Kina, ställer tabellen nedan samman antalet unika IP-distributioner för de 10 främsta städerna i båda länderna:

Rank

USA Stad (Topp 10)

Antal unika IP (USA)

Kina Stad (Topp 10)

Antal unika IP (Kina)

1

Ashburn

5808

Beijing

3906

2

Portland

5130

Hangzhou

2447

3

Columbus

3672

Shanghai

1335

4

San Jose

2815

Guangzhou

1296

5

Seattle

2534

Shenzhen

768

6

Westlake Village

1714

Chengdu

469

7

Boardman

855

Nanjing

329

8

Florence

776

Chongqing

259

9

San Francisco

753

Suzhou

257

10

Boulder

642

Wuhan

249

Ollama US-China Top 10 City Deployment Comparison

Kort kommentar:

  • Volym i ledande städer: De 3 främsta städerna i USA (Ashburn, Portland, Columbus) har var och en över 3 000 unika IP-adresser med Ollama-distributioner. Kinas främsta stad (Beijing) har över 3 000 distributioner, och dess andra stad (Hangzhou) har över 2 000.

  • Teknik- och ekonomiska nav: Många av de listade städerna i båda länderna är välkända centra för teknikinnovation eller viktiga ekonomiska regioner.

  • Datacenterregioner: Inkluderingen av amerikanska städer som Ashburn speglar också att Ollama-instanser i stor utsträckning kan distribueras inom molnservrar och datacenter.

  • Skillnader i distribution: Totalt sett är det totala antalet IP-adresser i USA:s topp 10 städer betydligt högre än i Kinas topp 10 städer. Båda länderna visar dock ett mönster där ett fåtal kärnstäder står för den stora majoriteten av Ollama-distributioner.

Denna jämförelse på stadsnivå avslöjar ytterligare att marknadsföringen och tillämpningen av Ollama, som ett utvecklingsverktyg, är nära kopplad till regionala teknologiska ekosystem och industriell utveckling.

6. Modellanalys

6.1 Kort översikt över AI-modeller, parametrar och kvantisering

Ollama stöder en mängd olika storskaliga språkmodeller med öppen källkod. Dessa modeller kännetecknas vanligtvis av följande egenskaper:

6.1.1 Vanliga modellfamiljer

Den nuvarande open-source-communityn har sett en ökning av utmärkta LLM-familjer, var och en med sina egna egenskaper:

  • Llama-serien (Meta AI): Som Llama 2, Llama 3, Code Llama. Känd för sin kraftfulla allmänna kapacitet och omfattande community-stöd, vilket har lett till många finjusterade versioner. Modeller som llama3.1, hermes3 som ses i våra data är ofta baserade på Llama-arkitekturen.

  • Mistral-serien (Mistral AI): Som Mistral 7B, Mixtral 8x7B. Får uppmärksamhet för effektivitet och hög prestanda, särskilt dess MoE (Mixture of Experts)-modeller.

  • Gemma-serien (Google): Som Gemma 2B, Gemma 7B. Öppenviktade modeller släppta av Google, med teknik härledd från deras kraftfullare Gemini-modeller.

  • Phi-serien (Microsoft): Som Phi-2, Phi-3. Fokuserar på små men kapabla modeller, med betoning på "SLM (Small Language Models)".

  • DeepSeek-serien (DeepSeek AI): Som DeepSeek Coder, DeepSeek LLM. Kinesiska AI-modeller som utmärker sig inom kodning och allmänna uppgifter.

  • Qwen-serien (Alibaba Tongyi Qianwen): Som Qwen1.5. En serie modeller lanserade av Alibaba DAMO Academy, som stöder flera språk och uppgifter.

  • Det finns många andra utmärkta modeller, såsom Yi (01.AI), Command R (Cohere), etc.

Ollama, genom sin Modelfile-mekanism, gör det möjligt för användare att enkelt använda dessa basmodeller eller deras finjusterade versioner. Modellnamn följer ofta formatet familj:storlek-variant-kvantisering, till exempel llama3:8b-instruct-q4_K_M.

6.1.2 Modellparametrar (Parameterstorlek)

Antalet modellparametrar (vanligtvis i B - miljarder; eller M - miljoner) är en viktig indikator på en modells skala och potentiella kapacitet. Vanliga parameterstorlekar inkluderar:

  • Små modeller: < 7B (t.ex. 1.5B, 2B, 3B). Körs vanligtvis snabbt med låg resursförbrukning, lämpliga för specifika uppgifter eller miljöer med begränsade resurser.

  • Medelstora modeller: 7B, 8B, 13B. Uppnår en bra balans mellan kapacitet och resursförbrukning, för närvarande en av de mest populära storlekarna i communityn.

  • Stora modeller: 30B, 33B, 40B, 70B+. Generellt mer kapabla men kräver också mer beräkningsresurser (RAM, VRAM) och längre inferenstider.

Fältet parameter_size i våra data (t.ex. "8.0B", "7B", "134.52M") indikerar detta.

6.1.3 Kvantiseringsversioner (Kvantiseringsnivå)

Kvantisering är en teknik för att minska modellstorleken och accelerera inferens genom att sänka den numeriska precisionen på modellvikterna (t.ex. från 16-bitars flyttal FP16 till 4-bitars heltal INT4).

  • Vanliga kvantiseringsnivåer: Ollama och GGUF-formatet (använt av Llama.cpp) stöder olika kvantiseringsstrategier, såsom Q2_K, Q3_K_S, Q3_K_M, Q3_K_L, Q4_0, Q4_K_M, Q5_K_M, Q6_K, Q8_0, etc.

    • Siffran (t.ex. 2, 3, 4, 5, 6, 8) indikerar ungefär antalet bitar.

    • K-serie kvantisering (t.ex. Q4_K_M) är förbättrade kvantiseringsmetoder introducerade i llama.cpp, som vanligtvis uppnår bättre prestanda vid samma antal bitar.

    • _S, _M, _L indikerar vanligtvis olika varianter av K-kvantiseringsmetoder, som påverkar olika delar av modellen.

    • F16 (FP16) representerar 16-bitars flyttal, ofta betraktat som okvantiserat eller en bas-kvantiseringsversion. F32 (FP32) är full precision.

  • Avvägning: Högre kvantisering (lägre antal bitar) resulterar i mindre, snabbare modeller, men innebär vanligtvis viss prestandaförlust (modellen presterar sämre). Användare måste välja baserat på sin hårdvara och krav på modellkvalitet.

Fältet quantization_level i våra data (t.ex. "Q4_K_M", "F16") indikerar detta.

6.2 Topp populära modellnamn

Tabellen nedan visar de 10 mest populära modell-taggarna rankade efter antalet unika IP-distributioner, inklusive information om deras familj, parameterstorlek och kvantiseringsnivå.

Rank

Modellnamn (model_name)

Unika IP-distributioner

Totalt antal distributionsinstanser

1

llama3:latest

12659

24628

2

deepseek-r1:latest

12572

24578

3

mistral:latest

11163

22638

4

qwen:latest

9868

21007

5

llama3:8b-text-q4_K_S

9845

20980

6

smollm2:135m

4058

5016

7

llama2:latest

3124

3928

8

hermes3:8b

2856

3372

9

llama3.1:8b

2714

3321

10

qwen2.5:1.5b

2668

3391

Ollama Top Popular Model Names

(Obs: Unika IP-distributioner avser antalet unika IP-adresser som har distribuerat minst en instans av denna modell-tagg. Totalt antal distributionsinstanser avser det totala antalet gånger denna modell-tagg förekommer i models-listan över alla IP-adresser. En IP-adress kan peka på samma modell-tagg flera gånger genom olika medel eller poster, eller en IP-adress kan köra flera instanser av olika taggar som tillhör samma basmodell.)

Initiala observationer (Populära modellnamn):

  • Modeller med taggen :latest är mycket vanliga, såsom llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest. Detta indikerar att många användare föredrar att dra den senaste versionen av modeller direkt.

  • Modeller från Llama-serien (t.ex. llama3:latest, llama3:8b-text-q4_K_S, llama2:latest, llama3.1:8b) upptar flera platser och visar deras starka popularitet.

  • Kinesiska AI-modeller som deepseek-r1:latest (DeepSeek-serien) och qwen:latest (Tongyi Qianwen-serien) presterar också imponerande och rankas högt.

  • Specifika kvantiserade versioner som llama3:8b-text-q4_K_S tog sig också in på topp tio, vilket indikerar användarnas preferens för specifika avvägningar mellan prestanda och resursförbrukning.

  • Små modeller som smollm2:135m och qwen2.5:1.5b har också ett betydande antal distributioner, vilket möter efterfrågan på lättviktsmodeller.

6.3 Topp modellfamiljer

Modellfamiljen (details.family-fältet) representerar modellens basarkitektur eller primära teknologiska härstamning. Nedan finns modellfamiljerna med flest distributioner baserat på vår dataanalys:

Rank

Modellfamilj (family)

Unika IP-distributioner (uppskattat)

Totalt antal distributionsinstanser (uppskattat)

1

llama

~20250

~103480

2

qwen2

~17881

~61452

3

nomic-bert

~1479

~1714

4

gemma3

~1363

~2493

5

bert

~1228

~2217

6

mllama

~943

~1455

7

gemma

~596

~750

8

deepseek2

~484

~761

9

phi3

~368

~732

10

gemma2

~244

~680

Ollama Top Model Families

(Obs: De specifika värdena här är uppskattade och sammanfattade baserat på den tidigare sökta topp 50 modellinformationen och kan skilja sig något från exakt global statistik, men trenden är representativ.)

Initiala observationer (Populära modellfamiljer):

  • llama-familjen har en absolut dominerande position, i överensstämmelse med att Llama-seriens modeller är grunden för många moderna LLM med öppen källkod och deras egen utbredda tillämpning. Dess stora ekosystem och många finjusterade versioner gör den till det mest populära valet.

  • qwen2 (Tongyi Qianwen Qwen2-serien), som den näst största familjen, visar sin starka konkurrenskraft i Kina och även globalt.

  • Förekomsten av nomic-bert och bert är anmärkningsvärd. Även om de vanligtvis inte betraktas som "storskaliga språkmodeller" (konversationella), utan snarare textinbäddning eller andra basmodeller för naturlig språkbehandling, tyder deras höga distributionsvolym på att Ollama också används i stor utsträckning för sådana uppgifter. Ollama laddar automatiskt ner en standardinbäddningsmodell (t.ex. nomic-embed-text) när vissa operationer utförs (som att generera inbäddningsvektorer), vilket sannolikt är huvudorsaken till att dessa familjer rankas högt.

  • Googles gemma-serie (inklusive gemma3, gemma, gemma2) visar också hyggliga antagningsfrekvenser.

  • Andra välkända modellfamiljer som deepseek2 och phi3 tog sig också in på topp tio.

  • mllama kan representera en samling av olika Llama-baserade hybrid-, modifierade eller community-namngivna modeller.

6.4 Statistik över ursprunglig parameterstorlek

Modellparameterstorlek (details.parameter_size-fältet) är en viktig indikator på modellens skala. På grund av den varierande representationen av parameterstorlekar i rådata (t.ex. "8.0B", "7B", "134.52M"), räknar vi direkt dessa ursprungliga strängar. Nedan finns parameterstorleksrepresentationerna med flest distributioner:

Rank

Parameterstorlek (ursprunglig sträng)

Unika IP-distributioner (uppskattat)

Totalt antal distributionsinstanser (uppskattat)

1

8.0B

~14480

~52577

2

7.6B

~14358

~28105

3

7.2B

~11233

~22907

4

4B

~9895

~21058

5

7B

~4943

~11738

6

134.52M

~4062

~5266

7

1.5B

~2759

~3596

8

13B

~2477

~3311

9

1.8B

~2034

~2476

10

3.2B

~1553

~2244

11

137M

~1477

~1708

12

12.2B

~1421

~2000

13

32.8B

~1254

~2840

14

14.8B

~1123

~2091

15

4.3B

~943

~1194

Ollama Top Original Parameter Size Statistics

(Obs: Värdena är uppskattade baserat på en sammanfattning av parameterinformation från den tidigare sökta topp 50 modellinformationen.)

Initiala observationer (Populära parameterstorlekar):

  • Modeller i storleksordningen 7B till 8B är den absoluta huvudströmmen: "8.0B", "7.6B", "7.2B", "7B" upptar majoriteten av distributionerna. Detta motsvarar vanligtvis mycket populära modeller i communityn, såsom Llama 2/3 7B/8B-serien, Mistral 7B och deras olika finjusterade versioner. De ger en bra balans mellan prestanda och resursförbrukning.

  • Modeller i storleksordningen 4B har också en viktig position: Den höga distributionen av "4B" är anmärkningsvärd.

  • Lättviktsmodeller på miljon-parameternivå (M) är utbredda: Den höga rankningen av "134.52M" och "137M" är sannolikt relaterad till populariteten hos inbäddningsmodeller (som nomic-embed-text) eller mycket små specialiserade modeller (som smollm-serien). Dessa modeller är små, snabba och lämpliga för resurssvaga eller latenskänsliga scenarier.

  • Stabil efterfrågan på små modeller i intervallet 1B-4B: Modeller med parameterstorlekar som "1.5B", "1.8B", "3.2B", "4.3B" föredras också av en del av användarna.

  • Stora modeller över 10B: Såsom "13B", "12.2B", "32.8B", "14.8B", har visserligen inte lika många unika IP-distributioner som 7-8B-nivån, men har ändå en betydande distributionsvolym, vilket indikerar en community-efterfrågan på mer kapabla modeller, trots deras högre hårdvarukrav.

6.5 Statistik över kvantiseringsnivåer

Modellens kvantiseringsnivå (details.quantization_level-fältet) återspeglar den viktprecision som modellen använder för att minska storleken och accelerera inferens. Nedan finns kvantiseringsnivåerna med flest distributioner:

Rank

Kvantiseringsnivå (ursprunglig sträng)

Unika IP-distributioner (uppskattat)

Totalt antal distributionsinstanser (uppskattat)

1

Q4_K_M

~20966

~53688

2

Q4_0

~18385

~88653

3

Q4_K_S

~9860

~21028

4

F16

~5793

~9837

5

Q8_0

~596

~1574

6

unknown

~266

~1318

7

Q5_K_M

~97

~283

8

F32

~85

~100

9

Q6_K

~60

~178

10

Q2_K

~54

~140

Ollama Top Quantization Level Statistics

(Obs: Värdena är uppskattade baserat på en sammanfattning av kvantiseringsinformation från den tidigare sökta topp 50 modellinformationen.)

Initiala observationer (Populära kvantiseringsnivåer):

  • 4-bitars kvantisering är den dominerande lösningen: Q4_K_M, Q4_0 och Q4_K_S, dessa tre 4-bitars kvantiseringsnivåer, toppar absolut listorna. Detta indikerar tydligt att communityn i stor utsträckning antar 4-bitars kvantisering som den föredragna lösningen för att uppnå bästa balans mellan modellprestanda, inferenshastighet och resursanvändning (särskilt VRAM).

  • F16 (16-bitars flyttal) har fortfarande en betydande plats: Som en okvantiserad (eller endast grundläggande kvantiserad) version visar den höga distributionen av F16 att ett betydande antal användare väljer den för att sträva efter högsta modelltrohet eller för att de har tillräckliga hårdvaruresurser.

  • Q8_0 (8-bitars kvantisering) som ett komplement: Erbjuder ett alternativ mellan 4-bitars och F16.

  • Förekomst av unknown-värden: Indikerar att information om kvantiseringsnivå saknas eller är icke-standardiserad i viss modellmetadata.

6.6 Distribution av AI-beräkningskraft (efter modellparameterstorlek): Kina vs. USA

För att få en djupare förståelse för hur modeller av olika skalor distribueras i större länder, kategoriserade och räknade vi parameterstorlekarna för modeller distribuerade på Ollama-instanser i USA och Kina. Parameterstorlek anses ofta vara en viktig indikator på modellkomplexitet och potentiell efterfrågan på AI-beräkningskraft.

Standard för klassificering av parameterstorlek:

  • Små: < 1 miljard parametrar (< 1B)

  • Medel: 1 miljard till < 10 miljarder parametrar (1B till < 10B)

  • Stora: 10 miljarder till < 50 miljarder parametrar (10B till < 50B)

  • Extra stora: >= 50 miljarder parametrar (>= 50B)

Tabellen nedan visar antalet unika IP-adresser som distribuerar modeller av olika parameterstorlekar i USA och Kina:

Land

Kategori för parameterstorlek

Antal unika IP

China

Small (<1B)

3313

China

Medium (1B to <10B)

4481

China

Large (10B to <50B)

1548

China

Extra Large (>=50B)

280

United States

Small (<1B)

1368

United States

Medium (1B to <10B)

6495

United States

Large (10B to <50B)

1301

United States

Extra Large (>=50B)

58

The table below shows the number of unique IPs deploying models of different parameter scales in the US and China

Data Insikter och Analys:

  1. Medelstora modeller är huvudströmmen, men med olika fokus:

    • USA: Distributioner av medelstora modeller (1B-10B) är helt dominerande i USA (6495 unika IP-adresser).

    • Kina: Medelstora modeller (4481 unika IP-adresser) är också den mest distribuerade typen i Kina, men distributionen av små modeller (<1B) i Kina (3313 unika IP-adresser) är mycket betydande.

  2. Betydande skillnad i små modeller: Kinas storskaliga distribution av små modeller kan återspegla en preferens för edge computing, mobila AI-applikationer och liknande scenarier.

  3. Distribution av stora och extra stora modeller: Kina visar högre aktivitet i att utforska stora och extra stora modeller (om än från en mindre bas).

  4. Slutsatser om den totala beräkningskraftinvesteringen: USA:s bas inom medelstora modeller visar på utbreddheten av praktiska AI-tillämpningar. Kina har en fördel inom små modeller och utforskar aktivt stora modeller.

  5. Implikationer för globala trender: Medelstora modeller är sannolikt populära globalt. Olika regioner kan ha varierande strategier för modelladoption baserat på deras ekosystem och resursförhållanden.

Genom att segmentera modellparameterstorlekarna i Kina och USA kan vi se de olika fokus och utvecklingspotentialerna för Ollama-applikationer i de två länderna.

7. Nätverksinsikter

7.1 Portanvändning

  • 11434 (standardport): Majoriteten (30 722 unika IP-adresser) av Ollama-instanserna körs på standardporten 11434.

  • Andra vanliga portar: Portar som 80 (1 619 unika IP-adresser), 8080 (1 571 unika IP-adresser), 443 (1 339 unika IP-adresser), etc., används också, vilket kan indikera att vissa instanser är distribuerade bakom en omvänd proxy eller att användare har anpassat porten.

7.2 Protokollanvändning

  • HTTP: Cirka 65 506 unika IP-adresser har instanser som tjänar via HTTP-protokollet.

  • HTTPS: Cirka 43 765 unika IP-adresser har instanser som tjänar via HTTPS-protokollet.

De flesta instanser exponeras fortfarande via okrypterad HTTP, vilket kan utgöra vissa säkerhetsrisker. (Observera: En IP-adress kan stödja både HTTP och HTTPS, så summan av IP-antalen här kan överstiga det totala antalet unika IP-adresser)

7.3 Huvudvärdleverantörer (AS Organisation)

Värdskapet för Ollama-instanser är mycket koncentrerat bland molntjänstleverantörer.

Rank

AS Organisation

Antal unika IP

Huvudsaklig associerad leverantör

1

AMAZON-02

53658

AWS

2

AMAZON-AES

5539

AWS

3

Chinanet

4964

China Telecom

4

Hangzhou Alibaba Advertising Co.,Ltd.

2647

Alibaba Cloud

5

HENGTONG-IDC-LLC

2391

Hosting Provider

6

Shenzhen Tencent Computer Systems Company Limited

1682

Tencent Cloud

7

CHINA UNICOM China169 Backbone

1606

China Unicom

8

Hetzner Online GmbH

972

Hetzner

9

China Unicom Beijing Province Network

746

China Unicom (Beijing)

10

LEASEWEB-USA-LAX

735

Leaseweb

Ollama instance hosting is highly concentrated among cloud service providers

AWS (AMAZON-02, AMAZON-AES) har den största andelen, följt av större kinesiska teleoperatörer och molntjänstleverantörer (som Alibaba Cloud, Tencent Cloud). Andra värdleverantörer som Hetzner och Leaseweb har också betydande andelar.

8. Säkerhet och andra observationer

  • Versionsinformation: Av säkerhetsskäl har vi inte listat statistik över Ollama-versioner.

  • Risk med HTTP-exponering: Som nämnts tidigare exponeras ett stort antal Ollama-instanser via HTTP utan TLS-kryptering, vilket kan göra kommunikationsinnehåll (t.ex. interaktioner med modeller) sårbart för avlyssning eller manipulering. Användare rekommenderas att konfigurera en omvänd proxy och aktivera HTTPS.

  • API-tillgänglighet: Data i denna rapport baseras på Ollama-instanser vars /api/tags-gränssnitt är publikt tillgängligt. Det faktiska antalet distributioner kan vara högre, men vissa instanser kan vara distribuerade i privata nätverk eller ha extern åtkomst begränsad av brandväggar.

9. Slutsats och kort översikt

Denna rapport, genom att analysera data från 99 412 globalt publikt tillgängliga Ollama-instanser (via deras /api/tags-gränssnitt), drar följande huvudslutsatser och observationer:

1. Global distributionsöversikt och geografisk spridning:

  • Ollama, som ett bekvämt verktyg för att köra storskaliga modeller lokalt, har blivit brett distribuerat globalt. Denna analys identifierade 99 412 publikt tillgängliga unika IP-adresser.

  • Hög geografisk koncentration: USA och Kina är de två länder/regioner med flest koncentrerade Ollama-distributioner, som tillsammans står för en betydande del av det totala antalet tillgängliga instanser (USA 29 195, Kina 16 464). Länder som Japan, Tyskland, Storbritannien, Indien och Singapore har också anmärkningsvärda distributionsantal.

  • Stadshotspots: I USA leder städer som Ashburn, Portland och Columbus i distributioner; i Kina är tekniskt avancerade städer som Beijing, Hangzhou, Shanghai och Guangzhou de huvudsakliga distributionsplatserna. Detta är ofta relaterat till koncentrationen av teknikföretag, datacenter och utvecklarcommunities.

2. Trender för AI-modelldistribution:

  • Populära modell-taggar: Allmänna senaste taggar som llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest är mest populära. Specifikt optimerade versioner som llama3:8b-text-q4_K_S föredras också för sin goda balans.

  • Dominanta modellfamiljer: llama-familjen leder med absolut marginal, följt av qwen2. Den höga rankningen av inbäddningsmodellfamiljer som nomic-bert och bert är anmärkningsvärd, möjligen relaterad till Ollamas standardbeteende.

  • Preferenser för parameterstorlek: Modeller med 7B-8B parametrar är för närvarande huvudströmmen. Lättviktsmodeller på miljon-parameternivå och stora modeller över 10B har också sina respektive marknader. En jämförelse mellan USA och Kina visar att USA distribuerar fler medelstora modeller, medan Kina är mer aktivt i att utforska små och extra stora modeller.

  • Val av kvantiseringsnivå: 4-bitars kvantisering (särskilt Q4_K_M och Q4_0) är det överväldigande valet. F16, som ett alternativ med högre trohet, har också en viktig position.

  • Metadatakomplexitet: Analys av modellmetadata (t.ex. tolkning av fältet för modellfamilj) avslöjar ibland komplexitet mellan dess register och modellnamn eller gemensam förståelse, vilket belyser mångfalden av metadatahantering i open-source-ekosystemet.

3. Teknisk infrastruktur:

  • Värdsmiljöer: Ett stort antal Ollama-instanser är hostade hos stora molntjänstleverantörer som AWS, Alibaba Cloud, Tencent Cloud, samt i nätverken hos större nationella teleoperatörer.

  • Tjänstportar: Ollamas standardport 11434 är den mest använda, men ett betydande antal instanser exponeras också via standardwebportar.

4. Objektiv bedömning:

  • Ollamas popularitet: Data visar tydligt Ollamas höga antagningsfrekvens bland utvecklare och AI-entusiaster världen över.

  • Livskraft i open-source-ekosystemet: Mångfalden av populära modeller och den utbredda användningen av olika parameter- och kvantiseringsversioner återspeglar den blomstrande utvecklingen av open-source AI-modell ekosystemet.

  • Balans i användarpreferenser: Vid val av modeller tenderar användare att söka en balans mellan modellkapacitet, driftseffektivitet och hårdvarukostnader.

  • Säkerhet och öppenhet: Ett stort antal instanser tillåter publik åtkomst till sina modelllistor, vilket, även om det är bekvämt för communityn, också kan innebära säkerhetsrisker.

5. Framtidsutsikter:

  • Med framväxten av effektivare, mindre modeller och ytterligare framsteg inom kvantiseringsteknik förväntas distributionsbarriären för Ollama fortsätta att minska.

  • Standardisering av modellmetadata och community-delade modeller är avgörande för att förbättra transparensen och användbarheten i ekosystemet.

Sammanfattningsvis håller Ollama på att bli en viktig brygga som kopplar samman banbrytande storskaliga språkmodeller med ett brett spektrum av utvecklare, forskare och till och med allmänna användare. Denna dataanalys ger värdefulla insikter för att förstå dess nuvarande globala distributionsstatus och användarpreferenser.

Kommentarer

comments.comments (0)

Please login first

Sign in