
Ett nytt perspektiv på AI-kapplöpningen mellan USA och Kina: Jämförelse av Ollama-distributioner 2025 och insikter om globala AI-modellers trender
Ollama är ett populärt verktyg med öppen källkod designat för att förenkla processen att köra, skapa och dela stora språkmodeller (LLM) lokalt. Det paketerar modellvikter, konfiguration och data i ett paket definierat av en Modelfile och tillhandahåller ett API för att interagera med dessa modeller. Detta gör det möjligt för utvecklare och forskare att enkelt distribuera och experimentera med olika avancerade AI-modeller på persondatorer eller servrar.
1. Introduktion
Ollama är ett populärt verktyg med öppen källkod designat för att förenkla processen att köra, skapa och dela stora språkmodeller (LLM) lokalt. Det paketerar modellvikter, konfiguration och data i ett paket definierat av en Modelfile och tillhandahåller ett API för att interagera med dessa modeller. Detta gör det möjligt för utvecklare och forskare att enkelt distribuera och experimentera med olika avancerade AI-modeller på persondatorer eller servrar.
Denna rapport syftar till att avslöja distributionstrender, modellpreferenser, geografisk spridning och nätverksegenskaper genom att analysera data från 174 590 Ollama-instanser distribuerade globalt.
Obs: Datastatistiken i kapitel 5 och kapitel 7 kommer från alla 174 590 instanser. Data i kapitel 6 kommer från tillgängliga instanser. Av säkerhetsskäl har vi inte listat statistik över Ollama-versioner.
Data per: 24 april 2025.
Rapportkälla: Tenthe AI https://tenthe.com
Författare: Ryan
2. Sammanfattning
Denna rapport är baserad på analys av skanningsdata och API-sondering av publikt tillgängliga Ollama-instanser världen över. Viktiga resultat inkluderar:
Globalt, bland cirka 174 590 poster som initialt identifierades via Fofa (99 412 unika IP-adresser), sonderades 41 021 Ollama-instanser med tillgängliga API:er framgångsrikt, distribuerade över 24 038 unika IP-adresser (en tillgänglighet på cirka 24,18%).
Geografiskt är USA och Kina de länder med flest Ollama-distributioner. Molntjänstleverantörer, särskilt AWS, Alibaba Cloud och Tencent Cloud, är de primära värdarna för Ollama-instanser.
Modelldistributionerna visar mångfald, med modeller som
llama3
,deepseek-r1
,mistral
ochqwen
-serierna som är allmänt populära. Bland dem ärllama3:latest
ochdeepseek-r1:latest
de två mest distribuerade modell-taggarna.Modeller med 7B-8B parametrar är det mest populära valet för användare, medan 4-bitars kvantiserade modeller som Q4_K_M och Q4_0 är allmänt antagna för sin goda balans mellan prestanda och resursförbrukning.
Standardporten
11434
är den mest använda, och de flesta instanser exponerar tjänster via HTTP-protokollet.
3. Datakällor och metodik
Data för denna rapport kommer primärt från två steg:
Initial skanning: Användning av nätverksutrymmessökmotorer som Fofa, med villkoret
app="Ollama" && is_domain=false
, för att initialt identifiera potentiella Ollama-instanser distribuerade globalt. Detta steg fann 174 590 poster, involverande 99 412 unika IP-adresser efter deduplicering.API-verifiering och dataanrikning: Sondering av API-slutpunkten
ip:port/api/tags
för de initialt skannade IP-adresserna för att bekräfta tillgängligheten av Ollama-tjänster och erhålla information om de specifika AI-modeller som distribuerats. Detta steg bekräftade 41 021 framgångsrikt svarande Ollama-instanser (från 24 038 unika IP-adresser, med data lagrad i tabellenollama
).Den slutliga datan lagras i tabellen
ollama
.
Analysen i denna rapport är primärt baserad på data från tabellen ollama
, som innehåller poster över framgångsrikt sonderade API:er och deras detaljerade information, inklusive IP, port, geografisk plats och JSON-svaret (innehållande modelllistan), etc.
4. Övergripande distributionsstatistik
Antal initiala poster från Fofa-skanning: 174 590
Antal unika IP-adresser från Fofa initial skanning: 99 412
Antal Ollama-instanser som framgångsrikt kunde nå
/api/tags
: 41 021 (från poster därstatus = 'success'
i tabellenollama
)Antal motsvarande unika IP-adresser: 24 038 (från poster där
status = 'success'
i tabellenollama
)Förhållandet mellan tillgängliga IP-adresser och initialt identifierade IP-adresser: (24038 / 99412) * 100% ≈ 24,18%
Detta indikerar att bland alla Ollama-instanser som identifierades via Fofa, har cirka en fjärdedel sitt /api/tags
-gränssnitt publikt tillgängligt, vilket gör det möjligt för oss att hämta information om deras distribuerade modeller.
5. Geografisk distributionsanalys
5.1 Topp 20 distributionsländer/regioner
Tabellen nedan visar de 20 främsta länderna/regionerna rankade efter antalet unika IP-adresser med Ollama-instanser.
Rank | Land/Region | Antal unika IP |
---|---|---|
1 | United States | 29195 |
2 | China | 16464 |
3 | Japan | 5849 |
4 | Germany | 5438 |
5 | United Kingdom | 4014 |
6 | India | 3939 |
7 | Singapore | 3914 |
8 | South Korea | 3773 |
9 | Ireland | 3636 |
10 | France | 3599 |
11 | Australia | 3558 |
12 | Brazil | 2909 |
13 | Canada | 2763 |
14 | South Africa | 2742 |
15 | Sweden | 2113 |
16 | Hong Kong SAR, China | 1277 |
17 | Israel | 675 |
18 | Taiwan, China | 513 |
19 | Russia | 475 |
20 | Finland | 308 |

5.2 Topp 20 globala stadsdistributioner
Tabellen nedan visar de 20 främsta städerna globalt rankade efter antalet unika IP-adresser med Ollama-instanser.
Rank | Stad | Land/Region | Antal unika IP |
---|---|---|---|
1 | Ashburn | United States | 5808 |
2 | Portland | United States | 5130 |
3 | Singapore | Singapore | 3914 |
4 | Frankfurt am Main | Germany | 3908 |
5 | Beijing | China | 3906 |
6 | London | United Kingdom | 3685 |
7 | Columbus | United States | 3672 |
8 | Mumbai | India | 3637 |
9 | Dublin | Ireland | 3631 |
10 | Tokyo | Japan | 3620 |
11 | Sydney | Australia | 3487 |
12 | Paris | France | 3175 |
13 | San Jose | United States | 2815 |
14 | Sao Paulo | Brazil | 2753 |
15 | Cape Town | South Africa | 2692 |
16 | Montreal | Canada | 2535 |
17 | Seattle | United States | 2534 |
18 | Hangzhou | China | 2447 |
19 | Seoul | South Korea | 2327 |
20 | Osaka | Japan | 2184 |
5.3 Topp 10 stadsdistributioner i USA
Rank | Stad | Antal unika IP |
---|---|---|
1 | Ashburn | 5808 |
2 | Portland | 5130 |
3 | Columbus | 3672 |
4 | San Jose | 2815 |
5 | Seattle | 2534 |
6 | Westlake Village | 1714 |
7 | Boardman | 855 |
8 | Florence | 776 |
9 | San Francisco | 753 |
10 | Boulder | 642 |

5.4 Topp 10 stadsdistributioner i Kina (fastlandet)
Distributioner i Hongkong och Taiwan återspeglas inte i tabellen över de 10 främsta städerna, då de redan ingår i statistiken för länder/regioner.
Rank | Stad | Land ( | Antal unika IP |
---|---|---|---|
1 | Beijing | China | 3906 |
2 | Hangzhou | China | 2447 |
3 | Shanghai | China | 1335 |
4 | Guangzhou | China | 1296 |
5 | Shenzhen | China | 768 |
6 | Chengdu | China | 469 |
7 | Nanjing | China | 329 |
8 | Chongqing | China | 259 |
9 | Suzhou | China | 257 |
10 | Wuhan | China | 249 |

5.5 Jämförelse av topp 10 stadsdistributioner i USA och Kina
För att mer intuitivt jämföra Ollama-distributioner på stadsnivå i USA och Kina, ställer tabellen nedan samman antalet unika IP-distributioner för de 10 främsta städerna i båda länderna:
Rank | USA Stad (Topp 10) | Antal unika IP (USA) | Kina Stad (Topp 10) | Antal unika IP (Kina) |
---|---|---|---|---|
1 | Ashburn | 5808 | Beijing | 3906 |
2 | Portland | 5130 | Hangzhou | 2447 |
3 | Columbus | 3672 | Shanghai | 1335 |
4 | San Jose | 2815 | Guangzhou | 1296 |
5 | Seattle | 2534 | Shenzhen | 768 |
6 | Westlake Village | 1714 | Chengdu | 469 |
7 | Boardman | 855 | Nanjing | 329 |
8 | Florence | 776 | Chongqing | 259 |
9 | San Francisco | 753 | Suzhou | 257 |
10 | Boulder | 642 | Wuhan | 249 |

Kort kommentar:
Volym i ledande städer: De 3 främsta städerna i USA (Ashburn, Portland, Columbus) har var och en över 3 000 unika IP-adresser med Ollama-distributioner. Kinas främsta stad (Beijing) har över 3 000 distributioner, och dess andra stad (Hangzhou) har över 2 000.
Teknik- och ekonomiska nav: Många av de listade städerna i båda länderna är välkända centra för teknikinnovation eller viktiga ekonomiska regioner.
Datacenterregioner: Inkluderingen av amerikanska städer som Ashburn speglar också att Ollama-instanser i stor utsträckning kan distribueras inom molnservrar och datacenter.
Skillnader i distribution: Totalt sett är det totala antalet IP-adresser i USA:s topp 10 städer betydligt högre än i Kinas topp 10 städer. Båda länderna visar dock ett mönster där ett fåtal kärnstäder står för den stora majoriteten av Ollama-distributioner.
Denna jämförelse på stadsnivå avslöjar ytterligare att marknadsföringen och tillämpningen av Ollama, som ett utvecklingsverktyg, är nära kopplad till regionala teknologiska ekosystem och industriell utveckling.
6. Modellanalys
6.1 Kort översikt över AI-modeller, parametrar och kvantisering
Ollama stöder en mängd olika storskaliga språkmodeller med öppen källkod. Dessa modeller kännetecknas vanligtvis av följande egenskaper:
6.1.1 Vanliga modellfamiljer
Den nuvarande open-source-communityn har sett en ökning av utmärkta LLM-familjer, var och en med sina egna egenskaper:
Llama-serien (Meta AI): Som Llama 2, Llama 3, Code Llama. Känd för sin kraftfulla allmänna kapacitet och omfattande community-stöd, vilket har lett till många finjusterade versioner. Modeller som
llama3.1
,hermes3
som ses i våra data är ofta baserade på Llama-arkitekturen.Mistral-serien (Mistral AI): Som Mistral 7B, Mixtral 8x7B. Får uppmärksamhet för effektivitet och hög prestanda, särskilt dess MoE (Mixture of Experts)-modeller.
Gemma-serien (Google): Som Gemma 2B, Gemma 7B. Öppenviktade modeller släppta av Google, med teknik härledd från deras kraftfullare Gemini-modeller.
Phi-serien (Microsoft): Som Phi-2, Phi-3. Fokuserar på små men kapabla modeller, med betoning på "SLM (Small Language Models)".
DeepSeek-serien (DeepSeek AI): Som DeepSeek Coder, DeepSeek LLM. Kinesiska AI-modeller som utmärker sig inom kodning och allmänna uppgifter.
Qwen-serien (Alibaba Tongyi Qianwen): Som Qwen1.5. En serie modeller lanserade av Alibaba DAMO Academy, som stöder flera språk och uppgifter.
Det finns många andra utmärkta modeller, såsom Yi (01.AI), Command R (Cohere), etc.
Ollama, genom sin Modelfile
-mekanism, gör det möjligt för användare att enkelt använda dessa basmodeller eller deras finjusterade versioner. Modellnamn följer ofta formatet familj:storlek-variant-kvantisering
, till exempel llama3:8b-instruct-q4_K_M
.
6.1.2 Modellparametrar (Parameterstorlek)
Antalet modellparametrar (vanligtvis i B - miljarder; eller M - miljoner) är en viktig indikator på en modells skala och potentiella kapacitet. Vanliga parameterstorlekar inkluderar:
Små modeller: < 7B (t.ex. 1.5B, 2B, 3B). Körs vanligtvis snabbt med låg resursförbrukning, lämpliga för specifika uppgifter eller miljöer med begränsade resurser.
Medelstora modeller: 7B, 8B, 13B. Uppnår en bra balans mellan kapacitet och resursförbrukning, för närvarande en av de mest populära storlekarna i communityn.
Stora modeller: 30B, 33B, 40B, 70B+. Generellt mer kapabla men kräver också mer beräkningsresurser (RAM, VRAM) och längre inferenstider.
Fältet parameter_size
i våra data (t.ex. "8.0B", "7B", "134.52M") indikerar detta.
6.1.3 Kvantiseringsversioner (Kvantiseringsnivå)
Kvantisering är en teknik för att minska modellstorleken och accelerera inferens genom att sänka den numeriska precisionen på modellvikterna (t.ex. från 16-bitars flyttal FP16 till 4-bitars heltal INT4).
Vanliga kvantiseringsnivåer: Ollama och GGUF-formatet (använt av Llama.cpp) stöder olika kvantiseringsstrategier, såsom
Q2_K
,Q3_K_S
,Q3_K_M
,Q3_K_L
,Q4_0
,Q4_K_M
,Q5_K_M
,Q6_K
,Q8_0
, etc.Siffran (t.ex. 2, 3, 4, 5, 6, 8) indikerar ungefär antalet bitar.
K
-serie kvantisering (t.ex.Q4_K_M
) är förbättrade kvantiseringsmetoder introducerade i llama.cpp, som vanligtvis uppnår bättre prestanda vid samma antal bitar._S
,_M
,_L
indikerar vanligtvis olika varianter av K-kvantiseringsmetoder, som påverkar olika delar av modellen.F16
(FP16) representerar 16-bitars flyttal, ofta betraktat som okvantiserat eller en bas-kvantiseringsversion.F32
(FP32) är full precision.
Avvägning: Högre kvantisering (lägre antal bitar) resulterar i mindre, snabbare modeller, men innebär vanligtvis viss prestandaförlust (modellen presterar sämre). Användare måste välja baserat på sin hårdvara och krav på modellkvalitet.
Fältet quantization_level
i våra data (t.ex. "Q4_K_M", "F16") indikerar detta.
6.2 Topp populära modellnamn
Tabellen nedan visar de 10 mest populära modell-taggarna rankade efter antalet unika IP-distributioner, inklusive information om deras familj, parameterstorlek och kvantiseringsnivå.
Rank | Modellnamn (model_name) | Unika IP-distributioner | Totalt antal distributionsinstanser |
---|---|---|---|
1 |
| 12659 | 24628 |
2 |
| 12572 | 24578 |
3 |
| 11163 | 22638 |
4 |
| 9868 | 21007 |
5 |
| 9845 | 20980 |
6 |
| 4058 | 5016 |
7 |
| 3124 | 3928 |
8 |
| 2856 | 3372 |
9 |
| 2714 | 3321 |
10 |
| 2668 | 3391 |

(Obs: Unika IP-distributioner avser antalet unika IP-adresser som har distribuerat minst en instans av denna modell-tagg. Totalt antal distributionsinstanser avser det totala antalet gånger denna modell-tagg förekommer i models
-listan över alla IP-adresser. En IP-adress kan peka på samma modell-tagg flera gånger genom olika medel eller poster, eller en IP-adress kan köra flera instanser av olika taggar som tillhör samma basmodell.)
Initiala observationer (Populära modellnamn):
Modeller med taggen
:latest
är mycket vanliga, såsomllama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
. Detta indikerar att många användare föredrar att dra den senaste versionen av modeller direkt.Modeller från Llama-serien (t.ex.
llama3:latest
,llama3:8b-text-q4_K_S
,llama2:latest
,llama3.1:8b
) upptar flera platser och visar deras starka popularitet.Kinesiska AI-modeller som
deepseek-r1:latest
(DeepSeek-serien) ochqwen:latest
(Tongyi Qianwen-serien) presterar också imponerande och rankas högt.Specifika kvantiserade versioner som
llama3:8b-text-q4_K_S
tog sig också in på topp tio, vilket indikerar användarnas preferens för specifika avvägningar mellan prestanda och resursförbrukning.Små modeller som
smollm2:135m
ochqwen2.5:1.5b
har också ett betydande antal distributioner, vilket möter efterfrågan på lättviktsmodeller.
6.3 Topp modellfamiljer
Modellfamiljen (details.family
-fältet) representerar modellens basarkitektur eller primära teknologiska härstamning. Nedan finns modellfamiljerna med flest distributioner baserat på vår dataanalys:
Rank | Modellfamilj (family) | Unika IP-distributioner (uppskattat) | Totalt antal distributionsinstanser (uppskattat) |
---|---|---|---|
1 |
| ~20250 | ~103480 |
2 |
| ~17881 | ~61452 |
3 |
| ~1479 | ~1714 |
4 |
| ~1363 | ~2493 |
5 |
| ~1228 | ~2217 |
6 |
| ~943 | ~1455 |
7 |
| ~596 | ~750 |
8 |
| ~484 | ~761 |
9 |
| ~368 | ~732 |
10 |
| ~244 | ~680 |

(Obs: De specifika värdena här är uppskattade och sammanfattade baserat på den tidigare sökta topp 50 modellinformationen och kan skilja sig något från exakt global statistik, men trenden är representativ.)
Initiala observationer (Populära modellfamiljer):
llama
-familjen har en absolut dominerande position, i överensstämmelse med att Llama-seriens modeller är grunden för många moderna LLM med öppen källkod och deras egen utbredda tillämpning. Dess stora ekosystem och många finjusterade versioner gör den till det mest populära valet.qwen2
(Tongyi Qianwen Qwen2-serien), som den näst största familjen, visar sin starka konkurrenskraft i Kina och även globalt.Förekomsten av
nomic-bert
ochbert
är anmärkningsvärd. Även om de vanligtvis inte betraktas som "storskaliga språkmodeller" (konversationella), utan snarare textinbäddning eller andra basmodeller för naturlig språkbehandling, tyder deras höga distributionsvolym på att Ollama också används i stor utsträckning för sådana uppgifter. Ollama laddar automatiskt ner en standardinbäddningsmodell (t.ex.nomic-embed-text
) när vissa operationer utförs (som att generera inbäddningsvektorer), vilket sannolikt är huvudorsaken till att dessa familjer rankas högt.Googles
gemma
-serie (inklusivegemma3
,gemma
,gemma2
) visar också hyggliga antagningsfrekvenser.Andra välkända modellfamiljer som
deepseek2
ochphi3
tog sig också in på topp tio.mllama
kan representera en samling av olika Llama-baserade hybrid-, modifierade eller community-namngivna modeller.
6.4 Statistik över ursprunglig parameterstorlek
Modellparameterstorlek (details.parameter_size
-fältet) är en viktig indikator på modellens skala. På grund av den varierande representationen av parameterstorlekar i rådata (t.ex. "8.0B", "7B", "134.52M"), räknar vi direkt dessa ursprungliga strängar. Nedan finns parameterstorleksrepresentationerna med flest distributioner:
Rank | Parameterstorlek (ursprunglig sträng) | Unika IP-distributioner (uppskattat) | Totalt antal distributionsinstanser (uppskattat) |
---|---|---|---|
1 |
| ~14480 | ~52577 |
2 |
| ~14358 | ~28105 |
3 |
| ~11233 | ~22907 |
4 |
| ~9895 | ~21058 |
5 |
| ~4943 | ~11738 |
6 |
| ~4062 | ~5266 |
7 |
| ~2759 | ~3596 |
8 |
| ~2477 | ~3311 |
9 |
| ~2034 | ~2476 |
10 |
| ~1553 | ~2244 |
11 |
| ~1477 | ~1708 |
12 |
| ~1421 | ~2000 |
13 |
| ~1254 | ~2840 |
14 |
| ~1123 | ~2091 |
15 |
| ~943 | ~1194 |

(Obs: Värdena är uppskattade baserat på en sammanfattning av parameterinformation från den tidigare sökta topp 50 modellinformationen.)
Initiala observationer (Populära parameterstorlekar):
Modeller i storleksordningen 7B till 8B är den absoluta huvudströmmen: "8.0B", "7.6B", "7.2B", "7B" upptar majoriteten av distributionerna. Detta motsvarar vanligtvis mycket populära modeller i communityn, såsom Llama 2/3 7B/8B-serien, Mistral 7B och deras olika finjusterade versioner. De ger en bra balans mellan prestanda och resursförbrukning.
Modeller i storleksordningen 4B har också en viktig position: Den höga distributionen av "4B" är anmärkningsvärd.
Lättviktsmodeller på miljon-parameternivå (M) är utbredda: Den höga rankningen av "134.52M" och "137M" är sannolikt relaterad till populariteten hos inbäddningsmodeller (som
nomic-embed-text
) eller mycket små specialiserade modeller (somsmollm
-serien). Dessa modeller är små, snabba och lämpliga för resurssvaga eller latenskänsliga scenarier.Stabil efterfrågan på små modeller i intervallet 1B-4B: Modeller med parameterstorlekar som "1.5B", "1.8B", "3.2B", "4.3B" föredras också av en del av användarna.
Stora modeller över 10B: Såsom "13B", "12.2B", "32.8B", "14.8B", har visserligen inte lika många unika IP-distributioner som 7-8B-nivån, men har ändå en betydande distributionsvolym, vilket indikerar en community-efterfrågan på mer kapabla modeller, trots deras högre hårdvarukrav.
6.5 Statistik över kvantiseringsnivåer
Modellens kvantiseringsnivå (details.quantization_level
-fältet) återspeglar den viktprecision som modellen använder för att minska storleken och accelerera inferens. Nedan finns kvantiseringsnivåerna med flest distributioner:
Rank | Kvantiseringsnivå (ursprunglig sträng) | Unika IP-distributioner (uppskattat) | Totalt antal distributionsinstanser (uppskattat) |
---|---|---|---|
1 |
| ~20966 | ~53688 |
2 |
| ~18385 | ~88653 |
3 |
| ~9860 | ~21028 |
4 |
| ~5793 | ~9837 |
5 |
| ~596 | ~1574 |
6 |
| ~266 | ~1318 |
7 |
| ~97 | ~283 |
8 |
| ~85 | ~100 |
9 |
| ~60 | ~178 |
10 |
| ~54 | ~140 |

(Obs: Värdena är uppskattade baserat på en sammanfattning av kvantiseringsinformation från den tidigare sökta topp 50 modellinformationen.)
Initiala observationer (Populära kvantiseringsnivåer):
4-bitars kvantisering är den dominerande lösningen:
Q4_K_M
,Q4_0
ochQ4_K_S
, dessa tre 4-bitars kvantiseringsnivåer, toppar absolut listorna. Detta indikerar tydligt att communityn i stor utsträckning antar 4-bitars kvantisering som den föredragna lösningen för att uppnå bästa balans mellan modellprestanda, inferenshastighet och resursanvändning (särskilt VRAM).F16
(16-bitars flyttal) har fortfarande en betydande plats: Som en okvantiserad (eller endast grundläggande kvantiserad) version visar den höga distributionen avF16
att ett betydande antal användare väljer den för att sträva efter högsta modelltrohet eller för att de har tillräckliga hårdvaruresurser.Q8_0
(8-bitars kvantisering) som ett komplement: Erbjuder ett alternativ mellan 4-bitars ochF16
.Förekomst av
unknown
-värden: Indikerar att information om kvantiseringsnivå saknas eller är icke-standardiserad i viss modellmetadata.
6.6 Distribution av AI-beräkningskraft (efter modellparameterstorlek): Kina vs. USA
För att få en djupare förståelse för hur modeller av olika skalor distribueras i större länder, kategoriserade och räknade vi parameterstorlekarna för modeller distribuerade på Ollama-instanser i USA och Kina. Parameterstorlek anses ofta vara en viktig indikator på modellkomplexitet och potentiell efterfrågan på AI-beräkningskraft.
Standard för klassificering av parameterstorlek:
Små: < 1 miljard parametrar (< 1B)
Medel: 1 miljard till < 10 miljarder parametrar (1B till < 10B)
Stora: 10 miljarder till < 50 miljarder parametrar (10B till < 50B)
Extra stora: >= 50 miljarder parametrar (>= 50B)
Tabellen nedan visar antalet unika IP-adresser som distribuerar modeller av olika parameterstorlekar i USA och Kina:
Land | Kategori för parameterstorlek | Antal unika IP |
---|---|---|
China | Small (<1B) | 3313 |
China | Medium (1B to <10B) | 4481 |
China | Large (10B to <50B) | 1548 |
China | Extra Large (>=50B) | 280 |
United States | Small (<1B) | 1368 |
United States | Medium (1B to <10B) | 6495 |
United States | Large (10B to <50B) | 1301 |
United States | Extra Large (>=50B) | 58 |
--China-vs-USA.jpeg)
Data Insikter och Analys:
Medelstora modeller är huvudströmmen, men med olika fokus:
USA: Distributioner av medelstora modeller (1B-10B) är helt dominerande i USA (6495 unika IP-adresser).
Kina: Medelstora modeller (4481 unika IP-adresser) är också den mest distribuerade typen i Kina, men distributionen av små modeller (<1B) i Kina (3313 unika IP-adresser) är mycket betydande.
Betydande skillnad i små modeller: Kinas storskaliga distribution av små modeller kan återspegla en preferens för edge computing, mobila AI-applikationer och liknande scenarier.
Distribution av stora och extra stora modeller: Kina visar högre aktivitet i att utforska stora och extra stora modeller (om än från en mindre bas).
Slutsatser om den totala beräkningskraftinvesteringen: USA:s bas inom medelstora modeller visar på utbreddheten av praktiska AI-tillämpningar. Kina har en fördel inom små modeller och utforskar aktivt stora modeller.
Implikationer för globala trender: Medelstora modeller är sannolikt populära globalt. Olika regioner kan ha varierande strategier för modelladoption baserat på deras ekosystem och resursförhållanden.
Genom att segmentera modellparameterstorlekarna i Kina och USA kan vi se de olika fokus och utvecklingspotentialerna för Ollama-applikationer i de två länderna.
7. Nätverksinsikter
7.1 Portanvändning
11434
(standardport): Majoriteten (30 722 unika IP-adresser) av Ollama-instanserna körs på standardporten11434
.Andra vanliga portar: Portar som
80
(1 619 unika IP-adresser),8080
(1 571 unika IP-adresser),443
(1 339 unika IP-adresser), etc., används också, vilket kan indikera att vissa instanser är distribuerade bakom en omvänd proxy eller att användare har anpassat porten.
7.2 Protokollanvändning
HTTP: Cirka 65 506 unika IP-adresser har instanser som tjänar via HTTP-protokollet.
HTTPS: Cirka 43 765 unika IP-adresser har instanser som tjänar via HTTPS-protokollet.
De flesta instanser exponeras fortfarande via okrypterad HTTP, vilket kan utgöra vissa säkerhetsrisker. (Observera: En IP-adress kan stödja både HTTP och HTTPS, så summan av IP-antalen här kan överstiga det totala antalet unika IP-adresser)
7.3 Huvudvärdleverantörer (AS Organisation)
Värdskapet för Ollama-instanser är mycket koncentrerat bland molntjänstleverantörer.
Rank | AS Organisation | Antal unika IP | Huvudsaklig associerad leverantör |
---|---|---|---|
1 | AMAZON-02 | 53658 | AWS |
2 | AMAZON-AES | 5539 | AWS |
3 | Chinanet | 4964 | China Telecom |
4 | Hangzhou Alibaba Advertising Co.,Ltd. | 2647 | Alibaba Cloud |
5 | HENGTONG-IDC-LLC | 2391 | Hosting Provider |
6 | Shenzhen Tencent Computer Systems Company Limited | 1682 | Tencent Cloud |
7 | CHINA UNICOM China169 Backbone | 1606 | China Unicom |
8 | Hetzner Online GmbH | 972 | Hetzner |
9 | China Unicom Beijing Province Network | 746 | China Unicom (Beijing) |
10 | LEASEWEB-USA-LAX | 735 | Leaseweb |

AWS (AMAZON-02, AMAZON-AES) har den största andelen, följt av större kinesiska teleoperatörer och molntjänstleverantörer (som Alibaba Cloud, Tencent Cloud). Andra värdleverantörer som Hetzner och Leaseweb har också betydande andelar.
8. Säkerhet och andra observationer
Versionsinformation: Av säkerhetsskäl har vi inte listat statistik över Ollama-versioner.
Risk med HTTP-exponering: Som nämnts tidigare exponeras ett stort antal Ollama-instanser via HTTP utan TLS-kryptering, vilket kan göra kommunikationsinnehåll (t.ex. interaktioner med modeller) sårbart för avlyssning eller manipulering. Användare rekommenderas att konfigurera en omvänd proxy och aktivera HTTPS.
API-tillgänglighet: Data i denna rapport baseras på Ollama-instanser vars
/api/tags
-gränssnitt är publikt tillgängligt. Det faktiska antalet distributioner kan vara högre, men vissa instanser kan vara distribuerade i privata nätverk eller ha extern åtkomst begränsad av brandväggar.
9. Slutsats och kort översikt
Denna rapport, genom att analysera data från 99 412 globalt publikt tillgängliga Ollama-instanser (via deras /api/tags
-gränssnitt), drar följande huvudslutsatser och observationer:
1. Global distributionsöversikt och geografisk spridning:
Ollama, som ett bekvämt verktyg för att köra storskaliga modeller lokalt, har blivit brett distribuerat globalt. Denna analys identifierade 99 412 publikt tillgängliga unika IP-adresser.
Hög geografisk koncentration: USA och Kina är de två länder/regioner med flest koncentrerade Ollama-distributioner, som tillsammans står för en betydande del av det totala antalet tillgängliga instanser (USA 29 195, Kina 16 464). Länder som Japan, Tyskland, Storbritannien, Indien och Singapore har också anmärkningsvärda distributionsantal.
Stadshotspots: I USA leder städer som Ashburn, Portland och Columbus i distributioner; i Kina är tekniskt avancerade städer som Beijing, Hangzhou, Shanghai och Guangzhou de huvudsakliga distributionsplatserna. Detta är ofta relaterat till koncentrationen av teknikföretag, datacenter och utvecklarcommunities.
2. Trender för AI-modelldistribution:
Populära modell-taggar: Allmänna senaste taggar som
llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
är mest populära. Specifikt optimerade versioner somllama3:8b-text-q4_K_S
föredras också för sin goda balans.Dominanta modellfamiljer:
llama
-familjen leder med absolut marginal, följt avqwen2
. Den höga rankningen av inbäddningsmodellfamiljer somnomic-bert
ochbert
är anmärkningsvärd, möjligen relaterad till Ollamas standardbeteende.Preferenser för parameterstorlek: Modeller med 7B-8B parametrar är för närvarande huvudströmmen. Lättviktsmodeller på miljon-parameternivå och stora modeller över 10B har också sina respektive marknader. En jämförelse mellan USA och Kina visar att USA distribuerar fler medelstora modeller, medan Kina är mer aktivt i att utforska små och extra stora modeller.
Val av kvantiseringsnivå: 4-bitars kvantisering (särskilt
Q4_K_M
ochQ4_0
) är det överväldigande valet.F16
, som ett alternativ med högre trohet, har också en viktig position.Metadatakomplexitet: Analys av modellmetadata (t.ex. tolkning av fältet för modellfamilj) avslöjar ibland komplexitet mellan dess register och modellnamn eller gemensam förståelse, vilket belyser mångfalden av metadatahantering i open-source-ekosystemet.
3. Teknisk infrastruktur:
Värdsmiljöer: Ett stort antal Ollama-instanser är hostade hos stora molntjänstleverantörer som AWS, Alibaba Cloud, Tencent Cloud, samt i nätverken hos större nationella teleoperatörer.
Tjänstportar: Ollamas standardport
11434
är den mest använda, men ett betydande antal instanser exponeras också via standardwebportar.
4. Objektiv bedömning:
Ollamas popularitet: Data visar tydligt Ollamas höga antagningsfrekvens bland utvecklare och AI-entusiaster världen över.
Livskraft i open-source-ekosystemet: Mångfalden av populära modeller och den utbredda användningen av olika parameter- och kvantiseringsversioner återspeglar den blomstrande utvecklingen av open-source AI-modell ekosystemet.
Balans i användarpreferenser: Vid val av modeller tenderar användare att söka en balans mellan modellkapacitet, driftseffektivitet och hårdvarukostnader.
Säkerhet och öppenhet: Ett stort antal instanser tillåter publik åtkomst till sina modelllistor, vilket, även om det är bekvämt för communityn, också kan innebära säkerhetsrisker.
5. Framtidsutsikter:
Med framväxten av effektivare, mindre modeller och ytterligare framsteg inom kvantiseringsteknik förväntas distributionsbarriären för Ollama fortsätta att minska.
Standardisering av modellmetadata och community-delade modeller är avgörande för att förbättra transparensen och användbarheten i ekosystemet.
Sammanfattningsvis håller Ollama på att bli en viktig brygga som kopplar samman banbrytande storskaliga språkmodeller med ett brett spektrum av utvecklare, forskare och till och med allmänna användare. Denna dataanalys ger värdefulla insikter för att förstå dess nuvarande globala distributionsstatus och användarpreferenser.
Kommentarer
comments.comments (0)
Please login first
Sign in