
Et Nyt Perspektiv på AI-kapløbet mellem USA og Kina: Sammenligning af Ollama-implementeringer i 2025 og Indsigt i Globale AI-model Trends
Ollama er et populært open source-værktøj designet til at forenkle processen med at køre, skabe og dele store sprogmodeller (LLM'er) lokalt. Det samler modelvægte, konfiguration og data i en pakke defineret af en Modelfile og leverer en API til interaktion med disse modeller. Dette gør det muligt for udviklere og forskere nemt at implementere og eksperimentere med forskellige avancerede AI-modeller på personlige computere eller servere.
1. Introduktion
Ollama er et populært open source-værktøj designet til at forenkle processen med at køre, skabe og dele store sprogmodeller (LLM'er) lokalt. Det samler modelvægte, konfiguration og data i en pakke defineret af en Modelfile og leverer en API til interaktion med disse modeller. Dette gør det muligt for udviklere og forskere nemt at implementere og eksperimentere med forskellige avancerede AI-modeller på personlige computere eller servere.
Denne rapport har til formål at afdække implementeringstendenser, modelpræferencer, geografisk fordeling og netværkskarakteristika ved at analysere data fra 174.590 Ollama-instanser implementeret globalt.
Bemærk: Datastatistikker i kapitel 5 og kapitel 7 stammer fra alle 174.590 instanser. Data i kapitel 6 stammer fra tilgængelige instanser. Af sikkerhedsmæssige årsager har vi ikke angivet statistikker for Ollama-versioner.
Data pr.: 24. april 2025.
Rapportkilde: Tenthe AI https://tenthe.com
Forfatter: Ryan
2. Resumé for Ledelsen
Denne rapport er baseret på analyse af scanningsdata og API-probing af offentligt tilgængelige Ollama-instanser verden over. Vigtigste resultater inkluderer:
Globalt, blandt cirka 174.590 oprindeligt identificerede poster via Fofa (99.412 unikke IP-adresser), blev 41.021 Ollama-instanser med tilgængelige API'er succesfuldt probet, fordelt på 24.038 unikke IP-adresser (en tilgængelighedsrate på cirka 24,18%).
Geografisk set er USA og Kina de lande med det højeste antal Ollama-implementeringer. Cloud-tjenesteudbydere, især AWS, Alibaba Cloud og Tencent Cloud, er de primære værter for Ollama-instanser.
Modelimplementeringer viser diversitet, hvor
llama3
,deepseek-r1
,mistral
ogqwen
seriens modeller er bredt populære. Blandt dem erllama3:latest
ogdeepseek-r1:latest
de to mest udbredte model-tags.Modeller med 7B-8B parametre er brugernes foretrukne valg, mens 4-bit kvantiserede modeller som Q4_K_M og Q4_0 er bredt anvendt på grund af deres gode balance mellem ydeevne og ressourceforbrug.
Standardporten
11434
er den mest almindeligt anvendte, og de fleste instanser eksponerer tjenester via HTTP-protokollen.
3. Datakilder og Metodologi
Dataene til denne rapport stammer primært fra to faser:
Indledende Scanning: Brug af netværksrums-søgemaskiner som Fofa, med betingelsen
app="Ollama" && is_domain=false
, til indledningsvist at identificere potentielle Ollama-instanser implementeret globalt. Denne fase fandt 174.590 poster, der involverede 99.412 unikke IP-adresser efter deduplikering.API-verifikation og Databerigelse: Probing af
ip:port/api/tags
API-endepunktet for de indledningsvist scannede IP-adresser for at bekræfte tilgængeligheden af Ollama-tjenester og indhente information om de specifikke AI-modeller, der er implementeret. Denne fase bekræftede 41.021 succesfuldt responderende Ollama-instanser (fra 24.038 unikke IP-adresser, med data gemt iollama
-tabellen).De endelige data gemmes i
ollama
-tabellen.
Analysen i denne rapport er primært baseret på data fra ollama
-tabellen, som indeholder poster for succesfuldt probede API'er og deres detaljerede information, herunder IP, port, geografisk placering og JSON-svar (indeholdende modellisten), osv.
4. Overordnede Implementeringsstatistikker
Antal indledende poster fra Fofa-scanning: 174.590
Antal unikke IP-adresser fra Fofa indledende scanning: 99.412
Antal Ollama-instanser med succesfuld adgang til
/api/tags
: 41.021 (fra poster hvorstatus = 'success'
iollama
-tabellen)Antal tilsvarende unikke IP-adresser: 24.038 (fra poster hvor
status = 'success'
iollama
-tabellen)Forholdet mellem tilgængelige IP-adresser og indledningsvist identificerede IP-adresser: (24038 / 99412) * 100% ≈ 24,18%
Dette indikerer, at blandt alle Ollama-instanser identificeret via Fofa, har cirka en fjerdedel deres /api/tags
-interface offentligt tilgængeligt, hvilket giver os mulighed for at hente information om deres implementerede modeller.
5. Analyse af Geografisk Fordeling
5.1 Top 20 Lande/Regioner med Implementeringer
Nedenstående tabel viser de 20 lande/regioner rangeret efter antallet af unikke IP-adresser med Ollama-instanser.
Rang | Land/Region | Antal Unikke IP'er |
---|---|---|
1 | USA | 29195 |
2 | Kina | 16464 |
3 | Japan | 5849 |
4 | Tyskland | 5438 |
5 | Storbritannien | 4014 |
6 | Indien | 3939 |
7 | Singapore | 3914 |
8 | Sydkorea | 3773 |
9 | Irland | 3636 |
10 | Frankrig | 3599 |
11 | Australien | 3558 |
12 | Brasilien | 2909 |
13 | Canada | 2763 |
14 | Sydafrika | 2742 |
15 | Sverige | 2113 |
16 | Hong Kong SAR, Kina | 1277 |
17 | Israel | 675 |
18 | Taiwan, Kina | 513 |
19 | Rusland | 475 |
20 | Finland | 308 |

5.2 Top 20 Globale Byimplementeringer
Nedenstående tabel viser de 20 byer på verdensplan rangeret efter antallet af unikke IP-adresser med Ollama-instanser.
Rang | By | Land/Region | Antal Unikke IP'er |
---|---|---|---|
1 | Ashburn | USA | 5808 |
2 | Portland | USA | 5130 |
3 | Singapore | Singapore | 3914 |
4 | Frankfurt am Main | Tyskland | 3908 |
5 | Beijing | Kina | 3906 |
6 | London | Storbritannien | 3685 |
7 | Columbus | USA | 3672 |
8 | Mumbai | Indien | 3637 |
9 | Dublin | Irland | 3631 |
10 | Tokyo | Japan | 3620 |
11 | Sydney | Australien | 3487 |
12 | Paris | Frankrig | 3175 |
13 | San Jose | USA | 2815 |
14 | Sao Paulo | Brasilien | 2753 |
15 | Cape Town | Sydafrika | 2692 |
16 | Montreal | Canada | 2535 |
17 | Seattle | USA | 2534 |
18 | Hangzhou | Kina | 2447 |
19 | Seoul | Sydkorea | 2327 |
20 | Osaka | Japan | 2184 |
5.3 Top 10 Fordeling i Amerikanske Byer
Rang | By | Antal Unikke IP'er |
---|---|---|
1 | Ashburn | 5808 |
2 | Portland | 5130 |
3 | Columbus | 3672 |
4 | San Jose | 2815 |
5 | Seattle | 2534 |
6 | Westlake Village | 1714 |
7 | Boardman | 855 |
8 | Florence | 776 |
9 | San Francisco | 753 |
10 | Boulder | 642 |

5.4 Top 10 Fordeling i Byer på Kinas Fastland
Implementeringer i Hong Kong og Taiwan afspejles ikke i Top 10 bytabellen, da de allerede er inkluderet i land/region statistikkerne.
Rang | By | Land ( | Antal Unikke IP'er |
---|---|---|---|
1 | Beijing | Kina | 3906 |
2 | Hangzhou | Kina | 2447 |
3 | Shanghai | Kina | 1335 |
4 | Guangzhou | Kina | 1296 |
5 | Shenzhen | Kina | 768 |
6 | Chengdu | Kina | 469 |
7 | Nanjing | Kina | 329 |
8 | Chongqing | Kina | 259 |
9 | Suzhou | Kina | 257 |
10 | Wuhan | Kina | 249 |

5.5 Sammenligning af Top 10 Byimplementeringer i USA og Kina
For mere intuitivt at sammenligne Ollama-implementeringer på byniveau i USA og Kina, sammenstiller nedenstående tabel antallet af unikke IP-implementeringer for de 10 største byer i begge lande:
Rang | Amerikansk By (Top 10) | Antal Unikke IP'er (USA) | Kinesisk By (Top 10) | Antal Unikke IP'er (Kina) |
---|---|---|---|---|
1 | Ashburn | 5808 | Beijing | 3906 |
2 | Portland | 5130 | Hangzhou | 2447 |
3 | Columbus | 3672 | Shanghai | 1335 |
4 | San Jose | 2815 | Guangzhou | 1296 |
5 | Seattle | 2534 | Shenzhen | 768 |
6 | Westlake Village | 1714 | Chengdu | 469 |
7 | Boardman | 855 | Nanjing | 329 |
8 | Florence | 776 | Chongqing | 259 |
9 | San Francisco | 753 | Suzhou | 257 |
10 | Boulder | 642 | Wuhan | 249 |

Kortfattet Kommentar:
Førende Byvolumen: De 3 største amerikanske byer (Ashburn, Portland, Columbus) har hver over 3.000 unikke IP-adresser med Ollama-implementeringer. Kinas største by (Beijing) har over 3.000 implementeringer, og dens næststørste by (Hangzhou) har over 2.000.
Teknologi- og Økonomiske Centre: Mange af de listede byer i begge lande er velkendte teknologiske innovationscentre eller vigtige økonomiske regioner.
Datacenterregioner: Inkluderingen af amerikanske byer som Ashburn afspejler også, at Ollama-instanser i vid udstrækning kan være implementeret i cloud-servere og datacentre.
Fordelingsforskelle: Samlet set er det totale antal IP-adresser i de 10 største amerikanske byer betydeligt højere end i Kinas 10 største byer. Begge lande viser dog et mønster, hvor nogle få kernebyer står for langt størstedelen af Ollama-implementeringerne.
Denne sammenligning på byniveau afslører yderligere, at promoveringen og anvendelsen af Ollama, som et udviklerværktøj, er tæt forbundet med regionale teknologiske økosystemer og industriel udvikling.
6. Modelanalyse
6.1 Kortfattet Overblik over AI-modeller, Parametre og Kvantisering
Ollama understøtter en række open source store sprogmodeller. Disse modeller skelnes typisk ved følgende funktioner:
6.1.1 Almindelige Model-familier
Det nuværende open source-fællesskab har set en stigning i fremragende LLM-familier, hver med sine egne karakteristika:
Llama Serien (Meta AI): Såsom Llama 2, Llama 3, Code Llama. Kendt for sine kraftfulde generelle kapabiliteter og omfattende fællesskabsstøtte, hvilket fører til talrige finjusterede versioner. Modeller som
llama3.1
,hermes3
set i vores data er ofte baseret på Llama-arkitekturen.Mistral Serien (Mistral AI): Såsom Mistral 7B, Mixtral 8x7B. Vinder opmærksomhed for effektivitet og høj ydeevne, især dens MoE (Mixture of Experts) modeller.
Gemma Serien (Google): Såsom Gemma 2B, Gemma 7B. Open-weight modeller udgivet af Google, med teknologi afledt af deres mere kraftfulde Gemini-modeller.
Phi Serien (Microsoft): Såsom Phi-2, Phi-3. Fokuserer på små, men kapable modeller, med vægt på "SLM'er (Små Sprogmodeller)".
DeepSeek Serien (DeepSeek AI): Såsom DeepSeek Coder, DeepSeek LLM. Kinesiske AI-modeller, der excellerer i kodning og generelle opgaver.
Qwen Serien (Alibaba Tongyi Qianwen): Såsom Qwen1.5. En serie af modeller lanceret af Alibaba DAMO Academy, der understøtter flere sprog og opgaver.
Der er mange andre fremragende modeller, såsom Yi (01.AI), Command R (Cohere), osv.
Ollama, via sin Modelfile
-mekanisme, giver brugerne mulighed for nemt at bruge disse basismodeller eller deres finjusterede versioner. Modelnavne følger ofte formatet familie:størrelse-variant-kvantisering
, for eksempel llama3:8b-instruct-q4_K_M
.
6.1.2 Modelparametre (Parameterstørrelse)
Antallet af modelparametre (normalt i B - Milliarder; eller M - Millioner) er en vigtig indikator for en models skala og potentielle kapabilitet. Almindelige parameterstørrelser inkluderer:
Små Modeller: < 7B (f.eks. 1.5B, 2B, 3B). Kører normalt hurtigt med lavt ressourceforbrug, velegnet til specifikke opgaver eller ressourcebegrænsede miljøer.
Mellemstore Modeller: 7B, 8B, 13B. Opnår en god balance mellem kapabilitet og ressourceforbrug, aktuelt en af de mest populære størrelser i fællesskabet.
Store Modeller: 30B, 33B, 40B, 70B+. Generelt mere kapable, men kræver også flere beregningsressourcer (RAM, VRAM) og længere inferenstider.
parameter_size
-feltet i vores data (f.eks. "8.0B", "7B", "134.52M") indikerer dette.
6.1.3 Kvantiseringsversioner (Kvantiseringsniveau)
Kvantisering er en teknik til at reducere modelstørrelse og accelerere inferens ved at sænke den numeriske præcision af modelvægte (f.eks. fra 16-bit flydende kommatal FP16 til 4-bit heltal INT4).
Almindelige Kvantiseringsniveauer: Ollama og GGUF-formatet (brugt af Llama.cpp) understøtter forskellige kvantiseringsstrategier, såsom
Q2_K
,Q3_K_S
,Q3_K_M
,Q3_K_L
,Q4_0
,Q4_K_M
,Q5_K_M
,Q6_K
,Q8_0
, osv.Tallet (f.eks. 2, 3, 4, 5, 6, 8) angiver groft sagt antallet af bits.
K
-serie kvantisering (f.eks.Q4_K_M
) er forbedrede kvantiseringsmetoder introduceret i llama.cpp, der generelt opnår bedre ydeevne ved samme bitantal._S
,_M
,_L
betegner normalt forskellige varianter af K-kvant, der påvirker forskellige dele af modellen.F16
(FP16) repræsenterer 16-bit flydende kommatal, ofte betragtet som ikke-kvantiseret eller en basis kvantiseringsversion.F32
(FP32) er fuld præcision.
Afvejning: Højere kvantisering (lavere bitantal) resulterer i mindre, hurtigere modeller, men kommer normalt med et vist ydeevnetab (modellen klarer sig dårligere). Brugere skal vælge baseret på deres hardware og krav til modelkvalitet.
quantization_level
-feltet i vores data (f.eks. "Q4_K_M", "F16") indikerer dette.
6.2 Top Populære Modelnavne
Nedenstående tabel viser de 10 mest populære model-tags rangeret efter antallet af unikke IP-implementeringer, inklusive deres familie, parameterstørrelse og kvantiseringsniveauinformation.
Rang | Modelnavn (model_name) | Unikke IP-implementeringer | Samlet Antal Implementeringsinstanser |
---|---|---|---|
1 |
| 12659 | 24628 |
2 |
| 12572 | 24578 |
3 |
| 11163 | 22638 |
4 |
| 9868 | 21007 |
5 |
| 9845 | 20980 |
6 |
| 4058 | 5016 |
7 |
| 3124 | 3928 |
8 |
| 2856 | 3372 |
9 |
| 2714 | 3321 |
10 |
| 2668 | 3391 |

(Bemærk: Unikke IP-implementeringer refererer til antallet af unikke IP-adresser, der har implementeret mindst én instans af dette model-tag. Samlet Antal Implementeringsinstanser refererer til det samlede antal gange, dette model-tag optræder i models
-listen på tværs af alle IP-adresser. En IP-adresse kan pege på det samme model-tag flere gange via forskellige midler eller poster, eller en IP-adresse kan køre flere instanser af forskellige tags, der tilhører den samme grundmodel.)
Indledende Observationer (Populære Modelnavne):
Modeller med
:latest
-tagget er meget almindelige, såsomllama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
. Dette indikerer, at mange brugere foretrækker at hente den seneste version af modeller direkte.Llama-seriens modeller (f.eks.
llama3:latest
,llama3:8b-text-q4_K_S
,llama2:latest
,llama3.1:8b
) indtager flere pladser, hvilket viser deres stærke popularitet.Kinesiske AI-modeller som
deepseek-r1:latest
(DeepSeek-serien) ogqwen:latest
(Tongyi Qianwen-serien) klarer sig også imponerende og rangerer højt.Specifikke kvantiserede versioner som
llama3:8b-text-q4_K_S
nåede også top ti, hvilket indikerer brugerpræference for specifikke balance mellem ydeevne/ressourceforbrug.Små modeller som
smollm2:135m
ogqwen2.5:1.5b
har også et betydeligt antal implementeringer, hvilket imødekommer efterspørgslen efter letvægtsmodeller.
6.3 Top Model-familier
Model-familie (details.family
-feltet) repræsenterer modellens basisarkitektur eller primære teknologiske afstamning. Nedenfor er de model-familier med et højere antal implementeringer baseret på vores dataanalyse:
Rang | Model-familie (family) | Unikke IP-implementeringer (Estimeret) | Samlet Antal Implementeringsinstanser (Estimeret) |
---|---|---|---|
1 |
| ~20250 | ~103480 |
2 |
| ~17881 | ~61452 |
3 |
| ~1479 | ~1714 |
4 |
| ~1363 | ~2493 |
5 |
| ~1228 | ~2217 |
6 |
| ~943 | ~1455 |
7 |
| ~596 | ~750 |
8 |
| ~484 | ~761 |
9 |
| ~368 | ~732 |
10 |
| ~244 | ~680 |

(Bemærk: De specifikke værdier her er estimerede og opsummeret baseret på den tidligere forespurgte Top 50 modeldetaljeliste og kan afvige en smule fra præcise globale statistikker, men tendensen er repræsentativ.)
Indledende Observationer (Populære Model-familier):
llama
-familien indtager en absolut dominerende position, hvilket er i overensstemmelse med, at Llama-seriens modeller er grundlaget for mange moderne open source LLM'er og deres egen udbredte anvendelse. Dets enorme økosystem og talrige finjusterede versioner gør det til det mest populære valg.qwen2
(Tongyi Qianwen Qwen2-serien), som den næststørste familie, viser sin stærke konkurrenceevne i Kina og endda globalt.Fremkomsten af
nomic-bert
ogbert
er bemærkelsesværdig. Selvom de typisk ikke betragtes som "store sprogmodeller" (konversationelle), men snarere tekst-indlejrings- eller andre basismodeller til naturlig sprogbehandling, antyder deres høje implementeringsvolumen, at Ollama også bruges i vid udstrækning til sådanne opgaver. Ollama downloader automatisk en standard indlejringsmodel (f.eks.nomic-embed-text
), når den udfører visse operationer (som at generere indlejringsvektorer), hvilket sandsynligvis er hovedårsagen til, at disse familier rangerer højt.Googles
gemma
-serie (inklusivegemma3
,gemma
,gemma2
) viser også anstændige adoptionsrater.Andre velkendte model-familier som
deepseek2
ogphi3
nåede også top ti.mllama
kan repræsentere en samling af forskellige Llama-baserede hybride, modificerede eller fællesskabsnavngivne modeller.
6.4 Top Statistik for Original Parameterstørrelse
Modelparameterstørrelse (details.parameter_size
-feltet) er en vigtig indikator for modelskala. På grund af de varierede repræsentationer af parameterstørrelser i rådataene (f.eks. "8.0B", "7B", "134.52M"), tæller vi direkte disse originale strenge. Nedenfor er de parameterstørrelsesrepræsentationer med et højere antal implementeringer:
Rang | Parameterstørrelse (Original Streng) | Unikke IP-implementeringer (Estimeret) | Samlet Antal Implementeringsinstanser (Estimeret) |
---|---|---|---|
1 |
| ~14480 | ~52577 |
2 |
| ~14358 | ~28105 |
3 |
| ~11233 | ~22907 |
4 |
| ~9895 | ~21058 |
5 |
| ~4943 | ~11738 |
6 |
| ~4062 | ~5266 |
7 |
| ~2759 | ~3596 |
8 |
| ~2477 | ~3311 |
9 |
| ~2034 | ~2476 |
10 |
| ~1553 | ~2244 |
11 |
| ~1477 | ~1708 |
12 |
| ~1421 | ~2000 |
13 |
| ~1254 | ~2840 |
14 |
| ~1123 | ~2091 |
15 |
| ~943 | ~1194 |

(Bemærk: Værdier er estimerede baseret på en opsummering af parameterinformation fra den tidligere forespurgte Top 50 modeldetaljeliste.)
Indledende Observationer (Populære Parameterstørrelser):
Modeller i 7B til 8B skalaen er den absolutte mainstream: "8.0B", "7.6B", "7.2B", "7B" optager langt størstedelen af implementeringerne. Dette svarer typisk til meget populære modeller i fællesskabet, såsom Llama 2/3 7B/8B-serien, Mistral 7B og deres forskellige finjusterede versioner. De rammer en god balance mellem ydeevne og ressourceforbrug.
4B-skala modeller indtager også en vigtig position: Den høje implementering af "4B" er bemærkelsesværdig.
Letvægtsmodeller på million-parameterniveau (M) er udbredte: Den høje rangering af "134.52M" og "137M" er sandsynligvis relateret til populariteten af indlejringsmodeller (som
nomic-embed-text
) eller meget små specialiserede modeller (somsmollm
-serien). Disse modeller er små, hurtige og velegnede til ressourcebegrænsede eller latensfølsomme scenarier.Stabil efterspørgsel efter små modeller i 1B-4B området: Modeller med parameterstørrelser som "1.5B", "1.8B", "3.2B", "4.3B" foretrækkes også af en del af brugerne.
Store modeller over 10B: Såsom "13B", "12.2B", "32.8B", "14.8B", selvom de ikke har lige så mange unikke IP-implementeringer som 7-8B niveauet, har de stadig et betydeligt implementeringsvolumen, hvilket indikerer en fællesskabsefterspørgsel efter mere kapable modeller, på trods af deres højere hardwarekrav.
6.5 Top Statistik for Kvantiseringsniveau
Modelkvantiseringsniveau (details.quantization_level
-feltet) afspejler den vægtpræcision, modellen anvender for at reducere størrelse og accelerere inferens. Nedenfor er de kvantiseringsniveauer med et højere antal implementeringer:
Rang | Kvantiseringsniveau (Original Streng) | Unikke IP-implementeringer (Estimeret) | Samlet Antal Implementeringsinstanser (Estimeret) |
---|---|---|---|
1 |
| ~20966 | ~53688 |
2 |
| ~18385 | ~88653 |
3 |
| ~9860 | ~21028 |
4 |
| ~5793 | ~9837 |
5 |
| ~596 | ~1574 |
6 |
| ~266 | ~1318 |
7 |
| ~97 | ~283 |
8 |
| ~85 | ~100 |
9 |
| ~60 | ~178 |
10 |
| ~54 | ~140 |

(Bemærk: Værdier er estimerede baseret på en opsummering af kvantiseringsinformation fra den tidligere forespurgte Top 50 modeldetaljeliste.)
Indledende Observationer (Populære Kvantiseringsniveauer):
4-bit kvantisering er den dominerende løsning:
Q4_K_M
,Q4_0
ogQ4_K_S
, disse tre 4-bit kvantiseringsniveauer, topper absolut listerne. Dette indikerer tydeligt, at fællesskabet i vid udstrækning anvender 4-bit kvantisering som den foretrukne løsning for at opnå den bedste balance mellem model ydeevne, inferenshastighed og ressourcebeslaglæggelse (især VRAM).F16
(16-bit flydende kommatal) har stadig en betydelig plads: Som en ikke-kvantiseret (eller kun grundlæggende kvantiseret) version viser den høje implementering afF16
, at et betydeligt antal brugere vælger det for at forfølge den højeste modelfidelitet, eller fordi de har tilstrækkelige hardware-ressourcer.Q8_0
(8-bit kvantisering) som et supplement: Giver en mulighed mellem 4-bit ogF16
.Fremkomst af
unknown
-værdier: Indikerer, at information om kvantiseringsniveau mangler eller er ikke-standard i nogle modelmetadata.
6.6 Fordeling af AI-computerkraft (efter Modelparameterstørrelse): Kina vs. USA
For at få en dybere forståelse af, hvordan modeller af forskellig skala implementeres i større lande, kategoriserede og talte vi parameterstørrelserne for modeller implementeret på Ollama-instanser i USA og Kina. Parameterstørrelse betragtes ofte som en vigtig indikator for modelkompleksitet og potentiel efterspørgsel på AI-computerkraft.
Klassifikationsstandard for Parameterskala:
Lille: < 1 Milliard parametre (< 1B)
Mellem: 1 Milliard til < 10 Milliarder parametre (1B til < 10B)
Stor: 10 Milliarder til < 50 Milliarder parametre (10B til < 50B)
Ekstra Stor: >= 50 Milliarder parametre (>= 50B)
Nedenstående tabel viser antallet af unikke IP-adresser, der implementerer modeller af forskellig parameterskala i USA og Kina:
Land | Parameterskala Kategori | Antal Unikke IP'er |
---|---|---|
Kina | Lille (<1B) | 3313 |
Kina | Mellem (1B til <10B) | 4481 |
Kina | Stor (10B til <50B) | 1548 |
Kina | Ekstra Stor (>=50B) | 280 |
USA | Lille (<1B) | 1368 |
USA | Mellem (1B til <10B) | 6495 |
USA | Stor (10B til <50B) | 1301 |
USA | Ekstra Stor (>=50B) | 58 |
--China-vs-USA.jpeg)
Dataindsigt og Analyse:
Mellemstore modeller er mainstream, men med forskellige fokusområder:
USA: Implementeringer af mellemstore modeller (1B-10B) er absolut dominerende i USA (6495 unikke IP-adresser).
Kina: Mellemstore modeller (4481 unikke IP-adresser) er også den mest implementerede type i Kina, men implementeringen af små modeller (<1B) i Kina (3313 unikke IP-adresser) er meget betydelig.
Betydelig forskel i små modeller: Kinas storstilede implementering af små modeller kan afspejle en præference for edge computing, mobile AI-applikationer og lignende scenarier.
Implementering af store og ekstra store modeller: Kina viser højere aktivitet i udforskningen af store og ekstra store modeller (omend fra en mindre base).
Implikationer for samlet investering i computerkraft: USA's base i mellemstore modeller viser udbredelsen af praktiske AI-applikationer. Kina har en fordel i små modeller og udforsker aktivt store modeller.
Implikationer for globale tendenser: Mellemstore modeller er sandsynligvis populære globalt. Forskellige regioner kan have varierende modeladoptionsstrategier baseret på deres økosystemer og ressourceforhold.
Ved at segmentere modelparameterstørrelserne i Kina og USA kan vi se de forskellige fokusområder og udviklingspotentialer for Ollama-applikationer i de to lande.
7. Netværksindsigt
7.1 Portbrug
11434
(standardport): Langt de fleste (30.722 unikke IP-adresser) Ollama-instanser kører på standardporten11434
.Andre almindelige porte: Porte som
80
(1.619 unikke IP-adresser),8080
(1.571 unikke IP-adresser),443
(1.339 unikke IP-adresser), osv., bruges også, hvilket kan indikere, at nogle instanser er implementeret bag en reverse proxy, eller at brugerne har tilpasset porten.
7.2 Protokolbrug
HTTP: Cirka 65.506 unikke IP-adresser har instanser, der serverer via HTTP-protokollen.
HTTPS: Cirka 43.765 unikke IP-adresser har instanser, der serverer via HTTPS-protokollen.
De fleste instanser eksponeres stadig via ukrypteret HTTP, hvilket kan udgøre visse sikkerhedsrisici. (Bemærk venligst: En IP-adresse kan understøtte både HTTP og HTTPS, så summen af IP-tællinger her kan overstige det samlede antal unikke IP-adresser)
7.3 Vigtigste Hostingudbydere (AS Organisation)
Ollama-instanshosting er stærkt koncentreret blandt cloud-tjenesteudbydere.
Rang | AS Organisation | Antal Unikke IP'er | Primær Tilknyttet Udbyder |
---|---|---|---|
1 | AMAZON-02 | 53658 | AWS |
2 | AMAZON-AES | 5539 | AWS |
3 | Chinanet | 4964 | China Telecom |
4 | Hangzhou Alibaba Advertising Co.,Ltd. | 2647 | Alibaba Cloud |
5 | HENGTONG-IDC-LLC | 2391 | Hostingudbyder |
6 | Shenzhen Tencent Computer Systems Company Limited | 1682 | Tencent Cloud |
7 | CHINA UNICOM China169 Backbone | 1606 | China Unicom |
8 | Hetzner Online GmbH | 972 | Hetzner |
9 | China Unicom Beijing Province Network | 746 | China Unicom (Beijing) |
10 | LEASEWEB-USA-LAX | 735 | Leaseweb |

AWS (AMAZON-02, AMAZON-AES) har den største andel, efterfulgt af store kinesiske teleoperatører og cloud-tjenesteudbydere (som Alibaba Cloud, Tencent Cloud). Andre hostingudbydere som Hetzner og Leaseweb har også betydelige andele.
8. Sikkerhed og Andre Observationer
Versionsoplysninger: Af sikkerhedsmæssige årsager har vi ikke listet statistikker over Ollama-versioner.
HTTP-eksponeringsrisiko: Som tidligere nævnt er et stort antal Ollama-instanser eksponeret via HTTP uden TLS-kryptering, hvilket kan gøre kommunikationsindhold (f.eks. interaktioner med modeller) sårbart over for aflytning eller manipulation. Brugere rådes til at konfigurere en reverse proxy og aktivere HTTPS.
API-tilgængelighed: Dataene i denne rapport er baseret på Ollama-instanser, hvis
/api/tags
-interface er offentligt tilgængeligt. Det faktiske antal implementeringer kan være højere, men nogle instanser kan være implementeret i private netværk eller have ekstern adgang begrænset af firewalls.
9. Konklusion og Kortfattet Gennemgang
Denne rapport, ved at analysere data fra 99.412 globalt offentligt tilgængelige Ollama-instanser (via deres /api/tags
-interface), drager følgende hovedkonklusioner og observationer:
1. Global Implementeringsoversigt og Geografisk Fordeling:
Ollama, som et praktisk værktøj til at køre store modeller lokalt, er blevet bredt implementeret globalt. Denne analyse identificerede 99.412 offentligt tilgængelige unikke IP-adresser.
Høj Geografisk Koncentration: USA og Kina er de to lande/regioner med den mest koncentrerede Ollama-implementering, der samlet set tegner sig for en betydelig del af de samlede tilgængelige instanser (USA 29.195, Kina 16.464). Lande som Japan, Tyskland, Storbritannien, Indien og Singapore har også bemærkelsesværdige implementeringsantal.
By-hotspots: I USA fører byer som Ashburn, Portland og Columbus i implementeringer; i Kina er teknologisk avancerede byer som Beijing, Hangzhou, Shanghai og Guangzhou de vigtigste implementeringssteder. Dette er ofte relateret til koncentrationen af teknologivirksomheder, datacentre og udviklerfællesskaber.
2. AI-model Implementeringstendenser:
Populære Model-tags: Generelle seneste tags som
llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
er mest populære. Specifikt optimerede versioner somllama3:8b-text-q4_K_S
foretrækkes også for deres gode balance.Dominerende Model-familier:
llama
-familien fører med en absolut margin, efterfulgt afqwen2
. Den høje rangering af indlejringsmodel-familier somnomic-bert
ogbert
er bemærkelsesværdig, muligvis relateret til Ollamas standardadfærd.Præferencer for Parameterstørrelse: Modeller med 7B-8B parametre er i øjeblikket mainstream. Letvægtsmodeller på million-parameterniveau og store modeller over 10B har også deres respektive markeder. En sammenligning mellem USA og Kina viser, at USA implementerer flere mellemstore modeller, mens Kina er mere aktiv i at udforske små og ekstra store modeller.
Valg af Kvantiseringsniveau: 4-bit kvantisering (især
Q4_K_M
ogQ4_0
) er det overvældende valg.F16
, som en mulighed med højere fidelitet, indtager også en vigtig position.Metadata-kompleksitet: Analyse af modelmetadata (f.eks. fortolkning af model-familiefeltet) afslører undertiden kompleksiteter mellem dets poster og modelnavne eller almindelig forståelse, hvilket fremhæver mangfoldigheden af metadatastyring i open source-økosystemet.
3. Teknisk Infrastruktur:
Hosting-miljøer: Et stort antal Ollama-instanser hostes hos store cloud-tjenesteudbydere som AWS, Alibaba Cloud, Tencent Cloud, samt i netværkene hos store nationale teleoperatører.
Serviceporte: Ollamas standardport
11434
er den mest almindeligt anvendte, men et betydeligt antal instanser eksponeres også via standard webporte.
4. Objektiv Vurdering:
Ollamas Popularitet: Dataene viser tydeligt Ollamas høje adoptionsrate blandt udviklere og AI-entusiaster verden over.
Open Source-økosystemets Vitalitet: Mangfoldigheden af populære modeller og den udbredte brug af forskellige parameter- og kvantiseringsversioner afspejler den blomstrende udvikling af open source AI-modeløkosystemet.
Balance i Brugerpræferencer: Når brugere vælger modeller, har de en tendens til at søge en balance mellem modelkapabilitet, operationel effektivitet og hardwareomkostninger.
Sikkerhed og Åbenhed: Et stort antal instanser tillader offentlig adgang til deres modellister, hvilket, selvom det er praktisk for fællesskabet, også kan udgøre sikkerhedsrisici.
5. Fremtidsudsigter:
Med fremkomsten af mere effektive, mindre modeller og yderligere fremskridt inden for kvantiseringsteknologi forventes implementeringsbarrieren for Ollama at fortsætte med at falde.
Standardiseringen af modelmetadata og fællesskabsdelte modeller er afgørende for at forbedre økosystemets gennemsigtighed og brugervenlighed.
Sammenfattende er Ollama ved at blive en vigtig bro, der forbinder banebrydende store sprogmodeller med en bred vifte af udviklere, forskere og endda almindelige brugere. Denne dataanalyse giver værdifuld indsigt i forståelsen af dens nuværende globale implementeringsstatus og brugerpræferencer.
Kommentarer
comments.comments (0)
Please login first
Sign in