
Et Nytt Perspektiv på AI-kappløpet mellom USA og Kina: 2025 Ollama Implementeringssammenligning og Innsikt i Globale AI-modelltrender
Ollama er et populært åpen kildekode-verktøy designet for å forenkle prosessen med å kjøre, lage og dele store språkmodeller (LLM-er) lokalt. Det pakker modellvekter, konfigurasjon og data inn i en pakke definert av en Modelfile, og tilbyr en API for å interagere med disse modellene. Dette gjør det mulig for utviklere og forskere å enkelt implementere og eksperimentere med ulike avanserte AI-modeller på personlige datamaskiner eller servere.
1. Introduksjon
Ollama er et populært åpen kildekode-verktøy designet for å forenkle prosessen med å kjøre, lage og dele store språkmodeller (LLM-er) lokalt. Det pakker modellvekter, konfigurasjon og data inn i en pakke definert av en Modelfile, og tilbyr en API for å interagere med disse modellene. Dette gjør det mulig for utviklere og forskere å enkelt implementere og eksperimentere med ulike avanserte AI-modeller på personlige datamaskiner eller servere.
Denne rapporten har som mål å avdekke implementeringstrender, modellpreferanser, geografisk distribusjon og nettverkskarakteristikker ved å analysere data fra 174 590 Ollama-instanser implementert globalt.
Merk: Datastatistikk i kapittel 5 og kapittel 7 er hentet fra alle 174 590 instanser. Data i kapittel 6 er hentet fra tilgjengelige instanser. Av sikkerhetsgrunner har vi ikke listet statistikk om Ollama-versjoner.
Data per: 24. april 2025.
Rapportkilde: Tenthe AI https://tenthe.com
Forfatter: Ryan
2. Sammendrag
Denne rapporten er basert på analyse av skannedata og API-sondering av offentlig tilgjengelige Ollama-instanser over hele verden. Viktige funn inkluderer:
Globalt, blant omtrent 174 590 poster som opprinnelig ble identifisert via Fofa (99 412 unike IP-er), ble 41 021 Ollama-instanser med tilgjengelige API-er vellykket sondert, fordelt på 24 038 unike IP-adresser (en tilgjengelighetsrate på omtrent 24,18 %).
Geografisk sett er USA og Kina landene med det høyeste antallet Ollama-implementeringer. Skytjenesteleverandører, spesielt AWS, Alibaba Cloud og Tencent Cloud, er de primære vertene for Ollama-instanser.
Modellimplementeringer viser mangfold, der
llama3
,deepseek-r1
,mistral
ogqwen
-seriemodeller er svært populære. Blant dem erllama3:latest
ogdeepseek-r1:latest
de to mest utbredte modelletikettene.Modeller med 7B-8B parametere er brukernes førstevalg, mens 4-bit kvantiserte modeller som Q4_K_M og Q4_0 er mye brukt på grunn av sin gode balanse mellom ytelse og ressursforbruk.
Standardporten
11434
er den mest brukte, og de fleste instanser eksponerer tjenester via HTTP-protokollen.
3. Datakilder og Metodikk
Dataene for denne rapporten kommer primært fra to stadier:
Innledende skanning: Bruk av søkemotorer for nettverksrom som Fofa, med betingelsen
app="Ollama" && is_domain=false
, for å innledningsvis identifisere potensielle Ollama-instanser implementert globalt. Dette stadiet fant 174 590 poster, som involverte 99 412 unike IP-er etter deduplisering.API-verifisering og Dataanrikning: Sondering av
ip:port/api/tags
API-endepunktet for de innledningsvis skannede IP-adressene for å bekrefte tilgjengeligheten av Ollama-tjenester og innhente informasjon om de spesifikke AI-modellene som er implementert. Dette stadiet bekreftet 41 021 vellykket responderende Ollama-instanser (fra 24 038 unike IP-er, med data lagret iollama
-tabellen).De endelige dataene lagres i
ollama
-tabellen.
Analysen i denne rapporten er primært basert på data fra ollama
-tabellen, som inneholder poster over vellykket sonderte API-er og deres detaljerte informasjon, inkludert IP, port, geografisk plassering og JSON-respons (som inneholder modellisten), osv.
4. Generell Implementeringsstatistikk
Antall innledende poster fra Fofa-skanning: 174 590
Antall unike IP-er fra Fofa innledende skanning: 99 412
Antall Ollama-instanser som vellykket får tilgang til
/api/tags
: 41 021 (fra poster derstatus = 'success'
iollama
-tabellen)Antall korresponderende unike IP-adresser: 24 038 (fra poster der
status = 'success'
iollama
-tabellen)Forholdet mellom tilgjengelige IP-er og innledningsvis identifiserte IP-er: (24038 / 99412) * 100 % ≈ 24,18 %
Dette indikerer at blant alle Ollama-instanser identifisert via Fofa, har omtrent en fjerdedel sitt /api/tags
-grensesnitt offentlig tilgjengelig, noe som lar oss hente informasjon om deres implementerte modeller.
5. Geografisk Distribusjonsanalyse
5.1 Topp 20 Implementeringsland/-regioner
Tabellen nedenfor viser de 20 beste landene/regionene rangert etter antall unike IP-er med Ollama-instanser.
Rang | Land/Region | Antall Unike IP-er |
---|---|---|
1 | USA | 29195 |
2 | Kina | 16464 |
3 | Japan | 5849 |
4 | Tyskland | 5438 |
5 | Storbritannia | 4014 |
6 | India | 3939 |
7 | Singapore | 3914 |
8 | Sør-Korea | 3773 |
9 | Irland | 3636 |
10 | Frankrike | 3599 |
11 | Australia | 3558 |
12 | Brasil | 2909 |
13 | Canada | 2763 |
14 | Sør-Afrika | 2742 |
15 | Sverige | 2113 |
16 | Hong Kong SAR, Kina | 1277 |
17 | Israel | 675 |
18 | Taiwan, Kina | 513 |
19 | Russland | 475 |
20 | Finland | 308 |

5.2 Topp 20 Globale Byimplementeringer
Tabellen nedenfor viser de 20 beste byene globalt rangert etter antall unike IP-er med Ollama-instanser.
Rang | By | Land/Region | Antall Unike IP-er |
---|---|---|---|
1 | Ashburn | USA | 5808 |
2 | Portland | USA | 5130 |
3 | Singapore | Singapore | 3914 |
4 | Frankfurt am Main | Tyskland | 3908 |
5 | Beijing | Kina | 3906 |
6 | London | Storbritannia | 3685 |
7 | Columbus | USA | 3672 |
8 | Mumbai | India | 3637 |
9 | Dublin | Irland | 3631 |
10 | Tokyo | Japan | 3620 |
11 | Sydney | Australia | 3487 |
12 | Paris | Frankrike | 3175 |
13 | San Jose | USA | 2815 |
14 | Sao Paulo | Brasil | 2753 |
15 | Cape Town | Sør-Afrika | 2692 |
16 | Montreal | Canada | 2535 |
17 | Seattle | USA | 2534 |
18 | Hangzhou | Kina | 2447 |
19 | Seoul | Sør-Korea | 2327 |
20 | Osaka | Japan | 2184 |
5.3 Topp 10 Amerikanske Byers Distribusjon
Rang | By | Antall Unike IP-er |
---|---|---|
1 | Ashburn | 5808 |
2 | Portland | 5130 |
3 | Columbus | 3672 |
4 | San Jose | 2815 |
5 | Seattle | 2534 |
6 | Westlake Village | 1714 |
7 | Boardman | 855 |
8 | Florence | 776 |
9 | San Francisco | 753 |
10 | Boulder | 642 |

5.4 Topp 10 Fastlands-Kinas Byers Distribusjon
Implementeringer i Hong Kong og Taiwan reflekteres ikke i Topp 10 bytabellen, da de allerede er inkludert i land-/regionstatistikken.
Rang | By | Land ( | Antall Unike IP-er |
---|---|---|---|
1 | Beijing | Kina | 3906 |
2 | Hangzhou | Kina | 2447 |
3 | Shanghai | Kina | 1335 |
4 | Guangzhou | Kina | 1296 |
5 | Shenzhen | Kina | 768 |
6 | Chengdu | Kina | 469 |
7 | Nanjing | Kina | 329 |
8 | Chongqing | Kina | 259 |
9 | Suzhou | Kina | 257 |
10 | Wuhan | Kina | 249 |

5.5 USA-Kina Topp 10 Byers Implementeringssammenligning
For å mer intuitivt sammenligne Ollama-implementeringer på bynivå i USA og Kina, viser tabellen nedenfor en sammenstilling av antall unike IP-implementeringer for de 10 beste byene i begge land:
Rang | Amerikansk By (Topp 10) | Amerikansk Antall Unike IP-er | Kinesisk By (Topp 10) | Kinesisk Antall Unike IP-er |
---|---|---|---|---|
1 | Ashburn | 5808 | Beijing | 3906 |
2 | Portland | 5130 | Hangzhou | 2447 |
3 | Columbus | 3672 | Shanghai | 1335 |
4 | San Jose | 2815 | Guangzhou | 1296 |
5 | Seattle | 2534 | Shenzhen | 768 |
6 | Westlake Village | 1714 | Chengdu | 469 |
7 | Boardman | 855 | Nanjing | 329 |
8 | Florence | 776 | Chongqing | 259 |
9 | San Francisco | 753 | Suzhou | 257 |
10 | Boulder | 642 | Wuhan | 249 |

Kort kommentar:
Ledende Byvolum: De 3 beste amerikanske byene (Ashburn, Portland, Columbus) har hver over 3000 unike IP-er med Ollama-implementeringer. Kinas beste by (Beijing) har over 3000 implementeringer, og dens nest største by (Hangzhou) har over 2000.
Teknologi- og Økonomisentre: Mange av de listede byene i begge land er velkjente teknologiske innovasjonssentre eller viktige økonomiske regioner.
Datasenterregioner: Inkluderingen av amerikanske byer som Ashburn reflekterer også at Ollama-instanser i stor grad kan være implementert i skyservere og datasentre.
Distribusjonsforskjeller: Samlet sett er det totale antallet IP-er i USAs Topp 10 byer betydelig høyere enn i Kinas Topp 10 byer. Imidlertid viser begge land et mønster der noen få kjernebyer står for det store flertallet av Ollama-implementeringene.
Denne sammenligningen på bynivå avslører ytterligere at promoteringen og anvendelsen av Ollama, som et utviklerverktøy, er tett knyttet til regionale teknologiske økosystemer og industriell utvikling.
6. Modellanalyse
6.1 Kort Oversikt over AI-modeller, Parametere og Kvantisering
Ollama støtter en rekke åpen kildekode store språkmodeller. Disse modellene kjennetegnes vanligvis av følgende funksjoner:
6.1.1 Vanlige Modellfamilier
Det nåværende åpen kildekode-fellesskapet har sett en økning i fremragende LLM-familier, hver med sine egne egenskaper:
Llama-serien (Meta AI): Slik som Llama 2, Llama 3, Code Llama. Kjent for sine kraftige generelle evner og omfattende fellesskapsstøtte, noe som har ført til mange finjusterte versjoner. Modeller som
llama3.1
,hermes3
sett i våre data er ofte basert på Llama-arkitekturen.Mistral-serien (Mistral AI): Slik som Mistral 7B, Mixtral 8x7B. Får oppmerksomhet for effektivitet og høy ytelse, spesielt MoE-modellene (Mixture of Experts).
Gemma-serien (Google): Slik som Gemma 2B, Gemma 7B. Åpen-vekt-modeller utgitt av Google, med teknologi avledet fra deres kraftigere Gemini-modeller.
Phi-serien (Microsoft): Slik som Phi-2, Phi-3. Fokuserer på små, men kapable modeller, og legger vekt på "SLM-er (Små Språkmodeller)".
DeepSeek-serien (DeepSeek AI): Slik som DeepSeek Coder, DeepSeek LLM. Kinesiske AI-modeller som utmerker seg i koding og generelle oppgaver.
Qwen-serien (Alibaba Tongyi Qianwen): Slik som Qwen1.5. En serie modeller lansert av Alibaba DAMO Academy, som støtter flere språk og oppgaver.
Det finnes mange andre fremragende modeller, som Yi (01.AI), Command R (Cohere), osv.
Ollama, gjennom sin Modelfile
-mekanisme, lar brukere enkelt bruke disse basismodellene eller deres finjusterte versjoner. Modellnavn følger ofte formatet familie:størrelse-variant-kvantisering
, for eksempel llama3:8b-instruct-q4_K_M
.
6.1.2 Modellparametere (Parameterstørrelse)
Antall modellparametere (vanligvis i B - Milliarder; eller M - Millioner) er en viktig indikator på en modells skala og potensielle kapasitet. Vanlige parameterstørrelser inkluderer:
Små Modeller: < 7B (f.eks. 1.5B, 2B, 3B). Kjører vanligvis raskt med lavt ressursforbruk, egnet for spesifikke oppgaver eller ressursbegrensede miljøer.
Mellomstore Modeller: 7B, 8B, 13B. Oppnår en god balanse mellom kapasitet og ressursforbruk, for tiden en av de mest populære størrelsene i fellesskapet.
Store Modeller: 30B, 33B, 40B, 70B+. Generelt mer kapable, men krever også mer beregningsressurser (RAM, VRAM) og lengre inferenstider.
parameter_size
-feltet i våre data (f.eks. "8.0B", "7B", "134.52M") indikerer dette.
6.1.3 Kvantiseringsversjoner (Kvantiseringsnivå)
Kvantisering er en teknikk for å redusere modellstørrelse og akselerere inferens ved å senke den numeriske presisjonen til modellvekter (f.eks. fra 16-bit flyttall FP16 til 4-bit heltall INT4).
Vanlige Kvantiseringsnivåer: Ollama og GGUF-formatet (brukt av Llama.cpp) støtter ulike kvantiseringsstrategier, som
Q2_K
,Q3_K_S
,Q3_K_M
,Q3_K_L
,Q4_0
,Q4_K_M
,Q5_K_M
,Q6_K
,Q8_0
, osv.Tallet (f.eks. 2, 3, 4, 5, 6, 8) indikerer omtrent antall bits.
K
-serie kvantisering (f.eks.Q4_K_M
) er forbedrede kvantiseringsmetoder introdusert i llama.cpp, som generelt oppnår bedre ytelse med samme bitantall._S
,_M
,_L
betegner vanligvis forskjellige varianter av K-kvant, som påvirker forskjellige deler av modellen.F16
(FP16) representerer 16-bit flyttall, ofte ansett som ikke-kvantisert eller en basis kvantiseringsversjon.F32
(FP32) er full presisjon.
Avveining: Høyere kvantisering (lavere bitantall) resulterer i mindre, raskere modeller, men kommer vanligvis med noe ytelsestap (modellen presterer dårligere). Brukere må velge basert på maskinvare og krav til modellkvalitet.
quantization_level
-feltet i våre data (f.eks. "Q4_K_M", "F16") indikerer dette.
6.2 Topp Populære Modellnavn
Tabellen nedenfor viser Topp 10 modelletiketter rangert etter antall unike IP-implementeringer, inkludert informasjon om deres familie, parameterstørrelse og kvantiseringsnivå.
Rang | Modellnavn (model_name) | Unike IP-implementeringer | Totalt Antall Implementeringsinstanser |
---|---|---|---|
1 |
| 12659 | 24628 |
2 |
| 12572 | 24578 |
3 |
| 11163 | 22638 |
4 |
| 9868 | 21007 |
5 |
| 9845 | 20980 |
6 |
| 4058 | 5016 |
7 |
| 3124 | 3928 |
8 |
| 2856 | 3372 |
9 |
| 2714 | 3321 |
10 |
| 2668 | 3391 |

(Merk: Unike IP-implementeringer refererer til antall unike IP-adresser som har implementert minst én instans av denne modelletiketten. Totalt Antall Implementeringsinstanser refererer til det totale antallet ganger denne modelletiketten vises i models
-listen på tvers av alle IP-er. En IP kan peke på samme modelletikett flere ganger via forskjellige midler eller poster, eller en IP kan kjøre flere instanser av forskjellige etiketter som tilhører samme basismodell.)
Innledende Observasjoner (Populære Modellnavn):
Modeller med
:latest
-etiketten er svært vanlige, somllama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
. Dette indikerer at mange brukere foretrekker å hente den nyeste versjonen av modeller direkte.Llama-seriemodeller (f.eks.
llama3:latest
,llama3:8b-text-q4_K_S
,llama2:latest
,llama3.1:8b
) opptar flere plasser, noe som viser deres sterke popularitet.Kinesiske AI-modeller som
deepseek-r1:latest
(DeepSeek-serien) ogqwen:latest
(Tongyi Qianwen-serien) presterer også imponerende, og rangerer høyt.Spesifikke kvantiserte versjoner som
llama3:8b-text-q4_K_S
kom også inn på topp ti, noe som indikerer brukerpreferanse for spesifikke balanser mellom ytelse og ressursforbruk.Små modeller som
smollm2:135m
ogqwen2.5:1.5b
har også et betydelig antall implementeringer, og møter etterspørselen etter lettvektsmodeller.
6.3 Topp Modellfamilier
Modellfamilie (details.family
-feltet) representerer modellens basisarkitektur eller primære teknologiske avstamning. Nedenfor er modellfamiliene med et høyere antall implementeringer basert på vår dataanalyse:
Rang | Modellfamilie (family) | Unike IP-implementeringer (Estimert) | Totalt Antall Implementeringsinstanser (Estimert) |
---|---|---|---|
1 |
| ~20250 | ~103480 |
2 |
| ~17881 | ~61452 |
3 |
| ~1479 | ~1714 |
4 |
| ~1363 | ~2493 |
5 |
| ~1228 | ~2217 |
6 |
| ~943 | ~1455 |
7 |
| ~596 | ~750 |
8 |
| ~484 | ~761 |
9 |
| ~368 | ~732 |
10 |
| ~244 | ~680 |

(Merk: De spesifikke verdiene her er estimerte og oppsummert basert på den tidligere spurte Topp 50 modelldetaljlisten og kan avvike noe fra presise globale statistikker, men trenden er representativ.)
Innledende Observasjoner (Populære Modellfamilier):
llama
-familien har en absolutt dominerende posisjon, i tråd med at Llama-seriemodeller er grunnlaget for mange moderne åpen kildekode LLM-er og deres egen utbredte anvendelse. Dets enorme økosystem og mange finjusterte versjoner gjør det til det mest populære valget.qwen2
(Tongyi Qianwen Qwen2-serien), som den nest største familien, viser sin sterke konkurranseevne i Kina og til og med globalt.Fremveksten av
nomic-bert
ogbert
er bemerkelsesverdig. Selv om de vanligvis ikke anses som "store språkmodeller" (konversasjonelle), men snarere tekstinnbyggings- eller andre grunnleggende modeller for naturlig språkbehandling, antyder deres høye implementeringsvolum at Ollama også brukes mye til slike oppgaver. Ollama laster automatisk ned en standard innbyggingsmodell (f.eks.nomic-embed-text
) når den utfører visse operasjoner (som å generere innbyggingsvektorer), noe som sannsynligvis er hovedårsaken til at disse familiene rangerer høyt.Googles
gemma
-serie (inkludertgemma3
,gemma
,gemma2
) viser også anstendige adopsjonsrater.Andre velkjente modellfamilier som
deepseek2
ogphi3
kom også inn på topp ti.mllama
kan representere en samling av forskjellige Llama-baserte hybrid-, modifiserte eller fellesskapsnavngitte modeller.
6.4 Topp Statistikk for Original Parameterstørrelse
Modellparameterstørrelse (details.parameter_size
-feltet) er en viktig indikator på modellskala. På grunn av de varierte representasjonene av parameterstørrelser i rådataene (f.eks. "8.0B", "7B", "134.52M"), teller vi direkte disse originale strengene. Nedenfor er parameterstørrelsesrepresentasjonene med et høyere antall implementeringer:
Rang | Parameterstørrelse (Original Streng) | Unike IP-implementeringer (Estimert) | Totalt Antall Implementeringsinstanser (Estimert) |
---|---|---|---|
1 |
| ~14480 | ~52577 |
2 |
| ~14358 | ~28105 |
3 |
| ~11233 | ~22907 |
4 |
| ~9895 | ~21058 |
5 |
| ~4943 | ~11738 |
6 |
| ~4062 | ~5266 |
7 |
| ~2759 | ~3596 |
8 |
| ~2477 | ~3311 |
9 |
| ~2034 | ~2476 |
10 |
| ~1553 | ~2244 |
11 |
| ~1477 | ~1708 |
12 |
| ~1421 | ~2000 |
13 |
| ~1254 | ~2840 |
14 |
| ~1123 | ~2091 |
15 |
| ~943 | ~1194 |

(Merk: Verdier er estimerte basert på en oppsummering av parameterinformasjon fra den tidligere spurte Topp 50 modelldetaljlisten.)
Innledende Observasjoner (Populære Parameterstørrelser):
Modeller i 7B til 8B-skalaen er den absolutte hovedstrømmen: "8.0B", "7.6B", "7.2B", "7B" opptar det store flertallet av implementeringene. Dette tilsvarer vanligvis svært populære modeller i fellesskapet, som Llama 2/3 7B/8B-serien, Mistral 7B, og deres forskjellige finjusterte versjoner. De oppnår en god balanse mellom ytelse og ressursforbruk.
4B-skala modeller har også en viktig posisjon: Den høye implementeringen av "4B" er bemerkelsesverdig.
Lettvektsmodeller på million-parameternivå (M) er utbredt: Den høye rangeringen av "134.52M" og "137M" er sannsynligvis relatert til populariteten til innbyggingsmodeller (som
nomic-embed-text
) eller svært små spesialiserte modeller (somsmollm
-serien). Disse modellene er små, raske og egnet for ressursbegrensede eller latensfølsomme scenarier.Stabil etterspørsel etter små modeller i 1B-4B-området: Modeller med parameterstørrelser som "1.5B", "1.8B", "3.2B", "4.3B" foretrekkes også av en del av brukerne.
Store modeller over 10B: Slik som "13B", "12.2B", "32.8B", "14.8B", selv om de ikke har like mange unike IP-implementeringer som 7-8B-nivået, har de fortsatt et betydelig implementeringsvolum, noe som indikerer en fellesskapsetterspørsel etter mer kapable modeller, til tross for deres høyere maskinvarekrav.
6.5 Topp Statistikk for Kvantiseringsnivå
Modellkvantiseringsnivå (details.quantization_level
-feltet) reflekterer vektpresisjonen som modellen har vedtatt for å redusere størrelse og akselerere inferens. Nedenfor er kvantiseringsnivåene med et høyere antall implementeringer:
Rang | Kvantiseringsnivå (Original Streng) | Unike IP-implementeringer (Estimert) | Totalt Antall Implementeringsinstanser (Estimert) |
---|---|---|---|
1 |
| ~20966 | ~53688 |
2 |
| ~18385 | ~88653 |
3 |
| ~9860 | ~21028 |
4 |
| ~5793 | ~9837 |
5 |
| ~596 | ~1574 |
6 |
| ~266 | ~1318 |
7 |
| ~97 | ~283 |
8 |
| ~85 | ~100 |
9 |
| ~60 | ~178 |
10 |
| ~54 | ~140 |

(Merk: Verdier er estimerte basert på en oppsummering av kvantiseringsinformasjon fra den tidligere spurte Topp 50 modelldetaljlisten.)
Innledende Observasjoner (Populære Kvantiseringsnivåer):
4-bit kvantisering er den dominerende løsningen:
Q4_K_M
,Q4_0
ogQ4_K_S
, disse tre 4-bit kvantiseringsnivåene, topper absolutt listene. Dette indikerer tydelig at fellesskapet i stor grad vedtar 4-bit kvantisering som den foretrukne løsningen for å oppnå den beste balansen mellom modellytelse, inferenshastighet og ressursbruk (spesielt VRAM).F16
(16-bit flyttall) har fortsatt en betydelig plass: Som en ikke-kvantisert (eller bare grunnleggende kvantisert) versjon, viser den høye implementeringen avF16
at et betydelig antall brukere velger den for å oppnå høyest mulig modellfidelitet eller fordi de har tilstrekkelige maskinvareressurser.Q8_0
(8-bit kvantisering) som et supplement: Gir et alternativ mellom 4-bit ogF16
.Fremvekst av
unknown
-verdier: Indikerer at informasjon om kvantiseringsnivå mangler eller ikke er standard i noen modellmetadata.
6.6 Distribusjon av AI-datakraft (etter Modellparameterstørrelse): Kina vs. USA
For å få en dypere forståelse av hvordan modeller av ulik skala implementeres i store land, kategoriserte og telte vi parameterstørrelsene til modeller implementert på Ollama-instanser i USA og Kina. Parameterstørrelse anses ofte som en viktig indikator på modellkompleksitet og potensiell etterspørsel etter AI-datakraft.
Klassifiseringsstandard for Parameterskala:
Liten: < 1 Milliard parametere (< 1B)
Middels: 1 Milliard til < 10 Milliarder parametere (1B til < 10B)
Stor: 10 Milliarder til < 50 Milliarder parametere (10B til < 50B)
Ekstra Stor: >= 50 Milliarder parametere (>= 50B)
Tabellen nedenfor viser antall unike IP-er som implementerer modeller av ulik parameterskala i USA og Kina:
Land | Parameterskala Kategori | Antall Unike IP-er |
---|---|---|
Kina | Liten (<1B) | 3313 |
Kina | Middels (1B til <10B) | 4481 |
Kina | Stor (10B til <50B) | 1548 |
Kina | Ekstra Stor (>=50B) | 280 |
USA | Liten (<1B) | 1368 |
USA | Middels (1B til <10B) | 6495 |
USA | Stor (10B til <50B) | 1301 |
USA | Ekstra Stor (>=50B) | 58 |
--China-vs-USA.jpeg)
Datainnsikt og Analyse:
Mellomstore modeller er hovedstrømmen, men med ulikt fokus:
USA: Implementeringer av mellomstore modeller (1B-10B) er absolutt dominerende i USA (6495 unike IP-er).
Kina: Mellomstore modeller (4481 unike IP-er) er også den mest implementerte typen i Kina, men implementeringen av små modeller (<1B) i Kina (3313 unike IP-er) er svært betydelig.
Betydelig forskjell i små modeller: Kinas storstilte implementering av små modeller kan reflektere en preferanse for edge computing, mobile AI-applikasjoner og lignende scenarier.
Implementering av store og ekstra store modeller: Kina viser høyere aktivitet i å utforske store og ekstra store modeller (om enn fra en mindre base).
Inferens om samlet investering i datakraft: USAs base i mellomstore modeller viser utbredelsen av praktiske AI-applikasjoner. Kina har en fordel i små modeller og utforsker aktivt store modeller.
Implikasjoner for globale trender: Mellomstore modeller er sannsynligvis populære globalt. Ulike regioner kan ha varierende modelladopsjonsstrategier basert på sine økosystemer og ressursforhold.
Ved å segmentere modellparameterstørrelsene i Kina og USA, kan vi se de ulike fokusområdene og utviklingspotensialene til Ollama-applikasjoner i de to landene.
7. Nettverksinnsikt
7.1 Portbruk
11434
(standardport): Det store flertallet (30 722 unike IP-er) av Ollama-instanser kjører på standardporten11434
.Andre vanlige porter: Porter som
80
(1 619 unike IP-er),8080
(1 571 unike IP-er),443
(1 339 unike IP-er), osv., brukes også, noe som kan indikere at noen instanser er implementert bak en omvendt proxy eller at brukere har tilpasset porten.
7.2 Protokollbruk
HTTP: Omtrent 65 506 unike IP-er har instanser som serverer via HTTP-protokollen.
HTTPS: Omtrent 43 765 unike IP-er har instanser som serverer via HTTPS-protokollen.
De fleste instanser eksponeres fortsatt via ukryptert HTTP, noe som kan utgjøre visse sikkerhetsrisikoer. (Vennligst merk: En IP kan støtte både HTTP og HTTPS, så summen av IP-tellinger her kan overstige det totale antallet unike IP-er)
7.3 Hovedleverandører av Vertstjenester (AS Organisasjon)
Ollama-instanshosting er sterkt konsentrert blant skytjenesteleverandører.
Rang | AS Organisasjon | Antall Unike IP-er | Hovedtilknyttet Leverandør |
---|---|---|---|
1 | AMAZON-02 | 53658 | AWS |
2 | AMAZON-AES | 5539 | AWS |
3 | Chinanet | 4964 | China Telecom |
4 | Hangzhou Alibaba Advertising Co.,Ltd. | 2647 | Alibaba Cloud |
5 | HENGTONG-IDC-LLC | 2391 | Vertstjenesteleverandør |
6 | Shenzhen Tencent Computer Systems Company Limited | 1682 | Tencent Cloud |
7 | CHINA UNICOM China169 Backbone | 1606 | China Unicom |
8 | Hetzner Online GmbH | 972 | Hetzner |
9 | China Unicom Beijing Province Network | 746 | China Unicom (Beijing) |
10 | LEASEWEB-USA-LAX | 735 | Leaseweb |

AWS (AMAZON-02, AMAZON-AES) har den største andelen, etterfulgt av store kinesiske teleoperatører og skytjenesteleverandører (som Alibaba Cloud, Tencent Cloud). Andre vertstjenesteleverandører som Hetzner og Leaseweb har også betydelige andeler.
8. Sikkerhet og Andre Observasjoner
Versjonsinformasjon: Av sikkerhetsgrunner har vi ikke listet statistikk om Ollama-versjoner.
HTTP-eksponeringsrisiko: Som tidligere nevnt, er et stort antall Ollama-instanser eksponert via HTTP uten TLS-kryptering, noe som kan gjøre kommunikasjonsinnhold (f.eks. interaksjoner med modeller) sårbart for avlytting eller manipulering. Brukere rådes til å konfigurere en omvendt proxy og aktivere HTTPS.
API-tilgjengelighet: Dataene i denne rapporten er basert på Ollama-instanser hvis
/api/tags
-grensesnitt er offentlig tilgjengelig. Det faktiske antallet implementeringer kan være høyere, men noen instanser kan være implementert i private nettverk eller ha ekstern tilgang begrenset av brannmurer.
9. Konklusjon og Kort Gjennomgang
Denne rapporten, ved å analysere data fra 99 412 globalt offentlig tilgjengelige Ollama-instanser (via deres /api/tags
-grensesnitt), trekker følgende hovedkonklusjoner og observasjoner:
1. Global Implementeringsoversikt og Geografisk Distribusjon:
Ollama, som et praktisk verktøy for å kjøre store modeller lokalt, har blitt mye implementert globalt. Denne analysen identifiserte 99 412 offentlig tilgjengelige unike IP-er.
Høy Geografisk Konsentrasjon: USA og Kina er de to landene/regionene med de mest konsentrerte Ollama-implementeringene, og står samlet for en betydelig del av de totale tilgjengelige instansene (USA 29 195, Kina 16 464). Land som Japan, Tyskland, Storbritannia, India og Singapore har også betydelige implementeringsantall.
By-hotspots: I USA leder byer som Ashburn, Portland og Columbus i implementeringer; i Kina er teknologisk avanserte byer som Beijing, Hangzhou, Shanghai og Guangzhou de viktigste implementeringsstedene. Dette er ofte relatert til konsentrasjonen av teknologiselskaper, datasentre og utviklerfellesskap.
2. AI-modell Implementeringstrender:
Populære Modelletiketter: Generelle nyeste etiketter som
llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
er mest populære. Spesifikt optimaliserte versjoner somllama3:8b-text-q4_K_S
foretrekkes også på grunn av sin gode balanse.Dominerende Modellfamilier:
llama
-familien leder med absolutt margin, etterfulgt avqwen2
. Den høye rangeringen av innbyggingsmodellfamilier somnomic-bert
ogbert
er bemerkelsesverdig, muligens relatert til Ollamas standardatferd.Parameterstørrelsespreferanser: Modeller med 7B-8B parametere er for tiden hovedstrømmen. Lettvektsmodeller på million-parameternivå og store modeller over 10B har også sine respektive markeder. En sammenligning mellom USA og Kina viser at USA implementerer flere mellomstore modeller, mens Kina er mer aktiv i å utforske små og ekstra store modeller.
Kvantiseringsnivåvalg: 4-bit kvantisering (spesielt
Q4_K_M
ogQ4_0
) er det overveldende valget.F16
, som et alternativ med høyere fidelitet, har også en viktig posisjon.Metadatakompleksitet: Analyse av modellmetadata (f.eks. tolkning av modellfamiliefeltet) avslører noen ganger kompleksiteter mellom postene og modellnavn eller vanlig forståelse, og fremhever mangfoldet i metadatahåndtering i åpen kildekode-økosystemet.
3. Teknisk Infrastruktur:
Vertsmiljøer: Et stort antall Ollama-instanser er vert hos store skytjenesteleverandører som AWS, Alibaba Cloud, Tencent Cloud, samt i nettverkene til store nasjonale teleoperatører.
Tjenesteporter: Ollamas standardport
11434
er den mest brukte, men et betydelig antall instanser eksponeres også via standard webporter.
4. Objektiv Vurdering:
Ollamas Popularitet: Dataene viser tydelig Ollamas høye adopsjonsrate blant utviklere og AI-entusiaster over hele verden.
Vitaliteten til Åpen Kildekode-økosystemet: Mangfoldet av populære modeller og den utbredte bruken av ulike parameter- og kvantiseringsversjoner reflekterer den blomstrende utviklingen av åpen kildekode AI-modelløkosystemet.
Balanse i Brukerpreferanser: Når brukere velger modeller, har de en tendens til å søke en balanse mellom modellkapasitet, driftseffektivitet og maskinvarekostnader.
Sikkerhet og Åpenhet: Et stort antall instanser tillater offentlig tilgang til modellistene sine, noe som, selv om det er praktisk for fellesskapet, også kan utgjøre sikkerhetsrisikoer.
5. Fremtidsutsikter:
Med fremveksten av mer effektive, mindre modeller og ytterligere fremskritt innen kvantiseringsteknologi, forventes implementeringsbarrieren for Ollama å fortsette å synke.
Standardisering av modellmetadata og fellesskapsdelte modeller er avgjørende for å forbedre økosystemets åpenhet og brukervennlighet.
Oppsummert blir Ollama en viktig bro som forbinder banebrytende store språkmodeller med et bredt spekter av utviklere, forskere og til og med vanlige brukere. Denne dataanalysen gir verdifull innsikt for å forstå dens nåværende globale implementeringsstatus og brukerpreferanser.
Kommentarer
comments.comments (0)
Please login first
Sign in