Tenthe ai directory logo
Et Nytt Perspektiv på AI-kappløpet mellom USA og Kina: 2025 Ollama Implementeringssammenligning og Innsikt i Globale AI-modelltrender

Et Nytt Perspektiv på AI-kappløpet mellom USA og Kina: 2025 Ollama Implementeringssammenligning og Innsikt i Globale AI-modelltrender

Ryan@ryan
0 Visninger0 Kommentarer

Ollama er et populært åpen kildekode-verktøy designet for å forenkle prosessen med å kjøre, lage og dele store språkmodeller (LLM-er) lokalt. Det pakker modellvekter, konfigurasjon og data inn i en pakke definert av en Modelfile, og tilbyr en API for å interagere med disse modellene. Dette gjør det mulig for utviklere og forskere å enkelt implementere og eksperimentere med ulike avanserte AI-modeller på personlige datamaskiner eller servere.

1. Introduksjon

Ollama er et populært åpen kildekode-verktøy designet for å forenkle prosessen med å kjøre, lage og dele store språkmodeller (LLM-er) lokalt. Det pakker modellvekter, konfigurasjon og data inn i en pakke definert av en Modelfile, og tilbyr en API for å interagere med disse modellene. Dette gjør det mulig for utviklere og forskere å enkelt implementere og eksperimentere med ulike avanserte AI-modeller på personlige datamaskiner eller servere.

Denne rapporten har som mål å avdekke implementeringstrender, modellpreferanser, geografisk distribusjon og nettverkskarakteristikker ved å analysere data fra 174 590 Ollama-instanser implementert globalt.

Merk: Datastatistikk i kapittel 5 og kapittel 7 er hentet fra alle 174 590 instanser. Data i kapittel 6 er hentet fra tilgjengelige instanser. Av sikkerhetsgrunner har vi ikke listet statistikk om Ollama-versjoner.

  • Data per: 24. april 2025.

  • Rapportkilde: Tenthe AI https://tenthe.com

  • Forfatter: Ryan

2. Sammendrag

Denne rapporten er basert på analyse av skannedata og API-sondering av offentlig tilgjengelige Ollama-instanser over hele verden. Viktige funn inkluderer:

  • Globalt, blant omtrent 174 590 poster som opprinnelig ble identifisert via Fofa (99 412 unike IP-er), ble 41 021 Ollama-instanser med tilgjengelige API-er vellykket sondert, fordelt på 24 038 unike IP-adresser (en tilgjengelighetsrate på omtrent 24,18 %).

  • Geografisk sett er USA og Kina landene med det høyeste antallet Ollama-implementeringer. Skytjenesteleverandører, spesielt AWS, Alibaba Cloud og Tencent Cloud, er de primære vertene for Ollama-instanser.

  • Modellimplementeringer viser mangfold, der llama3, deepseek-r1, mistral og qwen-seriemodeller er svært populære. Blant dem er llama3:latest og deepseek-r1:latest de to mest utbredte modelletikettene.

  • Modeller med 7B-8B parametere er brukernes førstevalg, mens 4-bit kvantiserte modeller som Q4_K_M og Q4_0 er mye brukt på grunn av sin gode balanse mellom ytelse og ressursforbruk.

  • Standardporten 11434 er den mest brukte, og de fleste instanser eksponerer tjenester via HTTP-protokollen.

3. Datakilder og Metodikk

Dataene for denne rapporten kommer primært fra to stadier:

  1. Innledende skanning: Bruk av søkemotorer for nettverksrom som Fofa, med betingelsen app="Ollama" && is_domain=false, for å innledningsvis identifisere potensielle Ollama-instanser implementert globalt. Dette stadiet fant 174 590 poster, som involverte 99 412 unike IP-er etter deduplisering.

  2. API-verifisering og Dataanrikning: Sondering av ip:port/api/tags API-endepunktet for de innledningsvis skannede IP-adressene for å bekrefte tilgjengeligheten av Ollama-tjenester og innhente informasjon om de spesifikke AI-modellene som er implementert. Dette stadiet bekreftet 41 021 vellykket responderende Ollama-instanser (fra 24 038 unike IP-er, med data lagret i ollama-tabellen).

  3. De endelige dataene lagres i ollama-tabellen.

Analysen i denne rapporten er primært basert på data fra ollama-tabellen, som inneholder poster over vellykket sonderte API-er og deres detaljerte informasjon, inkludert IP, port, geografisk plassering og JSON-respons (som inneholder modellisten), osv.

4. Generell Implementeringsstatistikk

  • Antall innledende poster fra Fofa-skanning: 174 590

  • Antall unike IP-er fra Fofa innledende skanning: 99 412

  • Antall Ollama-instanser som vellykket får tilgang til /api/tags: 41 021 (fra poster der status = 'success' i ollama-tabellen)

  • Antall korresponderende unike IP-adresser: 24 038 (fra poster der status = 'success' i ollama-tabellen)

  • Forholdet mellom tilgjengelige IP-er og innledningsvis identifiserte IP-er: (24038 / 99412) * 100 % ≈ 24,18 %

Dette indikerer at blant alle Ollama-instanser identifisert via Fofa, har omtrent en fjerdedel sitt /api/tags-grensesnitt offentlig tilgjengelig, noe som lar oss hente informasjon om deres implementerte modeller.

5. Geografisk Distribusjonsanalyse

5.1 Topp 20 Implementeringsland/-regioner

Tabellen nedenfor viser de 20 beste landene/regionene rangert etter antall unike IP-er med Ollama-instanser.

Rang

Land/Region

Antall Unike IP-er

1

USA

29195

2

Kina

16464

3

Japan

5849

4

Tyskland

5438

5

Storbritannia

4014

6

India

3939

7

Singapore

3914

8

Sør-Korea

3773

9

Irland

3636

10

Frankrike

3599

11

Australia

3558

12

Brasil

2909

13

Canada

2763

14

Sør-Afrika

2742

15

Sverige

2113

16

Hong Kong SAR, Kina

1277

17

Israel

675

18

Taiwan, Kina

513

19

Russland

475

20

Finland

308

Ollama Topp 20 Implementeringsland/-regioner

5.2 Topp 20 Globale Byimplementeringer

Tabellen nedenfor viser de 20 beste byene globalt rangert etter antall unike IP-er med Ollama-instanser.

Rang

By

Land/Region

Antall Unike IP-er

1

Ashburn

USA

5808

2

Portland

USA

5130

3

Singapore

Singapore

3914

4

Frankfurt am Main

Tyskland

3908

5

Beijing

Kina

3906

6

London

Storbritannia

3685

7

Columbus

USA

3672

8

Mumbai

India

3637

9

Dublin

Irland

3631

10

Tokyo

Japan

3620

11

Sydney

Australia

3487

12

Paris

Frankrike

3175

13

San Jose

USA

2815

14

Sao Paulo

Brasil

2753

15

Cape Town

Sør-Afrika

2692

16

Montreal

Canada

2535

17

Seattle

USA

2534

18

Hangzhou

Kina

2447

19

Seoul

Sør-Korea

2327

20

Osaka

Japan

2184

5.3 Topp 10 Amerikanske Byers Distribusjon

Rang

By

Antall Unike IP-er

1

Ashburn

5808

2

Portland

5130

3

Columbus

3672

4

San Jose

2815

5

Seattle

2534

6

Westlake Village

1714

7

Boardman

855

8

Florence

776

9

San Francisco

753

10

Boulder

642

Ollama Topp 10 Amerikanske Byers Distribusjon

5.4 Topp 10 Fastlands-Kinas Byers Distribusjon

Implementeringer i Hong Kong og Taiwan reflekteres ikke i Topp 10 bytabellen, da de allerede er inkludert i land-/regionstatistikken.

Rang

By

Land (country_name)

Antall Unike IP-er

1

Beijing

Kina

3906

2

Hangzhou

Kina

2447

3

Shanghai

Kina

1335

4

Guangzhou

Kina

1296

5

Shenzhen

Kina

768

6

Chengdu

Kina

469

7

Nanjing

Kina

329

8

Chongqing

Kina

259

9

Suzhou

Kina

257

10

Wuhan

Kina

249

Ollama Topp 20 Globale Byimplementeringer

5.5 USA-Kina Topp 10 Byers Implementeringssammenligning

For å mer intuitivt sammenligne Ollama-implementeringer på bynivå i USA og Kina, viser tabellen nedenfor en sammenstilling av antall unike IP-implementeringer for de 10 beste byene i begge land:

Rang

Amerikansk By (Topp 10)

Amerikansk Antall Unike IP-er

Kinesisk By (Topp 10)

Kinesisk Antall Unike IP-er

1

Ashburn

5808

Beijing

3906

2

Portland

5130

Hangzhou

2447

3

Columbus

3672

Shanghai

1335

4

San Jose

2815

Guangzhou

1296

5

Seattle

2534

Shenzhen

768

6

Westlake Village

1714

Chengdu

469

7

Boardman

855

Nanjing

329

8

Florence

776

Chongqing

259

9

San Francisco

753

Suzhou

257

10

Boulder

642

Wuhan

249

Ollama USA-Kina Topp 10 Byers Implementeringssammenligning

Kort kommentar:

  • Ledende Byvolum: De 3 beste amerikanske byene (Ashburn, Portland, Columbus) har hver over 3000 unike IP-er med Ollama-implementeringer. Kinas beste by (Beijing) har over 3000 implementeringer, og dens nest største by (Hangzhou) har over 2000.

  • Teknologi- og Økonomisentre: Mange av de listede byene i begge land er velkjente teknologiske innovasjonssentre eller viktige økonomiske regioner.

  • Datasenterregioner: Inkluderingen av amerikanske byer som Ashburn reflekterer også at Ollama-instanser i stor grad kan være implementert i skyservere og datasentre.

  • Distribusjonsforskjeller: Samlet sett er det totale antallet IP-er i USAs Topp 10 byer betydelig høyere enn i Kinas Topp 10 byer. Imidlertid viser begge land et mønster der noen få kjernebyer står for det store flertallet av Ollama-implementeringene.

Denne sammenligningen på bynivå avslører ytterligere at promoteringen og anvendelsen av Ollama, som et utviklerverktøy, er tett knyttet til regionale teknologiske økosystemer og industriell utvikling.

6. Modellanalyse

6.1 Kort Oversikt over AI-modeller, Parametere og Kvantisering

Ollama støtter en rekke åpen kildekode store språkmodeller. Disse modellene kjennetegnes vanligvis av følgende funksjoner:

6.1.1 Vanlige Modellfamilier

Det nåværende åpen kildekode-fellesskapet har sett en økning i fremragende LLM-familier, hver med sine egne egenskaper:

  • Llama-serien (Meta AI): Slik som Llama 2, Llama 3, Code Llama. Kjent for sine kraftige generelle evner og omfattende fellesskapsstøtte, noe som har ført til mange finjusterte versjoner. Modeller som llama3.1, hermes3 sett i våre data er ofte basert på Llama-arkitekturen.

  • Mistral-serien (Mistral AI): Slik som Mistral 7B, Mixtral 8x7B. Får oppmerksomhet for effektivitet og høy ytelse, spesielt MoE-modellene (Mixture of Experts).

  • Gemma-serien (Google): Slik som Gemma 2B, Gemma 7B. Åpen-vekt-modeller utgitt av Google, med teknologi avledet fra deres kraftigere Gemini-modeller.

  • Phi-serien (Microsoft): Slik som Phi-2, Phi-3. Fokuserer på små, men kapable modeller, og legger vekt på "SLM-er (Små Språkmodeller)".

  • DeepSeek-serien (DeepSeek AI): Slik som DeepSeek Coder, DeepSeek LLM. Kinesiske AI-modeller som utmerker seg i koding og generelle oppgaver.

  • Qwen-serien (Alibaba Tongyi Qianwen): Slik som Qwen1.5. En serie modeller lansert av Alibaba DAMO Academy, som støtter flere språk og oppgaver.

  • Det finnes mange andre fremragende modeller, som Yi (01.AI), Command R (Cohere), osv.

Ollama, gjennom sin Modelfile-mekanisme, lar brukere enkelt bruke disse basismodellene eller deres finjusterte versjoner. Modellnavn følger ofte formatet familie:størrelse-variant-kvantisering, for eksempel llama3:8b-instruct-q4_K_M.

6.1.2 Modellparametere (Parameterstørrelse)

Antall modellparametere (vanligvis i B - Milliarder; eller M - Millioner) er en viktig indikator på en modells skala og potensielle kapasitet. Vanlige parameterstørrelser inkluderer:

  • Små Modeller: < 7B (f.eks. 1.5B, 2B, 3B). Kjører vanligvis raskt med lavt ressursforbruk, egnet for spesifikke oppgaver eller ressursbegrensede miljøer.

  • Mellomstore Modeller: 7B, 8B, 13B. Oppnår en god balanse mellom kapasitet og ressursforbruk, for tiden en av de mest populære størrelsene i fellesskapet.

  • Store Modeller: 30B, 33B, 40B, 70B+. Generelt mer kapable, men krever også mer beregningsressurser (RAM, VRAM) og lengre inferenstider.

parameter_size-feltet i våre data (f.eks. "8.0B", "7B", "134.52M") indikerer dette.

6.1.3 Kvantiseringsversjoner (Kvantiseringsnivå)

Kvantisering er en teknikk for å redusere modellstørrelse og akselerere inferens ved å senke den numeriske presisjonen til modellvekter (f.eks. fra 16-bit flyttall FP16 til 4-bit heltall INT4).

  • Vanlige Kvantiseringsnivåer: Ollama og GGUF-formatet (brukt av Llama.cpp) støtter ulike kvantiseringsstrategier, som Q2_K, Q3_K_S, Q3_K_M, Q3_K_L, Q4_0, Q4_K_M, Q5_K_M, Q6_K, Q8_0, osv.

    • Tallet (f.eks. 2, 3, 4, 5, 6, 8) indikerer omtrent antall bits.

    • K-serie kvantisering (f.eks. Q4_K_M) er forbedrede kvantiseringsmetoder introdusert i llama.cpp, som generelt oppnår bedre ytelse med samme bitantall.

    • _S, _M, _L betegner vanligvis forskjellige varianter av K-kvant, som påvirker forskjellige deler av modellen.

    • F16 (FP16) representerer 16-bit flyttall, ofte ansett som ikke-kvantisert eller en basis kvantiseringsversjon. F32 (FP32) er full presisjon.

  • Avveining: Høyere kvantisering (lavere bitantall) resulterer i mindre, raskere modeller, men kommer vanligvis med noe ytelsestap (modellen presterer dårligere). Brukere må velge basert på maskinvare og krav til modellkvalitet.

quantization_level-feltet i våre data (f.eks. "Q4_K_M", "F16") indikerer dette.

6.2 Topp Populære Modellnavn

Tabellen nedenfor viser Topp 10 modelletiketter rangert etter antall unike IP-implementeringer, inkludert informasjon om deres familie, parameterstørrelse og kvantiseringsnivå.

Rang

Modellnavn (model_name)

Unike IP-implementeringer

Totalt Antall Implementeringsinstanser

1

llama3:latest

12659

24628

2

deepseek-r1:latest

12572

24578

3

mistral:latest

11163

22638

4

qwen:latest

9868

21007

5

llama3:8b-text-q4_K_S

9845

20980

6

smollm2:135m

4058

5016

7

llama2:latest

3124

3928

8

hermes3:8b

2856

3372

9

llama3.1:8b

2714

3321

10

qwen2.5:1.5b

2668

3391

Ollama Topp Populære Modellnavn

(Merk: Unike IP-implementeringer refererer til antall unike IP-adresser som har implementert minst én instans av denne modelletiketten. Totalt Antall Implementeringsinstanser refererer til det totale antallet ganger denne modelletiketten vises i models-listen på tvers av alle IP-er. En IP kan peke på samme modelletikett flere ganger via forskjellige midler eller poster, eller en IP kan kjøre flere instanser av forskjellige etiketter som tilhører samme basismodell.)

Innledende Observasjoner (Populære Modellnavn):

  • Modeller med :latest-etiketten er svært vanlige, som llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest. Dette indikerer at mange brukere foretrekker å hente den nyeste versjonen av modeller direkte.

  • Llama-seriemodeller (f.eks. llama3:latest, llama3:8b-text-q4_K_S, llama2:latest, llama3.1:8b) opptar flere plasser, noe som viser deres sterke popularitet.

  • Kinesiske AI-modeller som deepseek-r1:latest (DeepSeek-serien) og qwen:latest (Tongyi Qianwen-serien) presterer også imponerende, og rangerer høyt.

  • Spesifikke kvantiserte versjoner som llama3:8b-text-q4_K_S kom også inn på topp ti, noe som indikerer brukerpreferanse for spesifikke balanser mellom ytelse og ressursforbruk.

  • Små modeller som smollm2:135m og qwen2.5:1.5b har også et betydelig antall implementeringer, og møter etterspørselen etter lettvektsmodeller.

6.3 Topp Modellfamilier

Modellfamilie (details.family-feltet) representerer modellens basisarkitektur eller primære teknologiske avstamning. Nedenfor er modellfamiliene med et høyere antall implementeringer basert på vår dataanalyse:

Rang

Modellfamilie (family)

Unike IP-implementeringer (Estimert)

Totalt Antall Implementeringsinstanser (Estimert)

1

llama

~20250

~103480

2

qwen2

~17881

~61452

3

nomic-bert

~1479

~1714

4

gemma3

~1363

~2493

5

bert

~1228

~2217

6

mllama

~943

~1455

7

gemma

~596

~750

8

deepseek2

~484

~761

9

phi3

~368

~732

10

gemma2

~244

~680

Ollama Topp Modellfamilier

(Merk: De spesifikke verdiene her er estimerte og oppsummert basert på den tidligere spurte Topp 50 modelldetaljlisten og kan avvike noe fra presise globale statistikker, men trenden er representativ.)

Innledende Observasjoner (Populære Modellfamilier):

  • llama-familien har en absolutt dominerende posisjon, i tråd med at Llama-seriemodeller er grunnlaget for mange moderne åpen kildekode LLM-er og deres egen utbredte anvendelse. Dets enorme økosystem og mange finjusterte versjoner gjør det til det mest populære valget.

  • qwen2 (Tongyi Qianwen Qwen2-serien), som den nest største familien, viser sin sterke konkurranseevne i Kina og til og med globalt.

  • Fremveksten av nomic-bert og bert er bemerkelsesverdig. Selv om de vanligvis ikke anses som "store språkmodeller" (konversasjonelle), men snarere tekstinnbyggings- eller andre grunnleggende modeller for naturlig språkbehandling, antyder deres høye implementeringsvolum at Ollama også brukes mye til slike oppgaver. Ollama laster automatisk ned en standard innbyggingsmodell (f.eks. nomic-embed-text) når den utfører visse operasjoner (som å generere innbyggingsvektorer), noe som sannsynligvis er hovedårsaken til at disse familiene rangerer høyt.

  • Googles gemma-serie (inkludert gemma3, gemma, gemma2) viser også anstendige adopsjonsrater.

  • Andre velkjente modellfamilier som deepseek2 og phi3 kom også inn på topp ti.

  • mllama kan representere en samling av forskjellige Llama-baserte hybrid-, modifiserte eller fellesskapsnavngitte modeller.

6.4 Topp Statistikk for Original Parameterstørrelse

Modellparameterstørrelse (details.parameter_size-feltet) er en viktig indikator på modellskala. På grunn av de varierte representasjonene av parameterstørrelser i rådataene (f.eks. "8.0B", "7B", "134.52M"), teller vi direkte disse originale strengene. Nedenfor er parameterstørrelsesrepresentasjonene med et høyere antall implementeringer:

Rang

Parameterstørrelse (Original Streng)

Unike IP-implementeringer (Estimert)

Totalt Antall Implementeringsinstanser (Estimert)

1

8.0B

~14480

~52577

2

7.6B

~14358

~28105

3

7.2B

~11233

~22907

4

4B

~9895

~21058

5

7B

~4943

~11738

6

134.52M

~4062

~5266

7

1.5B

~2759

~3596

8

13B

~2477

~3311

9

1.8B

~2034

~2476

10

3.2B

~1553

~2244

11

137M

~1477

~1708

12

12.2B

~1421

~2000

13

32.8B

~1254

~2840

14

14.8B

~1123

~2091

15

4.3B

~943

~1194

Ollama Topp Statistikk for Original Parameterstørrelse

(Merk: Verdier er estimerte basert på en oppsummering av parameterinformasjon fra den tidligere spurte Topp 50 modelldetaljlisten.)

Innledende Observasjoner (Populære Parameterstørrelser):

  • Modeller i 7B til 8B-skalaen er den absolutte hovedstrømmen: "8.0B", "7.6B", "7.2B", "7B" opptar det store flertallet av implementeringene. Dette tilsvarer vanligvis svært populære modeller i fellesskapet, som Llama 2/3 7B/8B-serien, Mistral 7B, og deres forskjellige finjusterte versjoner. De oppnår en god balanse mellom ytelse og ressursforbruk.

  • 4B-skala modeller har også en viktig posisjon: Den høye implementeringen av "4B" er bemerkelsesverdig.

  • Lettvektsmodeller på million-parameternivå (M) er utbredt: Den høye rangeringen av "134.52M" og "137M" er sannsynligvis relatert til populariteten til innbyggingsmodeller (som nomic-embed-text) eller svært små spesialiserte modeller (som smollm-serien). Disse modellene er små, raske og egnet for ressursbegrensede eller latensfølsomme scenarier.

  • Stabil etterspørsel etter små modeller i 1B-4B-området: Modeller med parameterstørrelser som "1.5B", "1.8B", "3.2B", "4.3B" foretrekkes også av en del av brukerne.

  • Store modeller over 10B: Slik som "13B", "12.2B", "32.8B", "14.8B", selv om de ikke har like mange unike IP-implementeringer som 7-8B-nivået, har de fortsatt et betydelig implementeringsvolum, noe som indikerer en fellesskapsetterspørsel etter mer kapable modeller, til tross for deres høyere maskinvarekrav.

6.5 Topp Statistikk for Kvantiseringsnivå

Modellkvantiseringsnivå (details.quantization_level-feltet) reflekterer vektpresisjonen som modellen har vedtatt for å redusere størrelse og akselerere inferens. Nedenfor er kvantiseringsnivåene med et høyere antall implementeringer:

Rang

Kvantiseringsnivå (Original Streng)

Unike IP-implementeringer (Estimert)

Totalt Antall Implementeringsinstanser (Estimert)

1

Q4_K_M

~20966

~53688

2

Q4_0

~18385

~88653

3

Q4_K_S

~9860

~21028

4

F16

~5793

~9837

5

Q8_0

~596

~1574

6

unknown

~266

~1318

7

Q5_K_M

~97

~283

8

F32

~85

~100

9

Q6_K

~60

~178

10

Q2_K

~54

~140

Ollama Topp Statistikk for Kvantiseringsnivå

(Merk: Verdier er estimerte basert på en oppsummering av kvantiseringsinformasjon fra den tidligere spurte Topp 50 modelldetaljlisten.)

Innledende Observasjoner (Populære Kvantiseringsnivåer):

  • 4-bit kvantisering er den dominerende løsningen: Q4_K_M, Q4_0 og Q4_K_S, disse tre 4-bit kvantiseringsnivåene, topper absolutt listene. Dette indikerer tydelig at fellesskapet i stor grad vedtar 4-bit kvantisering som den foretrukne løsningen for å oppnå den beste balansen mellom modellytelse, inferenshastighet og ressursbruk (spesielt VRAM).

  • F16 (16-bit flyttall) har fortsatt en betydelig plass: Som en ikke-kvantisert (eller bare grunnleggende kvantisert) versjon, viser den høye implementeringen av F16 at et betydelig antall brukere velger den for å oppnå høyest mulig modellfidelitet eller fordi de har tilstrekkelige maskinvareressurser.

  • Q8_0 (8-bit kvantisering) som et supplement: Gir et alternativ mellom 4-bit og F16.

  • Fremvekst av unknown-verdier: Indikerer at informasjon om kvantiseringsnivå mangler eller ikke er standard i noen modellmetadata.

6.6 Distribusjon av AI-datakraft (etter Modellparameterstørrelse): Kina vs. USA

For å få en dypere forståelse av hvordan modeller av ulik skala implementeres i store land, kategoriserte og telte vi parameterstørrelsene til modeller implementert på Ollama-instanser i USA og Kina. Parameterstørrelse anses ofte som en viktig indikator på modellkompleksitet og potensiell etterspørsel etter AI-datakraft.

Klassifiseringsstandard for Parameterskala:

  • Liten: < 1 Milliard parametere (< 1B)

  • Middels: 1 Milliard til < 10 Milliarder parametere (1B til < 10B)

  • Stor: 10 Milliarder til < 50 Milliarder parametere (10B til < 50B)

  • Ekstra Stor: >= 50 Milliarder parametere (>= 50B)

Tabellen nedenfor viser antall unike IP-er som implementerer modeller av ulik parameterskala i USA og Kina:

Land

Parameterskala Kategori

Antall Unike IP-er

Kina

Liten (<1B)

3313

Kina

Middels (1B til <10B)

4481

Kina

Stor (10B til <50B)

1548

Kina

Ekstra Stor (>=50B)

280

USA

Liten (<1B)

1368

USA

Middels (1B til <10B)

6495

USA

Stor (10B til <50B)

1301

USA

Ekstra Stor (>=50B)

58

Tabellen nedenfor viser antall unike IP-er som implementerer modeller av ulik parameterskala i USA og Kina

Datainnsikt og Analyse:

  1. Mellomstore modeller er hovedstrømmen, men med ulikt fokus:

    • USA: Implementeringer av mellomstore modeller (1B-10B) er absolutt dominerende i USA (6495 unike IP-er).

    • Kina: Mellomstore modeller (4481 unike IP-er) er også den mest implementerte typen i Kina, men implementeringen av små modeller (<1B) i Kina (3313 unike IP-er) er svært betydelig.

  2. Betydelig forskjell i små modeller: Kinas storstilte implementering av små modeller kan reflektere en preferanse for edge computing, mobile AI-applikasjoner og lignende scenarier.

  3. Implementering av store og ekstra store modeller: Kina viser høyere aktivitet i å utforske store og ekstra store modeller (om enn fra en mindre base).

  4. Inferens om samlet investering i datakraft: USAs base i mellomstore modeller viser utbredelsen av praktiske AI-applikasjoner. Kina har en fordel i små modeller og utforsker aktivt store modeller.

  5. Implikasjoner for globale trender: Mellomstore modeller er sannsynligvis populære globalt. Ulike regioner kan ha varierende modelladopsjonsstrategier basert på sine økosystemer og ressursforhold.

Ved å segmentere modellparameterstørrelsene i Kina og USA, kan vi se de ulike fokusområdene og utviklingspotensialene til Ollama-applikasjoner i de to landene.

7. Nettverksinnsikt

7.1 Portbruk

  • 11434 (standardport): Det store flertallet (30 722 unike IP-er) av Ollama-instanser kjører på standardporten 11434.

  • Andre vanlige porter: Porter som 80 (1 619 unike IP-er), 8080 (1 571 unike IP-er), 443 (1 339 unike IP-er), osv., brukes også, noe som kan indikere at noen instanser er implementert bak en omvendt proxy eller at brukere har tilpasset porten.

7.2 Protokollbruk

  • HTTP: Omtrent 65 506 unike IP-er har instanser som serverer via HTTP-protokollen.

  • HTTPS: Omtrent 43 765 unike IP-er har instanser som serverer via HTTPS-protokollen.

De fleste instanser eksponeres fortsatt via ukryptert HTTP, noe som kan utgjøre visse sikkerhetsrisikoer. (Vennligst merk: En IP kan støtte både HTTP og HTTPS, så summen av IP-tellinger her kan overstige det totale antallet unike IP-er)

7.3 Hovedleverandører av Vertstjenester (AS Organisasjon)

Ollama-instanshosting er sterkt konsentrert blant skytjenesteleverandører.

Rang

AS Organisasjon

Antall Unike IP-er

Hovedtilknyttet Leverandør

1

AMAZON-02

53658

AWS

2

AMAZON-AES

5539

AWS

3

Chinanet

4964

China Telecom

4

Hangzhou Alibaba Advertising Co.,Ltd.

2647

Alibaba Cloud

5

HENGTONG-IDC-LLC

2391

Vertstjenesteleverandør

6

Shenzhen Tencent Computer Systems Company Limited

1682

Tencent Cloud

7

CHINA UNICOM China169 Backbone

1606

China Unicom

8

Hetzner Online GmbH

972

Hetzner

9

China Unicom Beijing Province Network

746

China Unicom (Beijing)

10

LEASEWEB-USA-LAX

735

Leaseweb

Ollama-instanshosting er sterkt konsentrert blant skytjenesteleverandører

AWS (AMAZON-02, AMAZON-AES) har den største andelen, etterfulgt av store kinesiske teleoperatører og skytjenesteleverandører (som Alibaba Cloud, Tencent Cloud). Andre vertstjenesteleverandører som Hetzner og Leaseweb har også betydelige andeler.

8. Sikkerhet og Andre Observasjoner

  • Versjonsinformasjon: Av sikkerhetsgrunner har vi ikke listet statistikk om Ollama-versjoner.

  • HTTP-eksponeringsrisiko: Som tidligere nevnt, er et stort antall Ollama-instanser eksponert via HTTP uten TLS-kryptering, noe som kan gjøre kommunikasjonsinnhold (f.eks. interaksjoner med modeller) sårbart for avlytting eller manipulering. Brukere rådes til å konfigurere en omvendt proxy og aktivere HTTPS.

  • API-tilgjengelighet: Dataene i denne rapporten er basert på Ollama-instanser hvis /api/tags-grensesnitt er offentlig tilgjengelig. Det faktiske antallet implementeringer kan være høyere, men noen instanser kan være implementert i private nettverk eller ha ekstern tilgang begrenset av brannmurer.

9. Konklusjon og Kort Gjennomgang

Denne rapporten, ved å analysere data fra 99 412 globalt offentlig tilgjengelige Ollama-instanser (via deres /api/tags-grensesnitt), trekker følgende hovedkonklusjoner og observasjoner:

1. Global Implementeringsoversikt og Geografisk Distribusjon:

  • Ollama, som et praktisk verktøy for å kjøre store modeller lokalt, har blitt mye implementert globalt. Denne analysen identifiserte 99 412 offentlig tilgjengelige unike IP-er.

  • Høy Geografisk Konsentrasjon: USA og Kina er de to landene/regionene med de mest konsentrerte Ollama-implementeringene, og står samlet for en betydelig del av de totale tilgjengelige instansene (USA 29 195, Kina 16 464). Land som Japan, Tyskland, Storbritannia, India og Singapore har også betydelige implementeringsantall.

  • By-hotspots: I USA leder byer som Ashburn, Portland og Columbus i implementeringer; i Kina er teknologisk avanserte byer som Beijing, Hangzhou, Shanghai og Guangzhou de viktigste implementeringsstedene. Dette er ofte relatert til konsentrasjonen av teknologiselskaper, datasentre og utviklerfellesskap.

2. AI-modell Implementeringstrender:

  • Populære Modelletiketter: Generelle nyeste etiketter som llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest er mest populære. Spesifikt optimaliserte versjoner som llama3:8b-text-q4_K_S foretrekkes også på grunn av sin gode balanse.

  • Dominerende Modellfamilier: llama-familien leder med absolutt margin, etterfulgt av qwen2. Den høye rangeringen av innbyggingsmodellfamilier som nomic-bert og bert er bemerkelsesverdig, muligens relatert til Ollamas standardatferd.

  • Parameterstørrelsespreferanser: Modeller med 7B-8B parametere er for tiden hovedstrømmen. Lettvektsmodeller på million-parameternivå og store modeller over 10B har også sine respektive markeder. En sammenligning mellom USA og Kina viser at USA implementerer flere mellomstore modeller, mens Kina er mer aktiv i å utforske små og ekstra store modeller.

  • Kvantiseringsnivåvalg: 4-bit kvantisering (spesielt Q4_K_M og Q4_0) er det overveldende valget. F16, som et alternativ med høyere fidelitet, har også en viktig posisjon.

  • Metadatakompleksitet: Analyse av modellmetadata (f.eks. tolkning av modellfamiliefeltet) avslører noen ganger kompleksiteter mellom postene og modellnavn eller vanlig forståelse, og fremhever mangfoldet i metadatahåndtering i åpen kildekode-økosystemet.

3. Teknisk Infrastruktur:

  • Vertsmiljøer: Et stort antall Ollama-instanser er vert hos store skytjenesteleverandører som AWS, Alibaba Cloud, Tencent Cloud, samt i nettverkene til store nasjonale teleoperatører.

  • Tjenesteporter: Ollamas standardport 11434 er den mest brukte, men et betydelig antall instanser eksponeres også via standard webporter.

4. Objektiv Vurdering:

  • Ollamas Popularitet: Dataene viser tydelig Ollamas høye adopsjonsrate blant utviklere og AI-entusiaster over hele verden.

  • Vitaliteten til Åpen Kildekode-økosystemet: Mangfoldet av populære modeller og den utbredte bruken av ulike parameter- og kvantiseringsversjoner reflekterer den blomstrende utviklingen av åpen kildekode AI-modelløkosystemet.

  • Balanse i Brukerpreferanser: Når brukere velger modeller, har de en tendens til å søke en balanse mellom modellkapasitet, driftseffektivitet og maskinvarekostnader.

  • Sikkerhet og Åpenhet: Et stort antall instanser tillater offentlig tilgang til modellistene sine, noe som, selv om det er praktisk for fellesskapet, også kan utgjøre sikkerhetsrisikoer.

5. Fremtidsutsikter:

  • Med fremveksten av mer effektive, mindre modeller og ytterligere fremskritt innen kvantiseringsteknologi, forventes implementeringsbarrieren for Ollama å fortsette å synke.

  • Standardisering av modellmetadata og fellesskapsdelte modeller er avgjørende for å forbedre økosystemets åpenhet og brukervennlighet.

Oppsummert blir Ollama en viktig bro som forbinder banebrytende store språkmodeller med et bredt spekter av utviklere, forskere og til og med vanlige brukere. Denne dataanalysen gir verdifull innsikt for å forstå dens nåværende globale implementeringsstatus og brukerpreferanser.

Kommentarer

comments.comments (0)

Please login first

Sign in