Tenthe ai directory logo
Et Nyt Perspektiv på AI-kapløbet mellem USA og Kina: Sammenligning af Ollama-implementeringer i 2025 og Indsigt i Globale AI-model Trends

Et Nyt Perspektiv på AI-kapløbet mellem USA og Kina: Sammenligning af Ollama-implementeringer i 2025 og Indsigt i Globale AI-model Trends

Ryan@ryan
0 Visninger0 Kommentarer

Ollama er et populært open source-værktøj designet til at forenkle processen med at køre, skabe og dele store sprogmodeller (LLM'er) lokalt. Det samler modelvægte, konfiguration og data i en pakke defineret af en Modelfile og leverer en API til interaktion med disse modeller. Dette gør det muligt for udviklere og forskere nemt at implementere og eksperimentere med forskellige avancerede AI-modeller på personlige computere eller servere.

1. Introduktion

Ollama er et populært open source-værktøj designet til at forenkle processen med at køre, skabe og dele store sprogmodeller (LLM'er) lokalt. Det samler modelvægte, konfiguration og data i en pakke defineret af en Modelfile og leverer en API til interaktion med disse modeller. Dette gør det muligt for udviklere og forskere nemt at implementere og eksperimentere med forskellige avancerede AI-modeller på personlige computere eller servere.

Denne rapport har til formål at afdække implementeringstendenser, modelpræferencer, geografisk fordeling og netværkskarakteristika ved at analysere data fra 174.590 Ollama-instanser implementeret globalt.

Bemærk: Datastatistikker i kapitel 5 og kapitel 7 stammer fra alle 174.590 instanser. Data i kapitel 6 stammer fra tilgængelige instanser. Af sikkerhedsmæssige årsager har vi ikke angivet statistikker for Ollama-versioner.

  • Data pr.: 24. april 2025.

  • Rapportkilde: Tenthe AI https://tenthe.com

  • Forfatter: Ryan

2. Resumé for Ledelsen

Denne rapport er baseret på analyse af scanningsdata og API-probing af offentligt tilgængelige Ollama-instanser verden over. Vigtigste resultater inkluderer:

  • Globalt, blandt cirka 174.590 oprindeligt identificerede poster via Fofa (99.412 unikke IP-adresser), blev 41.021 Ollama-instanser med tilgængelige API'er succesfuldt probet, fordelt på 24.038 unikke IP-adresser (en tilgængelighedsrate på cirka 24,18%).

  • Geografisk set er USA og Kina de lande med det højeste antal Ollama-implementeringer. Cloud-tjenesteudbydere, især AWS, Alibaba Cloud og Tencent Cloud, er de primære værter for Ollama-instanser.

  • Modelimplementeringer viser diversitet, hvor llama3, deepseek-r1, mistral og qwen seriens modeller er bredt populære. Blandt dem er llama3:latest og deepseek-r1:latest de to mest udbredte model-tags.

  • Modeller med 7B-8B parametre er brugernes foretrukne valg, mens 4-bit kvantiserede modeller som Q4_K_M og Q4_0 er bredt anvendt på grund af deres gode balance mellem ydeevne og ressourceforbrug.

  • Standardporten 11434 er den mest almindeligt anvendte, og de fleste instanser eksponerer tjenester via HTTP-protokollen.

3. Datakilder og Metodologi

Dataene til denne rapport stammer primært fra to faser:

  1. Indledende Scanning: Brug af netværksrums-søgemaskiner som Fofa, med betingelsen app="Ollama" && is_domain=false, til indledningsvist at identificere potentielle Ollama-instanser implementeret globalt. Denne fase fandt 174.590 poster, der involverede 99.412 unikke IP-adresser efter deduplikering.

  2. API-verifikation og Databerigelse: Probing af ip:port/api/tags API-endepunktet for de indledningsvist scannede IP-adresser for at bekræfte tilgængeligheden af Ollama-tjenester og indhente information om de specifikke AI-modeller, der er implementeret. Denne fase bekræftede 41.021 succesfuldt responderende Ollama-instanser (fra 24.038 unikke IP-adresser, med data gemt i ollama-tabellen).

  3. De endelige data gemmes i ollama-tabellen.

Analysen i denne rapport er primært baseret på data fra ollama-tabellen, som indeholder poster for succesfuldt probede API'er og deres detaljerede information, herunder IP, port, geografisk placering og JSON-svar (indeholdende modellisten), osv.

4. Overordnede Implementeringsstatistikker

  • Antal indledende poster fra Fofa-scanning: 174.590

  • Antal unikke IP-adresser fra Fofa indledende scanning: 99.412

  • Antal Ollama-instanser med succesfuld adgang til /api/tags: 41.021 (fra poster hvor status = 'success' i ollama-tabellen)

  • Antal tilsvarende unikke IP-adresser: 24.038 (fra poster hvor status = 'success' i ollama-tabellen)

  • Forholdet mellem tilgængelige IP-adresser og indledningsvist identificerede IP-adresser: (24038 / 99412) * 100% ≈ 24,18%

Dette indikerer, at blandt alle Ollama-instanser identificeret via Fofa, har cirka en fjerdedel deres /api/tags-interface offentligt tilgængeligt, hvilket giver os mulighed for at hente information om deres implementerede modeller.

5. Analyse af Geografisk Fordeling

5.1 Top 20 Lande/Regioner med Implementeringer

Nedenstående tabel viser de 20 lande/regioner rangeret efter antallet af unikke IP-adresser med Ollama-instanser.

Rang

Land/Region

Antal Unikke IP'er

1

USA

29195

2

Kina

16464

3

Japan

5849

4

Tyskland

5438

5

Storbritannien

4014

6

Indien

3939

7

Singapore

3914

8

Sydkorea

3773

9

Irland

3636

10

Frankrig

3599

11

Australien

3558

12

Brasilien

2909

13

Canada

2763

14

Sydafrika

2742

15

Sverige

2113

16

Hong Kong SAR, Kina

1277

17

Israel

675

18

Taiwan, Kina

513

19

Rusland

475

20

Finland

308

Ollama Top 20 Lande/Regioner med Implementeringer

5.2 Top 20 Globale Byimplementeringer

Nedenstående tabel viser de 20 byer på verdensplan rangeret efter antallet af unikke IP-adresser med Ollama-instanser.

Rang

By

Land/Region

Antal Unikke IP'er

1

Ashburn

USA

5808

2

Portland

USA

5130

3

Singapore

Singapore

3914

4

Frankfurt am Main

Tyskland

3908

5

Beijing

Kina

3906

6

London

Storbritannien

3685

7

Columbus

USA

3672

8

Mumbai

Indien

3637

9

Dublin

Irland

3631

10

Tokyo

Japan

3620

11

Sydney

Australien

3487

12

Paris

Frankrig

3175

13

San Jose

USA

2815

14

Sao Paulo

Brasilien

2753

15

Cape Town

Sydafrika

2692

16

Montreal

Canada

2535

17

Seattle

USA

2534

18

Hangzhou

Kina

2447

19

Seoul

Sydkorea

2327

20

Osaka

Japan

2184

5.3 Top 10 Fordeling i Amerikanske Byer

Rang

By

Antal Unikke IP'er

1

Ashburn

5808

2

Portland

5130

3

Columbus

3672

4

San Jose

2815

5

Seattle

2534

6

Westlake Village

1714

7

Boardman

855

8

Florence

776

9

San Francisco

753

10

Boulder

642

Ollama Top 10 Fordeling i Amerikanske Byer

5.4 Top 10 Fordeling i Byer på Kinas Fastland

Implementeringer i Hong Kong og Taiwan afspejles ikke i Top 10 bytabellen, da de allerede er inkluderet i land/region statistikkerne.

Rang

By

Land (country_name)

Antal Unikke IP'er

1

Beijing

Kina

3906

2

Hangzhou

Kina

2447

3

Shanghai

Kina

1335

4

Guangzhou

Kina

1296

5

Shenzhen

Kina

768

6

Chengdu

Kina

469

7

Nanjing

Kina

329

8

Chongqing

Kina

259

9

Suzhou

Kina

257

10

Wuhan

Kina

249

Ollama Top 20 Globale Byimplementeringer (Bemærk: Billedet er sandsynligvis til Top 10 Kinesiske Byer)

5.5 Sammenligning af Top 10 Byimplementeringer i USA og Kina

For mere intuitivt at sammenligne Ollama-implementeringer på byniveau i USA og Kina, sammenstiller nedenstående tabel antallet af unikke IP-implementeringer for de 10 største byer i begge lande:

Rang

Amerikansk By (Top 10)

Antal Unikke IP'er (USA)

Kinesisk By (Top 10)

Antal Unikke IP'er (Kina)

1

Ashburn

5808

Beijing

3906

2

Portland

5130

Hangzhou

2447

3

Columbus

3672

Shanghai

1335

4

San Jose

2815

Guangzhou

1296

5

Seattle

2534

Shenzhen

768

6

Westlake Village

1714

Chengdu

469

7

Boardman

855

Nanjing

329

8

Florence

776

Chongqing

259

9

San Francisco

753

Suzhou

257

10

Boulder

642

Wuhan

249

Ollama Sammenligning af Top 10 Byimplementeringer i USA og Kina

Kortfattet Kommentar:

  • Førende Byvolumen: De 3 største amerikanske byer (Ashburn, Portland, Columbus) har hver over 3.000 unikke IP-adresser med Ollama-implementeringer. Kinas største by (Beijing) har over 3.000 implementeringer, og dens næststørste by (Hangzhou) har over 2.000.

  • Teknologi- og Økonomiske Centre: Mange af de listede byer i begge lande er velkendte teknologiske innovationscentre eller vigtige økonomiske regioner.

  • Datacenterregioner: Inkluderingen af amerikanske byer som Ashburn afspejler også, at Ollama-instanser i vid udstrækning kan være implementeret i cloud-servere og datacentre.

  • Fordelingsforskelle: Samlet set er det totale antal IP-adresser i de 10 største amerikanske byer betydeligt højere end i Kinas 10 største byer. Begge lande viser dog et mønster, hvor nogle få kernebyer står for langt størstedelen af Ollama-implementeringerne.

Denne sammenligning på byniveau afslører yderligere, at promoveringen og anvendelsen af Ollama, som et udviklerværktøj, er tæt forbundet med regionale teknologiske økosystemer og industriel udvikling.

6. Modelanalyse

6.1 Kortfattet Overblik over AI-modeller, Parametre og Kvantisering

Ollama understøtter en række open source store sprogmodeller. Disse modeller skelnes typisk ved følgende funktioner:

6.1.1 Almindelige Model-familier

Det nuværende open source-fællesskab har set en stigning i fremragende LLM-familier, hver med sine egne karakteristika:

  • Llama Serien (Meta AI): Såsom Llama 2, Llama 3, Code Llama. Kendt for sine kraftfulde generelle kapabiliteter og omfattende fællesskabsstøtte, hvilket fører til talrige finjusterede versioner. Modeller som llama3.1, hermes3 set i vores data er ofte baseret på Llama-arkitekturen.

  • Mistral Serien (Mistral AI): Såsom Mistral 7B, Mixtral 8x7B. Vinder opmærksomhed for effektivitet og høj ydeevne, især dens MoE (Mixture of Experts) modeller.

  • Gemma Serien (Google): Såsom Gemma 2B, Gemma 7B. Open-weight modeller udgivet af Google, med teknologi afledt af deres mere kraftfulde Gemini-modeller.

  • Phi Serien (Microsoft): Såsom Phi-2, Phi-3. Fokuserer på små, men kapable modeller, med vægt på "SLM'er (Små Sprogmodeller)".

  • DeepSeek Serien (DeepSeek AI): Såsom DeepSeek Coder, DeepSeek LLM. Kinesiske AI-modeller, der excellerer i kodning og generelle opgaver.

  • Qwen Serien (Alibaba Tongyi Qianwen): Såsom Qwen1.5. En serie af modeller lanceret af Alibaba DAMO Academy, der understøtter flere sprog og opgaver.

  • Der er mange andre fremragende modeller, såsom Yi (01.AI), Command R (Cohere), osv.

Ollama, via sin Modelfile-mekanisme, giver brugerne mulighed for nemt at bruge disse basismodeller eller deres finjusterede versioner. Modelnavne følger ofte formatet familie:størrelse-variant-kvantisering, for eksempel llama3:8b-instruct-q4_K_M.

6.1.2 Modelparametre (Parameterstørrelse)

Antallet af modelparametre (normalt i B - Milliarder; eller M - Millioner) er en vigtig indikator for en models skala og potentielle kapabilitet. Almindelige parameterstørrelser inkluderer:

  • Små Modeller: < 7B (f.eks. 1.5B, 2B, 3B). Kører normalt hurtigt med lavt ressourceforbrug, velegnet til specifikke opgaver eller ressourcebegrænsede miljøer.

  • Mellemstore Modeller: 7B, 8B, 13B. Opnår en god balance mellem kapabilitet og ressourceforbrug, aktuelt en af de mest populære størrelser i fællesskabet.

  • Store Modeller: 30B, 33B, 40B, 70B+. Generelt mere kapable, men kræver også flere beregningsressourcer (RAM, VRAM) og længere inferenstider.

parameter_size-feltet i vores data (f.eks. "8.0B", "7B", "134.52M") indikerer dette.

6.1.3 Kvantiseringsversioner (Kvantiseringsniveau)

Kvantisering er en teknik til at reducere modelstørrelse og accelerere inferens ved at sænke den numeriske præcision af modelvægte (f.eks. fra 16-bit flydende kommatal FP16 til 4-bit heltal INT4).

  • Almindelige Kvantiseringsniveauer: Ollama og GGUF-formatet (brugt af Llama.cpp) understøtter forskellige kvantiseringsstrategier, såsom Q2_K, Q3_K_S, Q3_K_M, Q3_K_L, Q4_0, Q4_K_M, Q5_K_M, Q6_K, Q8_0, osv.

    • Tallet (f.eks. 2, 3, 4, 5, 6, 8) angiver groft sagt antallet af bits.

    • K-serie kvantisering (f.eks. Q4_K_M) er forbedrede kvantiseringsmetoder introduceret i llama.cpp, der generelt opnår bedre ydeevne ved samme bitantal.

    • _S, _M, _L betegner normalt forskellige varianter af K-kvant, der påvirker forskellige dele af modellen.

    • F16 (FP16) repræsenterer 16-bit flydende kommatal, ofte betragtet som ikke-kvantiseret eller en basis kvantiseringsversion. F32 (FP32) er fuld præcision.

  • Afvejning: Højere kvantisering (lavere bitantal) resulterer i mindre, hurtigere modeller, men kommer normalt med et vist ydeevnetab (modellen klarer sig dårligere). Brugere skal vælge baseret på deres hardware og krav til modelkvalitet.

quantization_level-feltet i vores data (f.eks. "Q4_K_M", "F16") indikerer dette.

6.2 Top Populære Modelnavne

Nedenstående tabel viser de 10 mest populære model-tags rangeret efter antallet af unikke IP-implementeringer, inklusive deres familie, parameterstørrelse og kvantiseringsniveauinformation.

Rang

Modelnavn (model_name)

Unikke IP-implementeringer

Samlet Antal Implementeringsinstanser

1

llama3:latest

12659

24628

2

deepseek-r1:latest

12572

24578

3

mistral:latest

11163

22638

4

qwen:latest

9868

21007

5

llama3:8b-text-q4_K_S

9845

20980

6

smollm2:135m

4058

5016

7

llama2:latest

3124

3928

8

hermes3:8b

2856

3372

9

llama3.1:8b

2714

3321

10

qwen2.5:1.5b

2668

3391

Ollama Top Populære Modelnavne

(Bemærk: Unikke IP-implementeringer refererer til antallet af unikke IP-adresser, der har implementeret mindst én instans af dette model-tag. Samlet Antal Implementeringsinstanser refererer til det samlede antal gange, dette model-tag optræder i models-listen på tværs af alle IP-adresser. En IP-adresse kan pege på det samme model-tag flere gange via forskellige midler eller poster, eller en IP-adresse kan køre flere instanser af forskellige tags, der tilhører den samme grundmodel.)

Indledende Observationer (Populære Modelnavne):

  • Modeller med :latest-tagget er meget almindelige, såsom llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest. Dette indikerer, at mange brugere foretrækker at hente den seneste version af modeller direkte.

  • Llama-seriens modeller (f.eks. llama3:latest, llama3:8b-text-q4_K_S, llama2:latest, llama3.1:8b) indtager flere pladser, hvilket viser deres stærke popularitet.

  • Kinesiske AI-modeller som deepseek-r1:latest (DeepSeek-serien) og qwen:latest (Tongyi Qianwen-serien) klarer sig også imponerende og rangerer højt.

  • Specifikke kvantiserede versioner som llama3:8b-text-q4_K_S nåede også top ti, hvilket indikerer brugerpræference for specifikke balance mellem ydeevne/ressourceforbrug.

  • Små modeller som smollm2:135m og qwen2.5:1.5b har også et betydeligt antal implementeringer, hvilket imødekommer efterspørgslen efter letvægtsmodeller.

6.3 Top Model-familier

Model-familie (details.family-feltet) repræsenterer modellens basisarkitektur eller primære teknologiske afstamning. Nedenfor er de model-familier med et højere antal implementeringer baseret på vores dataanalyse:

Rang

Model-familie (family)

Unikke IP-implementeringer (Estimeret)

Samlet Antal Implementeringsinstanser (Estimeret)

1

llama

~20250

~103480

2

qwen2

~17881

~61452

3

nomic-bert

~1479

~1714

4

gemma3

~1363

~2493

5

bert

~1228

~2217

6

mllama

~943

~1455

7

gemma

~596

~750

8

deepseek2

~484

~761

9

phi3

~368

~732

10

gemma2

~244

~680

Ollama Top Model-familier

(Bemærk: De specifikke værdier her er estimerede og opsummeret baseret på den tidligere forespurgte Top 50 modeldetaljeliste og kan afvige en smule fra præcise globale statistikker, men tendensen er repræsentativ.)

Indledende Observationer (Populære Model-familier):

  • llama-familien indtager en absolut dominerende position, hvilket er i overensstemmelse med, at Llama-seriens modeller er grundlaget for mange moderne open source LLM'er og deres egen udbredte anvendelse. Dets enorme økosystem og talrige finjusterede versioner gør det til det mest populære valg.

  • qwen2 (Tongyi Qianwen Qwen2-serien), som den næststørste familie, viser sin stærke konkurrenceevne i Kina og endda globalt.

  • Fremkomsten af nomic-bert og bert er bemærkelsesværdig. Selvom de typisk ikke betragtes som "store sprogmodeller" (konversationelle), men snarere tekst-indlejrings- eller andre basismodeller til naturlig sprogbehandling, antyder deres høje implementeringsvolumen, at Ollama også bruges i vid udstrækning til sådanne opgaver. Ollama downloader automatisk en standard indlejringsmodel (f.eks. nomic-embed-text), når den udfører visse operationer (som at generere indlejringsvektorer), hvilket sandsynligvis er hovedårsagen til, at disse familier rangerer højt.

  • Googles gemma-serie (inklusive gemma3, gemma, gemma2) viser også anstændige adoptionsrater.

  • Andre velkendte model-familier som deepseek2 og phi3 nåede også top ti.

  • mllama kan repræsentere en samling af forskellige Llama-baserede hybride, modificerede eller fællesskabsnavngivne modeller.

6.4 Top Statistik for Original Parameterstørrelse

Modelparameterstørrelse (details.parameter_size-feltet) er en vigtig indikator for modelskala. På grund af de varierede repræsentationer af parameterstørrelser i rådataene (f.eks. "8.0B", "7B", "134.52M"), tæller vi direkte disse originale strenge. Nedenfor er de parameterstørrelsesrepræsentationer med et højere antal implementeringer:

Rang

Parameterstørrelse (Original Streng)

Unikke IP-implementeringer (Estimeret)

Samlet Antal Implementeringsinstanser (Estimeret)

1

8.0B

~14480

~52577

2

7.6B

~14358

~28105

3

7.2B

~11233

~22907

4

4B

~9895

~21058

5

7B

~4943

~11738

6

134.52M

~4062

~5266

7

1.5B

~2759

~3596

8

13B

~2477

~3311

9

1.8B

~2034

~2476

10

3.2B

~1553

~2244

11

137M

~1477

~1708

12

12.2B

~1421

~2000

13

32.8B

~1254

~2840

14

14.8B

~1123

~2091

15

4.3B

~943

~1194

Ollama Top Statistik for Original Parameterstørrelse

(Bemærk: Værdier er estimerede baseret på en opsummering af parameterinformation fra den tidligere forespurgte Top 50 modeldetaljeliste.)

Indledende Observationer (Populære Parameterstørrelser):

  • Modeller i 7B til 8B skalaen er den absolutte mainstream: "8.0B", "7.6B", "7.2B", "7B" optager langt størstedelen af implementeringerne. Dette svarer typisk til meget populære modeller i fællesskabet, såsom Llama 2/3 7B/8B-serien, Mistral 7B og deres forskellige finjusterede versioner. De rammer en god balance mellem ydeevne og ressourceforbrug.

  • 4B-skala modeller indtager også en vigtig position: Den høje implementering af "4B" er bemærkelsesværdig.

  • Letvægtsmodeller på million-parameterniveau (M) er udbredte: Den høje rangering af "134.52M" og "137M" er sandsynligvis relateret til populariteten af indlejringsmodeller (som nomic-embed-text) eller meget små specialiserede modeller (som smollm-serien). Disse modeller er små, hurtige og velegnede til ressourcebegrænsede eller latensfølsomme scenarier.

  • Stabil efterspørgsel efter små modeller i 1B-4B området: Modeller med parameterstørrelser som "1.5B", "1.8B", "3.2B", "4.3B" foretrækkes også af en del af brugerne.

  • Store modeller over 10B: Såsom "13B", "12.2B", "32.8B", "14.8B", selvom de ikke har lige så mange unikke IP-implementeringer som 7-8B niveauet, har de stadig et betydeligt implementeringsvolumen, hvilket indikerer en fællesskabsefterspørgsel efter mere kapable modeller, på trods af deres højere hardwarekrav.

6.5 Top Statistik for Kvantiseringsniveau

Modelkvantiseringsniveau (details.quantization_level-feltet) afspejler den vægtpræcision, modellen anvender for at reducere størrelse og accelerere inferens. Nedenfor er de kvantiseringsniveauer med et højere antal implementeringer:

Rang

Kvantiseringsniveau (Original Streng)

Unikke IP-implementeringer (Estimeret)

Samlet Antal Implementeringsinstanser (Estimeret)

1

Q4_K_M

~20966

~53688

2

Q4_0

~18385

~88653

3

Q4_K_S

~9860

~21028

4

F16

~5793

~9837

5

Q8_0

~596

~1574

6

unknown

~266

~1318

7

Q5_K_M

~97

~283

8

F32

~85

~100

9

Q6_K

~60

~178

10

Q2_K

~54

~140

Ollama Top Statistik for Kvantiseringsniveau

(Bemærk: Værdier er estimerede baseret på en opsummering af kvantiseringsinformation fra den tidligere forespurgte Top 50 modeldetaljeliste.)

Indledende Observationer (Populære Kvantiseringsniveauer):

  • 4-bit kvantisering er den dominerende løsning: Q4_K_M, Q4_0 og Q4_K_S, disse tre 4-bit kvantiseringsniveauer, topper absolut listerne. Dette indikerer tydeligt, at fællesskabet i vid udstrækning anvender 4-bit kvantisering som den foretrukne løsning for at opnå den bedste balance mellem model ydeevne, inferenshastighed og ressourcebeslaglæggelse (især VRAM).

  • F16 (16-bit flydende kommatal) har stadig en betydelig plads: Som en ikke-kvantiseret (eller kun grundlæggende kvantiseret) version viser den høje implementering af F16, at et betydeligt antal brugere vælger det for at forfølge den højeste modelfidelitet, eller fordi de har tilstrækkelige hardware-ressourcer.

  • Q8_0 (8-bit kvantisering) som et supplement: Giver en mulighed mellem 4-bit og F16.

  • Fremkomst af unknown-værdier: Indikerer, at information om kvantiseringsniveau mangler eller er ikke-standard i nogle modelmetadata.

6.6 Fordeling af AI-computerkraft (efter Modelparameterstørrelse): Kina vs. USA

For at få en dybere forståelse af, hvordan modeller af forskellig skala implementeres i større lande, kategoriserede og talte vi parameterstørrelserne for modeller implementeret på Ollama-instanser i USA og Kina. Parameterstørrelse betragtes ofte som en vigtig indikator for modelkompleksitet og potentiel efterspørgsel på AI-computerkraft.

Klassifikationsstandard for Parameterskala:

  • Lille: < 1 Milliard parametre (< 1B)

  • Mellem: 1 Milliard til < 10 Milliarder parametre (1B til < 10B)

  • Stor: 10 Milliarder til < 50 Milliarder parametre (10B til < 50B)

  • Ekstra Stor: >= 50 Milliarder parametre (>= 50B)

Nedenstående tabel viser antallet af unikke IP-adresser, der implementerer modeller af forskellig parameterskala i USA og Kina:

Land

Parameterskala Kategori

Antal Unikke IP'er

Kina

Lille (<1B)

3313

Kina

Mellem (1B til <10B)

4481

Kina

Stor (10B til <50B)

1548

Kina

Ekstra Stor (>=50B)

280

USA

Lille (<1B)

1368

USA

Mellem (1B til <10B)

6495

USA

Stor (10B til <50B)

1301

USA

Ekstra Stor (>=50B)

58

Nedenstående tabel viser antallet af unikke IP-adresser, der implementerer modeller af forskellig parameterskala i USA og Kina

Dataindsigt og Analyse:

  1. Mellemstore modeller er mainstream, men med forskellige fokusområder:

    • USA: Implementeringer af mellemstore modeller (1B-10B) er absolut dominerende i USA (6495 unikke IP-adresser).

    • Kina: Mellemstore modeller (4481 unikke IP-adresser) er også den mest implementerede type i Kina, men implementeringen af små modeller (<1B) i Kina (3313 unikke IP-adresser) er meget betydelig.

  2. Betydelig forskel i små modeller: Kinas storstilede implementering af små modeller kan afspejle en præference for edge computing, mobile AI-applikationer og lignende scenarier.

  3. Implementering af store og ekstra store modeller: Kina viser højere aktivitet i udforskningen af store og ekstra store modeller (omend fra en mindre base).

  4. Implikationer for samlet investering i computerkraft: USA's base i mellemstore modeller viser udbredelsen af praktiske AI-applikationer. Kina har en fordel i små modeller og udforsker aktivt store modeller.

  5. Implikationer for globale tendenser: Mellemstore modeller er sandsynligvis populære globalt. Forskellige regioner kan have varierende modeladoptionsstrategier baseret på deres økosystemer og ressourceforhold.

Ved at segmentere modelparameterstørrelserne i Kina og USA kan vi se de forskellige fokusområder og udviklingspotentialer for Ollama-applikationer i de to lande.

7. Netværksindsigt

7.1 Portbrug

  • 11434 (standardport): Langt de fleste (30.722 unikke IP-adresser) Ollama-instanser kører på standardporten 11434.

  • Andre almindelige porte: Porte som 80 (1.619 unikke IP-adresser), 8080 (1.571 unikke IP-adresser), 443 (1.339 unikke IP-adresser), osv., bruges også, hvilket kan indikere, at nogle instanser er implementeret bag en reverse proxy, eller at brugerne har tilpasset porten.

7.2 Protokolbrug

  • HTTP: Cirka 65.506 unikke IP-adresser har instanser, der serverer via HTTP-protokollen.

  • HTTPS: Cirka 43.765 unikke IP-adresser har instanser, der serverer via HTTPS-protokollen.

De fleste instanser eksponeres stadig via ukrypteret HTTP, hvilket kan udgøre visse sikkerhedsrisici. (Bemærk venligst: En IP-adresse kan understøtte både HTTP og HTTPS, så summen af IP-tællinger her kan overstige det samlede antal unikke IP-adresser)

7.3 Vigtigste Hostingudbydere (AS Organisation)

Ollama-instanshosting er stærkt koncentreret blandt cloud-tjenesteudbydere.

Rang

AS Organisation

Antal Unikke IP'er

Primær Tilknyttet Udbyder

1

AMAZON-02

53658

AWS

2

AMAZON-AES

5539

AWS

3

Chinanet

4964

China Telecom

4

Hangzhou Alibaba Advertising Co.,Ltd.

2647

Alibaba Cloud

5

HENGTONG-IDC-LLC

2391

Hostingudbyder

6

Shenzhen Tencent Computer Systems Company Limited

1682

Tencent Cloud

7

CHINA UNICOM China169 Backbone

1606

China Unicom

8

Hetzner Online GmbH

972

Hetzner

9

China Unicom Beijing Province Network

746

China Unicom (Beijing)

10

LEASEWEB-USA-LAX

735

Leaseweb

Ollama-instanshosting er stærkt koncentreret blandt cloud-tjenesteudbydere

AWS (AMAZON-02, AMAZON-AES) har den største andel, efterfulgt af store kinesiske teleoperatører og cloud-tjenesteudbydere (som Alibaba Cloud, Tencent Cloud). Andre hostingudbydere som Hetzner og Leaseweb har også betydelige andele.

8. Sikkerhed og Andre Observationer

  • Versionsoplysninger: Af sikkerhedsmæssige årsager har vi ikke listet statistikker over Ollama-versioner.

  • HTTP-eksponeringsrisiko: Som tidligere nævnt er et stort antal Ollama-instanser eksponeret via HTTP uden TLS-kryptering, hvilket kan gøre kommunikationsindhold (f.eks. interaktioner med modeller) sårbart over for aflytning eller manipulation. Brugere rådes til at konfigurere en reverse proxy og aktivere HTTPS.

  • API-tilgængelighed: Dataene i denne rapport er baseret på Ollama-instanser, hvis /api/tags-interface er offentligt tilgængeligt. Det faktiske antal implementeringer kan være højere, men nogle instanser kan være implementeret i private netværk eller have ekstern adgang begrænset af firewalls.

9. Konklusion og Kortfattet Gennemgang

Denne rapport, ved at analysere data fra 99.412 globalt offentligt tilgængelige Ollama-instanser (via deres /api/tags-interface), drager følgende hovedkonklusioner og observationer:

1. Global Implementeringsoversigt og Geografisk Fordeling:

  • Ollama, som et praktisk værktøj til at køre store modeller lokalt, er blevet bredt implementeret globalt. Denne analyse identificerede 99.412 offentligt tilgængelige unikke IP-adresser.

  • Høj Geografisk Koncentration: USA og Kina er de to lande/regioner med den mest koncentrerede Ollama-implementering, der samlet set tegner sig for en betydelig del af de samlede tilgængelige instanser (USA 29.195, Kina 16.464). Lande som Japan, Tyskland, Storbritannien, Indien og Singapore har også bemærkelsesværdige implementeringsantal.

  • By-hotspots: I USA fører byer som Ashburn, Portland og Columbus i implementeringer; i Kina er teknologisk avancerede byer som Beijing, Hangzhou, Shanghai og Guangzhou de vigtigste implementeringssteder. Dette er ofte relateret til koncentrationen af teknologivirksomheder, datacentre og udviklerfællesskaber.

2. AI-model Implementeringstendenser:

  • Populære Model-tags: Generelle seneste tags som llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest er mest populære. Specifikt optimerede versioner som llama3:8b-text-q4_K_S foretrækkes også for deres gode balance.

  • Dominerende Model-familier: llama-familien fører med en absolut margin, efterfulgt af qwen2. Den høje rangering af indlejringsmodel-familier som nomic-bert og bert er bemærkelsesværdig, muligvis relateret til Ollamas standardadfærd.

  • Præferencer for Parameterstørrelse: Modeller med 7B-8B parametre er i øjeblikket mainstream. Letvægtsmodeller på million-parameterniveau og store modeller over 10B har også deres respektive markeder. En sammenligning mellem USA og Kina viser, at USA implementerer flere mellemstore modeller, mens Kina er mere aktiv i at udforske små og ekstra store modeller.

  • Valg af Kvantiseringsniveau: 4-bit kvantisering (især Q4_K_M og Q4_0) er det overvældende valg. F16, som en mulighed med højere fidelitet, indtager også en vigtig position.

  • Metadata-kompleksitet: Analyse af modelmetadata (f.eks. fortolkning af model-familiefeltet) afslører undertiden kompleksiteter mellem dets poster og modelnavne eller almindelig forståelse, hvilket fremhæver mangfoldigheden af metadatastyring i open source-økosystemet.

3. Teknisk Infrastruktur:

  • Hosting-miljøer: Et stort antal Ollama-instanser hostes hos store cloud-tjenesteudbydere som AWS, Alibaba Cloud, Tencent Cloud, samt i netværkene hos store nationale teleoperatører.

  • Serviceporte: Ollamas standardport 11434 er den mest almindeligt anvendte, men et betydeligt antal instanser eksponeres også via standard webporte.

4. Objektiv Vurdering:

  • Ollamas Popularitet: Dataene viser tydeligt Ollamas høje adoptionsrate blandt udviklere og AI-entusiaster verden over.

  • Open Source-økosystemets Vitalitet: Mangfoldigheden af populære modeller og den udbredte brug af forskellige parameter- og kvantiseringsversioner afspejler den blomstrende udvikling af open source AI-modeløkosystemet.

  • Balance i Brugerpræferencer: Når brugere vælger modeller, har de en tendens til at søge en balance mellem modelkapabilitet, operationel effektivitet og hardwareomkostninger.

  • Sikkerhed og Åbenhed: Et stort antal instanser tillader offentlig adgang til deres modellister, hvilket, selvom det er praktisk for fællesskabet, også kan udgøre sikkerhedsrisici.

5. Fremtidsudsigter:

  • Med fremkomsten af mere effektive, mindre modeller og yderligere fremskridt inden for kvantiseringsteknologi forventes implementeringsbarrieren for Ollama at fortsætte med at falde.

  • Standardiseringen af modelmetadata og fællesskabsdelte modeller er afgørende for at forbedre økosystemets gennemsigtighed og brugervenlighed.

Sammenfattende er Ollama ved at blive en vigtig bro, der forbinder banebrydende store sprogmodeller med en bred vifte af udviklere, forskere og endda almindelige brugere. Denne dataanalyse giver værdifuld indsigt i forståelsen af dens nuværende globale implementeringsstatus og brugerpræferencer.

Kommentarer

comments.comments (0)

Please login first

Sign in