Tenthe ai directory logo
A New Perspective on the US-China AI Race: 2025 Ollama Deployment Comparison and Global AI Model Trend Insights

A New Perspective on the US-China AI Race: 2025 Ollama Deployment Comparison and Global AI Model Trend Insights

Ryan@ryan
0 Katselukerrat0 Kommentit

Ollama on suosittu avoimen lähdekoodin työkalu, joka on suunniteltu yksinkertaistamaan suurten kielimallien (LLM) ajamista, luomista ja jakamista paikallisesti. Se paketoi mallipainot, konfiguraation ja datan Modelfile-tiedoston määrittämään pakettiin ja tarjoaa API-rajapinnan näiden mallien kanssa toimimiseen. Tämä mahdollistaa kehittäjille ja tutkijoille erilaisten edistyneiden tekoälymallien helpon käyttöönoton ja kokeilun henkilökohtaisilla tietokoneilla tai palvelimilla.

1. Johdanto

Ollama on suosittu avoimen lähdekoodin työkalu, joka on suunniteltu yksinkertaistamaan suurten kielimallien (LLM) ajamista, luomista ja jakamista paikallisesti. Se paketoi mallipainot, konfiguraation ja datan Modelfile-tiedoston määrittämään pakettiin ja tarjoaa API-rajapinnan näiden mallien kanssa toimimiseen. Tämä mahdollistaa kehittäjille ja tutkijoille erilaisten edistyneiden tekoälymallien helpon käyttöönoton ja kokeilun henkilökohtaisilla tietokoneilla tai palvelimilla.

Tämän raportin tavoitteena on paljastaa käyttöönoton trendejä, mallimieltymyksiä, maantieteellistä jakautumista ja verkko-ominaisuuksia analysoimalla dataa 174 590 maailmanlaajuisesti käyttöönotetusta Ollama-instanssista.

Huomautus: Luvuissa 5 ja 7 esitetyt tilastotiedot perustuvat kaikkiin 174 590 instanssiin. Luvun 6 tiedot perustuvat saatavilla oleviin instansseihin. Turvallisuussyistä emme ole listanneet Ollama-versioiden tilastoja.

  • Tiedot päivätty: 24. huhtikuuta 2025.

  • Raportin lähde: Tenthe AI https://tenthe.com

  • Tekijä: Ryan

2. Tiivistelmä

Tämä raportti perustuu maailmanlaajuisesti julkisesti saatavilla olevien Ollama-instanssien skannaustietojen ja API-kyselyiden analyysiin. Keskeiset havainnot:

  • Maailmanlaajuisesti Fofan kautta alun perin tunnistetuista noin 174 590 tietueesta (99 412 yksilöllistä IP-osoitetta) onnistuttiin kysymään 41 021 Ollama-instanssia, joilla oli saatavilla oleva API-rajapinta. Nämä jakautuivat 24 038 yksilölliseen IP-osoitteeseen (saavutettavuusaste noin 24,18 %).

  • Maantieteellisesti Yhdysvallat ja Kiina ovat maat, joissa on eniten Ollama-käyttöönottoja. Pilvipalveluntarjoajat, erityisesti AWS, Alibaba Cloud ja Tencent Cloud, ovat Ollama-instanssien ensisijaisia isäntiä.

  • Mallien käyttöönotot osoittavat monimuotoisuutta, ja llama3-, deepseek-r1-, mistral- ja qwen-sarjojen mallit ovat laajalti suosittuja. Näistä llama3:latest ja deepseek-r1:latest ovat kaksi laajimmin käyttöönotettua mallitunnistetta.

  • 7B–8B parametrin mallit ovat käyttäjien suosituin valinta, kun taas 4-bittiset kvantisoidut mallit, kuten Q4_K_M ja Q4_0, ovat laajalti käytössä niiden hyvän suorituskyvyn ja resurssienkulutuksen tasapainon vuoksi.

  • Oletusportti 11434 on yleisimmin käytetty, ja useimmat instanssit paljastavat palvelut HTTP-protokollan kautta.

3. Tietolähteet ja metodologia

Tämän raportin tiedot tulevat pääasiassa kahdesta vaiheesta:

  1. Alustava skannaus: Käyttäen verkkotilan hakukoneita, kuten Fofaa, ehdolla app="Ollama" && is_domain=false, tunnistettiin alustavasti potentiaaliset maailmanlaajuisesti käyttöönotetut Ollama-instanssit. Tässä vaiheessa löydettiin 174 590 tietuetta, joihin sisältyi 99 412 yksilöllistä IP-osoitetta duplikaattien poiston jälkeen.

  2. API-varmennus ja tietojen rikastaminen: Kysely ip:portti/api/tags API-päätepisteeseen alustavasti skannatuille IP-osoitteille Ollama-palveluiden saatavuuden vahvistamiseksi ja tietojen saamiseksi käyttöön otetuista tekoälymalleista. Tässä vaiheessa vahvistettiin 41 021 onnistuneesti vastannutta Ollama-instanssia (peräisin 24 038 yksilöllisestä IP-osoitteesta, joiden tiedot tallennettiin ollama-tauluun).

  3. Lopulliset tiedot tallennetaan ollama-tauluun.

Tämän raportin analyysi perustuu pääasiassa ollama-taulun tietoihin, joka sisältää tietueet onnistuneesti kysytyistä API-rajapinnoista ja niiden yksityiskohtaiset tiedot, mukaan lukien IP-osoite, portti, maantieteellinen sijainti ja JSON-vastaus (joka sisältää malliluettelon) jne.

4. Käyttöönoton kokonaistilastot

  • Alustavien tietueiden määrä Fofa-skannauksesta: 174 590

  • Yksilöllisten IP-osoitteiden määrä Fofa-alustavasta skannauksesta: 99 412

  • /api/tags-rajapintaan onnistuneesti päässeiden Ollama-instanssien määrä: 41 021 (tietueista, joissa status = 'success' ollama-taulussa)

  • Vastaavien yksilöllisten IP-osoitteiden määrä: 24 038 (tietueista, joissa status = 'success' ollama-taulussa)

  • Saavutettavien IP-osoitteiden suhde alun perin tunnistettuihin IP-osoitteisiin: (24038 / 99412) * 100 % ≈ 24,18 %

Tämä osoittaa, että kaikista Fofan kautta tunnistetuista Ollama-instansseista noin neljänneksellä on /api/tags-rajapinta julkisesti saatavilla, mikä mahdollistaa tietojen hakemisen niiden käyttöön otetuista malleista.

5. Maantieteellisen jakautumisen analyysi

5.1 Käyttöönoton 20 yleisintä maata/aluetta

Alla oleva taulukko näyttää 20 yleisintä maata/aluetta Ollama-instansseja sisältävien yksilöllisten IP-osoitteiden määrän mukaan.

Sija

Maa/Alue

Uniikkien IP-osoitteiden määrä

1

Yhdysvallat

29195

2

Kiina

16464

3

Japani

5849

4

Saksa

5438

5

Iso-Britannia

4014

6

Intia

3939

7

Singapore

3914

8

Etelä-Korea

3773

9

Irlanti

3636

10

Ranska

3599

11

Australia

3558

12

Brasilia

2909

13

Kanada

2763

14

Etelä-Afrikka

2742

15

Ruotsi

2113

16

Hongkong, Kiina

1277

17

Israel

675

18

Taiwan, Kiina

513

19

Venäjä

475

20

Suomi

308

Ollaman 20 yleisintä käyttöönottoaluetta

5.2 Maailmanlaajuisen käyttöönoton 20 yleisintä kaupunkia

Alla oleva taulukko näyttää maailman 20 yleisintä kaupunkia Ollama-instansseja sisältävien yksilöllisten IP-osoitteiden määrän mukaan.

Sija

Kaupunki

Maa/Alue

Uniikkien IP-osoitteiden määrä

1

Ashburn

Yhdysvallat

5808

2

Portland

Yhdysvallat

5130

3

Singapore

Singapore

3914

4

Frankfurt am Main

Saksa

3908

5

Peking

Kiina

3906

6

Lontoo

Iso-Britannia

3685

7

Columbus

Yhdysvallat

3672

8

Mumbai

Intia

3637

9

Dublin

Irlanti

3631

10

Tokio

Japani

3620

11

Sydney

Australia

3487

12

Pariisi

Ranska

3175

13

San Jose

Yhdysvallat

2815

14

Sao Paulo

Brasilia

2753

15

Kapkaupunki

Etelä-Afrikka

2692

16

Montreal

Kanada

2535

17

Seattle

Yhdysvallat

2534

18

Hangzhou

Kiina

2447

19

Soul

Etelä-Korea

2327

20

Osaka

Japani

2184

5.3 Yhdysvaltojen 10 yleisimmän kaupungin jakautuma

Sija

Kaupunki

Uniikkien IP-osoitteiden määrä

1

Ashburn

5808

2

Portland

5130

3

Columbus

3672

4

San Jose

2815

5

Seattle

2534

6

Westlake Village

1714

7

Boardman

855

8

Florence

776

9

San Francisco

753

10

Boulder

642

Ollaman 10 yleisintä kaupunkia Yhdysvalloissa

5.4 Manner-Kiinan 10 yleisimmän kaupungin jakautuma

Hongkongin ja Taiwanin käyttöönotot eivät näy 10 yleisimmän kaupungin taulukossa, koska ne sisältyvät jo maa-/aluetilastoihin.

Sija

Kaupunki

Maa (country_name)

Uniikkien IP-osoitteiden määrä

1

Peking

Kiina

3906

2

Hangzhou

Kiina

2447

3

Shanghai

Kiina

1335

4

Kanton

Kiina

1296

5

Shenzhen

Kiina

768

6

Chengdu

Kiina

469

7

Nanjing

Kiina

329

8

Chongqing

Kiina

259

9

Suzhou

Kiina

257

10

Wuhan

Kiina

249

Ollaman 20 yleisintä kaupunkia maailmanlaajuisesti (Kuva viittaa Kiinan kaupunkeihin)

5.5 Yhdysvaltain ja Kiinan 10 yleisimmän kaupungin käyttöönottovertailu

Jotta Ollama-käyttöönottoja voitaisiin verrata intuitiivisemmin kaupunkitasolla Yhdysvalloissa ja Kiinassa, alla oleva taulukko rinnastaa yksilöllisten IP-osoitteiden käyttöönottojen määrät molempien maiden 10 yleisimmässä kaupungissa:

Sija

USA:n kaupunki (Top 10)

USA:n uniikkien IP-osoitteiden määrä

Kiinan kaupunki (Top 10)

Kiinan uniikkien IP-osoitteiden määrä

1

Ashburn

5808

Peking

3906

2

Portland

5130

Hangzhou

2447

3

Columbus

3672

Shanghai

1335

4

San Jose

2815

Kanton

1296

5

Seattle

2534

Shenzhen

768

6

Westlake Village

1714

Chengdu

469

7

Boardman

855

Nanjing

329

8

Florence

776

Chongqing

259

9

San Francisco

753

Suzhou

257

10

Boulder

642

Wuhan

249

Ollaman Yhdysvaltain ja Kiinan 10 yleisimmän kaupungin käyttöönottovertailu

Lyhyt kommentaari:

  • Johtavien kaupunkien volyymi: Yhdysvaltain kolmessa suurimmassa kaupungissa (Ashburn, Portland, Columbus) on kullakin yli 3 000 yksilöllistä IP-osoitetta, joissa on Ollama-käyttöönottoja. Kiinan suurimmassa kaupungissa (Peking) on yli 3 000 käyttöönottoa, ja sen toisessa kaupungissa (Hangzhou) yli 2 000.

  • Teknologia- ja talouskeskukset: Monet listatuista kaupungeista molemmissa maissa ovat tunnettuja teknologiainnovaatiokeskuksia tai tärkeitä talousalueita.

  • Datakeskusalueet: Yhdysvaltalaisten kaupunkien, kuten Ashburnin, mukanaolo heijastaa myös sitä, että Ollama-instanssit saattavat olla suurelta osin käytössä pilvipalvelimilla ja datakeskuksissa.

  • Jakautumiserot: Kaiken kaikkiaan IP-osoitteiden kokonaismäärä Yhdysvaltain 10 suurimmassa kaupungissa on huomattavasti suurempi kuin Kiinan 10 suurimmassa kaupungissa. Molemmissa maissa kuitenkin näkyy malli, jossa muutama ydinkaupunki vastaa valtaosasta Ollama-käyttöönotoista.

Tämä kaupunkitason vertailu paljastaa edelleen, että Ollaman, kehittäjätyökaluna, edistäminen ja soveltaminen liittyvät läheisesti alueellisiin teknologiaekosysteemeihin ja teolliseen kehitykseen.

6. Mallianalyysi

6.1 Lyhyt katsaus tekoälymalleihin, parametreihin ja kvantisointiin

Ollama tukee erilaisia avoimen lähdekoodin suuria kielimalleja. Nämä mallit erotellaan tyypillisesti seuraavien ominaisuuksien perusteella:

6.1.1 Yleiset malliperheet

Nykyisessä avoimen lähdekoodin yhteisössä on nähty erinomaisten LLM-perheiden nousu, joista kullakin on omat ominaispiirteensä:

  • Llama-sarja (Meta AI): Kuten Llama 2, Llama 3, Code Llama. Tunnetaan tehokkaista yleisominaisuuksistaan ja laajasta yhteisötuesta, mikä on johtanut lukuisiin hienosäädettyihin versioihin. Tiedoissamme nähdyt mallit, kuten llama3.1 ja hermes3, perustuvat usein Llama-arkkitehtuuriin.

  • Mistral-sarja (Mistral AI): Kuten Mistral 7B, Mixtral 8x7B. Saavuttanut huomiota tehokkuudellaan ja korkealla suorituskyvyllään, erityisesti sen MoE (Mixture of Experts) -mallit.

  • Gemma-sarja (Google): Kuten Gemma 2B, Gemma 7B. Googlen julkaisemat avoimen painon mallit, joiden teknologia on peräisin heidän tehokkaammista Gemini-malleistaan.

  • Phi-sarja (Microsoft): Kuten Phi-2, Phi-3. Keskittyy pienikokoisiin mutta kyvykkäisiin malleihin, korostaen "SLM:iä (Small Language Models)".

  • DeepSeek-sarja (DeepSeek AI): Kuten DeepSeek Coder, DeepSeek LLM. Kiinalaiset tekoälymallit, jotka kunnostautuvat koodauksessa ja yleisissä tehtävissä.

  • Qwen-sarja (Alibaba Tongyi Qianwen): Kuten Qwen1.5. Alibaba DAMO Academyn lanseeraama mallisarja, joka tukee useita kieliä ja tehtäviä.

  • On olemassa monia muita erinomaisia malleja, kuten Yi (01.AI), Command R (Cohere) jne.

Ollama, Modelfile-mekanisminsa kautta, antaa käyttäjien helposti käyttää näitä perusmalleja tai niiden hienosäädettyjä versioita. Mallien nimet noudattavat usein muotoa perhe:koko-variantti-kvantisointi, esimerkiksi llama3:8b-instruct-q4_K_M.

6.1.2 Malliparametrit (parametrien koko)

Malliparametrien määrä (yleensä B – miljardia; tai M – miljoonaa) on tärkeä indikaattori mallin mittakaavasta ja potentiaalisesta kyvykkyydestä. Yleisiä parametrikokoja ovat:

  • Pienet mallit: < 7B (esim. 1.5B, 2B, 3B). Toimivat yleensä nopeasti ja kuluttavat vähän resursseja, sopivat tiettyihin tehtäviin tai resurssirajoitettuihin ympäristöihin.

  • Keskikokoiset mallit: 7B, 8B, 13B. Saavuttavat hyvän tasapainon kyvykkyyden ja resurssienkulutuksen välillä, tällä hetkellä yksi yhteisön suosituimmista ko’oista.

  • Suuret mallit: 30B, 33B, 40B, 70B+. Yleensä kyvykkäämpiä, mutta vaativat myös enemmän laskentaresursseja (RAM, VRAM) ja pidempiä päättelyaikoja.

parameter_size-kenttä tiedoissamme (esim. "8.0B", "7B", "134.52M") osoittaa tämän.

6.1.3 Kvantisointiversiot (kvantisointitaso)

Kvantisointi on tekniikka, jolla pienennetään mallin kokoa ja nopeutetaan päättelyä laskemalla mallipainojen numeerista tarkkuutta (esim. 16-bittisestä liukuluvusta FP16 4-bittiseen kokonaislukuun INT4).

  • Yleiset kvantisointitasot: Ollama ja GGUF-muoto (käytössä Llama.cpp:ssä) tukevat erilaisia kvantisointistrategioita, kuten Q2_K, Q3_K_S, Q3_K_M, Q3_K_L, Q4_0, Q4_K_M, Q5_K_M, Q6_K, Q8_0 jne.

    • Numero (esim. 2, 3, 4, 5, 6, 8) osoittaa karkeasti bittien määrän.

    • K-sarjan kvantisointi (esim. Q4_K_M) ovat llama.cpp:ssä esiteltyjä parannettuja kvantisointimenetelmiä, jotka yleensä saavuttavat paremman suorituskyvyn samalla bittimäärällä.

    • _S, _M, _L merkitsevät yleensä K-kvanttien eri variantteja, jotka vaikuttavat mallin eri osiin.

    • F16 (FP16) edustaa 16-bittistä liukulukua, jota pidetään usein kvantisoimattomana tai perus kvantisointiversiona. F32 (FP32) on täysi tarkkuus.

  • Kompromissi: Korkeampi kvantisointi (pienempi bittimäärä) johtaa pienempiin, nopeampiin malleihin, mutta yleensä mukana tulee jonkin verran suorituskyvyn heikkenemistä (malli suoriutuu huonommin). Käyttäjien on valittava laitteistonsa ja mallin laatuvaatimusten perusteella.

quantization_level-kenttä tiedoissamme (esim. "Q4_K_M", "F16") osoittaa tämän.

6.2 Suosituimmat mallinimet

Alla oleva taulukko näyttää 10 suosituinta mallitunnistetta yksilöllisten IP-osoitteiden käyttöönottojen määrän mukaan, mukaan lukien niiden perhe, parametrikoko ja kvantisointitason tiedot.

Sija

Mallinimi (model_name)

Uniikkien IP-osoitteiden käyttöönotot

Kokonaiskäyttöönottoinstanssit

1

llama3:latest

12659

24628

2

deepseek-r1:latest

12572

24578

3

mistral:latest

11163

22638

4

qwen:latest

9868

21007

5

llama3:8b-text-q4_K_S

9845

20980

6

smollm2:135m

4058

5016

7

llama2:latest

3124

3928

8

hermes3:8b

2856

3372

9

llama3.1:8b

2714

3321

10

qwen2.5:1.5b

2668

3391

Ollaman suosituimmat mallinimet

(Huom: Uniikkien IP-osoitteiden käyttöönotot viittaa niiden yksilöllisten IP-osoitteiden määrään, jotka ovat ottaneet käyttöön vähintään yhden tämän mallitunnisteen instanssin. Kokonaiskäyttöönottoinstanssit viittaa siihen, kuinka monta kertaa tämä mallitunniste esiintyy models-luettelossa kaikissa IP-osoitteissa. Yksi IP-osoite saattaa viitata samaan mallitunnisteeseen useita kertoja eri tavoin tai tietueiden kautta, tai yksi IP-osoite saattaa ajaa useita eri tunnisteiden instansseja, jotka kuuluvat samaan perusmalliin.)

Alustavat havainnot (suositut mallinimet):

  • Mallit, joissa on :latest-tunniste, ovat hyvin yleisiä, kuten llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest. Tämä osoittaa, että monet käyttäjät haluavat hakea suoraan mallien uusimman version.

  • Llama-sarjan mallit (esim. llama3:latest, llama3:8b-text-q4_K_S, llama2:latest, llama3.1:8b) vievät useita sijoja, mikä osoittaa niiden vahvaa suosiota.

  • Kiinalaiset tekoälymallit, kuten deepseek-r1:latest (DeepSeek-sarja) ja qwen:latest (Tongyi Qianwen -sarja), suoriutuvat myös vaikuttavasti ja sijoittuvat korkealle.

  • Tietyt kvantisoidut versiot, kuten llama3:8b-text-q4_K_S, pääsivät myös kymmenen parhaan joukkoon, mikä osoittaa käyttäjien mieltymystä tiettyihin suorituskyvyn ja resurssienkulutuksen tasapainoihin.

  • Pienillä malleilla, kuten smollm2:135m ja qwen2.5:1.5b, on myös huomattava määrä käyttöönottoja, mikä vastaa kevyiden mallien kysyntään.

6.3 Suosituimmat malliperheet

Malliperhe (details.family-kenttä) edustaa mallin perusarkkitehtuuria tai ensisijaista teknologista sukulinjaa. Alla on malliperheet, joilla on analyysimme perusteella suurempi määrä käyttöönottoja:

Sija

Malliperhe (family)

Uniikkien IP-osoitteiden käyttöönotot (arvioitu)

Kokonaiskäyttöönottoinstanssit (arvioitu)

1

llama

~20250

~103480

2

qwen2

~17881

~61452

3

nomic-bert

~1479

~1714

4

gemma3

~1363

~2493

5

bert

~1228

~2217

6

mllama

~943

~1455

7

gemma

~596

~750

8

deepseek2

~484

~761

9

phi3

~368

~732

10

gemma2

~244

~680

Ollaman suosituimmat malliperheet

(Huom: Tässä esitetyt tarkat arvot ovat arvioituja ja yhteenveto aiemmin kysytyn Top 50 -mallitietojen listan perusteella, ja ne saattavat hieman poiketa tarkoista globaaleista tilastoista, mutta trendi on edustava.)

Alustavat havainnot (suositut malliperheet):

  • llama-perheellä on ehdoton hallitseva asema, mikä on yhdenmukaista sen kanssa, että Llama-sarjan mallit ovat monien nykyaikaisten avoimen lähdekoodin LLM-mallien perusta ja niitä käytetään laajalti myös sellaisenaan. Sen laaja ekosysteemi ja lukuisat hienosäädetyt versiot tekevät siitä suosituimman valinnan.

  • qwen2 (Tongyi Qianwen Qwen2 -sarja), toiseksi suurimpana perheenä, osoittaa vahvaa kilpailukykyään Kiinassa ja jopa maailmanlaajuisesti.

  • nomic-bert- ja bert-mallien esiintyminen on huomionarvoista. Vaikka niitä ei tyypillisesti pidetä "suurina kielimalleina" (keskustelevina), vaan pikemminkin tekstin upotus- tai muina luonnollisen kielen käsittelyn perusmalleina, niiden suuri käyttöönottoaste viittaa siihen, että Ollamaa käytetään laajalti myös tällaisiin tehtäviin. Ollama lataa automaattisesti oletusarvoisen upotusmallin (esim. nomic-embed-text) suorittaessaan tiettyjä toimintoja (kuten upotusvektorien generointia), mikä on todennäköisesti pääsyy näiden perheiden korkeaan sijoitukseen.

  • Googlen gemma-sarja (mukaan lukien gemma3, gemma, gemma2) osoittaa myös kohtuullista käyttöönottoastetta.

  • Muut tunnetut malliperheet, kuten deepseek2 ja phi3, pääsivät myös kymmenen parhaan joukkoon.

  • mllama saattaa edustaa kokoelmaa erilaisia Llama-pohjaisia hybridi-, muokattuja tai yhteisön nimeämiä malleja.

6.4 Alkuperäisen parametrimäärän tilastot

Mallin parametrimäärä (details.parameter_size-kenttä) on tärkeä mallin koon indikaattori. Koska parametrimäärät on esitetty raakadatoissa vaihtelevasti (esim. "8.0B", "7B", "134.52M"), laskemme suoraan nämä alkuperäiset merkkijonot. Alla on parametrimäärien esitykset, joilla on suurempi käyttöönottoaste:

Sija

Parametrimäärä (alkuperäinen merkkijono)

Uniikkien IP-osoitteiden käyttöönotot (arvioitu)

Kokonaiskäyttöönottoinstanssit (arvioitu)

1

8.0B

~14480

~52577

2

7.6B

~14358

~28105

3

7.2B

~11233

~22907

4

4B

~9895

~21058

5

7B

~4943

~11738

6

134.52M

~4062

~5266

7

1.5B

~2759

~3596

8

13B

~2477

~3311

9

1.8B

~2034

~2476

10

3.2B

~1553

~2244

11

137M

~1477

~1708

12

12.2B

~1421

~2000

13

32.8B

~1254

~2840

14

14.8B

~1123

~2091

15

4.3B

~943

~1194

Ollaman alkuperäisen parametrimäärän tilastot

(Huom: Arvot ovat arvioituja ja perustuvat aiemmin kysytyn Top 50 -mallitietojen listan parametritietojen yhteenvetoon.)

Alustavat havainnot (suositut parametrikoot):

  • 7B–8B-kokoluokan mallit ovat ehdoton valtavirta: "8.0B", "7.6B", "7.2B", "7B" kattavat valtaosan käyttöönotoista. Tämä vastaa tyypillisesti yhteisön erittäin suosittuja malleja, kuten Llama 2/3 7B/8B -sarjoja, Mistral 7B:tä ja niiden erilaisia hienosäädettyjä versioita. Ne tarjoavat hyvän tasapainon suorituskyvyn ja resurssienkulutuksen välillä.

  • 4B-kokoluokan malleilla on myös tärkeä asema: "4B":n korkea käyttöönottoaste on huomionarvoinen.

  • Miljoonaparametritason (M) kevyet mallit ovat laajalle levinneitä: "134.52M":n ja "137M":n korkea sijoitus liittyy todennäköisesti upotusmallien (kuten nomic-embed-text) tai hyvin pienten erikoismallien (kuten smollm-sarjan) suosioon. Nämä mallit ovat pieniä, nopeita ja sopivia resurssirajoitettuihin tai latenssiherkkiin skenaarioihin.

  • Vakaa kysyntä pienille 1B–4B-kokoluokan malleille: Myös malleilla, joiden parametrikoot ovat "1.5B", "1.8B", "3.2B", "4.3B", on oma käyttäjäkuntansa.

  • Suuret yli 10B:n mallit: Kuten "13B", "12.2B", "32.8B", "14.8B". Vaikka niillä ei ole yhtä paljon yksilöllisiä IP-osoitteiden käyttöönottoja kuin 7–8B-tason malleilla, niillä on silti huomattava käyttöönottoaste, mikä osoittaa yhteisön kysyntää kyvykkäämmille malleille niiden korkeammista laitteistovaatimuksista huolimatta.

6.5 Kvantisointitason tilastot

Mallin kvantisointitaso (details.quantization_level-kenttä) heijastaa mallin käyttämää painojen tarkkuutta koon pienentämiseksi ja päättelyn nopeuttamiseksi. Alla on kvantisointitasot, joilla on suurempi käyttöönottoaste:

Sija

Kvantisointitaso (alkuperäinen merkkijono)

Uniikkien IP-osoitteiden käyttöönotot (arvioitu)

Kokonaiskäyttöönottoinstanssit (arvioitu)

1

Q4_K_M

~20966

~53688

2

Q4_0

~18385

~88653

3

Q4_K_S

~9860

~21028

4

F16

~5793

~9837

5

Q8_0

~596

~1574

6

unknown

~266

~1318

7

Q5_K_M

~97

~283

8

F32

~85

~100

9

Q6_K

~60

~178

10

Q2_K

~54

~140

Ollaman kvantisointitason tilastot

(Huom: Arvot ovat arvioituja ja perustuvat aiemmin kysytyn Top 50 -mallitietojen listan kvantisointitietojen yhteenvetoon.)

Alustavat havainnot (suositut kvantisointitasot):

  • 4-bittinen kvantisointi on hallitseva ratkaisu: Q4_K_M, Q4_0 ja Q4_K_S, nämä kolme 4-bittistä kvantisointitasoa, ovat ehdottomasti listan kärjessä. Tämä osoittaa selvästi, että yhteisö on laajalti omaksunut 4-bittisen kvantisoinnin ensisijaiseksi ratkaisuksi parhaan tasapainon saavuttamiseksi mallin suorituskyvyn, päättelynopeuden ja resurssien käytön (erityisesti VRAM) välillä.

  • F16 (16-bittinen liukuluku) on edelleen merkittävässä asemassa: Kvantisoimattomana (tai vain peruskvantisoituna) versiona F16:n korkea käyttöönottoaste osoittaa, että huomattava määrä käyttäjiä valitsee sen tavoitellakseen mallin korkeinta tarkkuutta tai koska heillä on riittävät laitteistoresurssit.

  • Q8_0 (8-bittinen kvantisointi) täydennyksenä: Tarjoaa vaihtoehdon 4-bittisen ja F16:n välillä.

  • unknown-arvojen esiintyminen: Osoittaa, että kvantisointitason tiedot puuttuvat tai ovat epästandardeja joissakin mallien metatiedoissa.

6.6 Tekoälyn laskentatehon jakautuminen (mallin parametrimäärän mukaan): Kiina vs. Yhdysvallat

Saadaksemme syvemmän ymmärryksen siitä, miten erikokoisia malleja otetaan käyttöön suurimmissa maissa, luokittelimme ja laskimme Yhdysvalloissa ja Kiinassa Ollama-instansseihin otettujen mallien parametrimäärät. Parametrimäärää pidetään usein tärkeänä indikaattorina mallin monimutkaisuudesta ja potentiaalisesta tekoälyn laskentatehon tarpeesta.

Parametrien kokoluokittelustandardi:

  • Pieni: < 1 miljardi parametriä (< 1B)

  • Keskikokoinen: 1 miljardista < 10 miljardiin parametriin (1B – < 10B)

  • Suuri: 10 miljardista < 50 miljardiin parametriin (10B – < 50B)

  • Erittäin suuri: >= 50 miljardia parametriä (>= 50B)

Alla oleva taulukko näyttää niiden yksilöllisten IP-osoitteiden määrän, jotka ottavat käyttöön erikokoisia malleja Yhdysvalloissa ja Kiinassa:

Maa

Parametrien kokoluokka

Uniikkien IP-osoitteiden määrä

Kiina

Pieni (<1B)

3313

Kiina

Keskikokoinen (1B – <10B)

4481

Kiina

Suuri (10B – <50B)

1548

Kiina

Erittäin suuri (>=50B)

280

Yhdysvallat

Pieni (<1B)

1368

Yhdysvallat

Keskikokoinen (1B – <10B)

6495

Yhdysvallat

Suuri (10B – <50B)

1301

Yhdysvallat

Erittäin suuri (>=50B)

58

Alla oleva taulukko näyttää niiden yksilöllisten IP-osoitteiden määrän, jotka ottavat käyttöön erikokoisia malleja Yhdysvalloissa ja Kiinassa

Dataan perustuvat oivallukset ja analyysi:

  1. Keskikokoiset mallit ovat valtavirtaa, mutta eri painopistein:

    • Yhdysvallat: Keskikokoisten mallien (1B–10B) käyttöönotot ovat ehdottomasti hallitsevia Yhdysvalloissa (6495 yksilöllistä IP-osoitetta).

    • Kiina: Keskikokoiset mallit (4481 yksilöllistä IP-osoitetta) ovat myös yleisimmin käyttöönotettu tyyppi Kiinassa, mutta pienten mallien (<1B) käyttöönotto Kiinassa (3313 yksilöllistä IP-osoitetta) on erittäin huomattavaa.

  2. Merkittävä ero pienissä malleissa: Kiinan laajamittainen pienten mallien käyttöönotto saattaa heijastaa mieltymystä reunalaskentaan, mobiilitekoälysovelluksiin ja vastaaviin skenaarioihin.

  3. Suurten ja erittäin suurten mallien käyttöönotto: Kiina osoittaa suurempaa aktiivisuutta suurten ja erittäin suurten mallien tutkimisessa (vaikkakin pienemmästä pohjasta).

  4. Päätelmät kokonaislaskentatehoinvestoinneista: Yhdysvaltain perusta keskikokoisissa malleissa osoittaa käytännön tekoälysovellusten yleisyyden. Kiinalla on etu pienissä malleissa ja se tutkii aktiivisesti suuria malleja.

  5. Vaikutukset globaaleihin trendeihin: Keskikokoiset mallit ovat todennäköisesti suosittuja maailmanlaajuisesti. Eri alueilla voi olla vaihtelevia mallien käyttöönotto-strategioita niiden ekosysteemien ja resurssiolosuhteiden perusteella.

Segmentoimalla malliparametrien koot Kiinassa ja Yhdysvalloissa voimme nähdä Ollama-sovellusten erilaiset painopisteet ja kehityspotentiaalit näissä kahdessa maassa.

7. Verkkotiedot

7.1 Porttien käyttö

  • 11434 (oletusportti): Valtaosa (30 722 yksilöllistä IP-osoitetta) Ollama-instansseista toimii oletusportissa 11434.

  • Muut yleiset portit: Myös portteja kuten 80 (1 619 yksilöllistä IP-osoitetta), 8080 (1 571 yksilöllistä IP-osoitetta), 443 (1 339 yksilöllistä IP-osoitetta) jne. käytetään, mikä saattaa viitata siihen, että jotkin instanssit on otettu käyttöön käänteisen välityspalvelimen takana tai käyttäjät ovat mukauttaneet portin.

7.2 Protokollien käyttö

  • HTTP: Noin 65 506 yksilöllisellä IP-osoitteella on instansseja, jotka palvelevat HTTP-protokollan kautta.

  • HTTPS: Noin 43 765 yksilöllisellä IP-osoitteella on instansseja, jotka palvelevat HTTPS-protokollan kautta.

Useimmat instanssit ovat edelleen saatavilla salaamattoman HTTP-protokollan kautta, mikä voi aiheuttaa tiettyjä turvallisuusriskejä. (Huomaa: Yksi IP-osoite saattaa tukea sekä HTTP- että HTTPS-protokollaa, joten IP-osoitteiden yhteenlaskettu määrä voi ylittää yksilöllisten IP-osoitteiden kokonaismäärän)

7.3 Pääasialliset hosting-palveluntarjoajat (AS-organisaatio)

Ollama-instanssien isännöinti on erittäin keskittynyttä pilvipalveluntarjoajille.

Sija

AS-organisaatio

Uniikkien IP-osoitteiden määrä

Pääasiallinen palveluntarjoaja

1

AMAZON-02

53658

AWS

2

AMAZON-AES

5539

AWS

3

Chinanet

4964

China Telecom

4

Hangzhou Alibaba Advertising Co.,Ltd.

2647

Alibaba Cloud

5

HENGTONG-IDC-LLC

2391

Hosting Provider

6

Shenzhen Tencent Computer Systems Company Limited

1682

Tencent Cloud

7

CHINA UNICOM China169 Backbone

1606

China Unicom

8

Hetzner Online GmbH

972

Hetzner

9

China Unicom Beijing Province Network

746

China Unicom (Peking)

10

LEASEWEB-USA-LAX

735

Leaseweb

Ollama-instanssien isännöinti on erittäin keskittynyttä pilvipalveluntarjoajille

AWS (AMAZON-02, AMAZON-AES) omistaa suurimman osuuden, ja sitä seuraavat suuret kiinalaiset teleoperaattorit ja pilvipalveluntarjoajat (kuten Alibaba Cloud, Tencent Cloud). Myös muilla hosting-palveluntarjoajilla, kuten Hetznerillä ja Leasewebillä, on merkittäviä osuuksia.

8. Turvallisuus ja muut huomiot

  • Versiotiedot: Turvallisuussyistä emme ole listanneet Ollama-versioiden tilastoja.

  • HTTP-altistumisriski: Kuten aiemmin mainittiin, suuri määrä Ollama-instansseja on saatavilla HTTP:n kautta ilman TLS-salausta, mikä voi tehdä viestintäsisällöstä (esim. vuorovaikutus mallien kanssa) alttiin salakuuntelulle tai peukaloinnille. Käyttäjiä kehotetaan konfiguroimaan käänteinen välityspalvelin ja ottamaan HTTPS käyttöön.

  • API-saatavuus: Tämän raportin tiedot perustuvat Ollama-instansseihin, joiden /api/tags-rajapinta on julkisesti saatavilla. Todellinen käyttöönottojen määrä voi olla suurempi, mutta jotkin instanssit saattavat olla käytössä yksityisissä verkoissa tai niiden ulkoinen pääsy voi olla rajoitettu palomuureilla.

9. Johtopäätökset ja lyhyt katsaus

Tämä raportti, analysoimalla tietoja 99 412 maailmanlaajuisesti julkisesti saatavilla olevasta Ollama-instanssista (niiden /api/tags-rajapinnan kautta), tekee seuraavat pääasialliset johtopäätökset ja havainnot:

1. Maailmanlaajuinen käyttöönoton yleiskatsaus ja maantieteellinen jakautuminen:

  • Ollama, kätevänä työkaluna suurten mallien paikalliseen ajamiseen, on otettu laajalti käyttöön maailmanlaajuisesti. Tämä analyysi tunnisti 99 412 julkisesti saatavilla olevaa yksilöllistä IP-osoitetta.

  • Korkea maantieteellinen keskittyminen: Yhdysvallat ja Kiina ovat kaksi maata/aluetta, joissa Ollama-käyttöönotot ovat keskittyneimpiä, kattaen yhdessä merkittävän osan kaikista saatavilla olevista instansseista (USA 29 195, Kiina 16 464). Myös maissa kuten Japani, Saksa, Iso-Britannia, Intia ja Singapore on huomattava määrä käyttöönottoja.

  • Kaupunkien keskittymät: Yhdysvalloissa kaupungit kuten Ashburn, Portland ja Columbus johtavat käyttöönotoissa; Kiinassa teknologisesti edistyneet kaupungit kuten Peking, Hangzhou, Shanghai ja Kanton ovat pääasiallisia käyttöönotto-sijainteja. Tämä liittyy usein teknologiayritysten, datakeskusten ja kehittäjäyhteisöjen keskittymiseen.

2. Tekoälymallien käyttöönoton trendit:

  • Suositut mallitunnisteet: Yleiset uusimmat tunnisteet, kuten llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest, ovat suosituimpia. Erityisesti optimoidut versiot, kuten llama3:8b-text-q4_K_S, ovat myös suosittuja hyvän tasapainonsa ansiosta.

  • Hallitsevat malliperheet: llama-perhe johtaa ylivoimaisesti, ja sitä seuraa qwen2. Upotusmalliperheiden, kuten nomic-bert ja bert, korkea sijoitus on huomionarvoinen, mahdollisesti liittyen Ollaman oletuskäyttäytymiseen.

  • Parametrikokojen mieltymykset: 7B–8B parametrin mallit ovat tällä hetkellä valtavirtaa. Myös miljoonaparametritason kevyillä malleilla ja yli 10B:n suurilla malleilla on omat markkinansa. Yhdysvaltain ja Kiinan vertailu osoittaa, että Yhdysvallat ottaa käyttöön enemmän keskikokoisia malleja, kun taas Kiina on aktiivisempi pienten ja erittäin suurten mallien tutkimisessa.

  • Kvantisointitason valinnat: 4-bittinen kvantisointi (erityisesti Q4_K_M ja Q4_0) on ylivoimainen valinta. F16, korkeamman tarkkuuden vaihtoehtona, on myös tärkeässä asemassa.

  • Metadatan monimutkaisuus: Mallimetadatan analyysi (esim. malliperhekentän tulkinta) paljastaa joskus monimutkaisuuksia sen tietueiden ja mallinimien tai yleisen ymmärryksen välillä, korostaen metadatan hallinnan monimuotoisuutta avoimen lähdekoodin ekosysteemissä.

3. Tekninen infrastruktuuri:

  • Isännöintiympäristöt: Suuri määrä Ollama-instansseja isännöidään suurilla pilvipalveluntarjoajilla, kuten AWS, Alibaba Cloud, Tencent Cloud, sekä suurten kansallisten teleoperaattoreiden verkoissa.

  • Palveluportit: Ollaman oletusportti 11434 on yleisimmin käytetty, mutta huomattava määrä instansseja on myös saatavilla standardien verkkoporttien kautta.

4. Objektiivinen arviointi:

  • Ollaman suosio: Tiedot osoittavat selvästi Ollaman korkean käyttöönottoasteen kehittäjien ja tekoälyharrastajien keskuudessa maailmanlaajuisesti.

  • Avoimen lähdekoodin ekosysteemin elinvoimaisuus: Suosittujen mallien monimuotoisuus ja erilaisten parametri- ja kvantisointiversioiden laaja käyttö heijastavat avoimen lähdekoodin tekoälymalliekosysteemin kukoistavaa kehitystä.

  • Tasapaino käyttäjien mieltymyksissä: Malleja valitessaan käyttäjät pyrkivät löytämään tasapainon mallin kyvykkyyden, toiminnan tehokkuuden ja laitteistokustannusten välillä.

  • Turvallisuus ja avoimuus: Suuri määrä instansseja sallii julkisen pääsyn malliluetteloihinsa, mikä, vaikka onkin kätevää yhteisölle, saattaa myös aiheuttaa turvallisuusriskejä.

5. Tulevaisuudennäkymät:

  • Tehokkaampien, pienempien mallien ilmaantumisen ja kvantisointiteknologian jatkuvan kehityksen myötä Ollaman käyttöönoton esteen odotetaan edelleen madaltuvan.

  • Mallimetadatan ja yhteisön jakamien mallien standardointi on ratkaisevan tärkeää ekosysteemin läpinäkyvyyden ja käytettävyyden parantamiseksi.

Yhteenvetona voidaan todeta, että Ollamasta on tulossa tärkeä silta, joka yhdistää huippuluokan suuret kielimallit laajaan joukkoon kehittäjiä, tutkijoita ja jopa tavallisia käyttäjiä. Tämä data-analyysi tarjoaa arvokkaita näkemyksiä sen nykyisen maailmanlaajuisen käyttöönoton tilan ja käyttäjien mieltymysten ymmärtämiseen.

Kommentit

comments.comments (0)

Please login first

Sign in