
A New Perspective on the US-China AI Race: 2025 Ollama Deployment Comparison and Global AI Model Trend Insights
Ollama on suosittu avoimen lähdekoodin työkalu, joka on suunniteltu yksinkertaistamaan suurten kielimallien (LLM) ajamista, luomista ja jakamista paikallisesti. Se paketoi mallipainot, konfiguraation ja datan Modelfile-tiedoston määrittämään pakettiin ja tarjoaa API-rajapinnan näiden mallien kanssa toimimiseen. Tämä mahdollistaa kehittäjille ja tutkijoille erilaisten edistyneiden tekoälymallien helpon käyttöönoton ja kokeilun henkilökohtaisilla tietokoneilla tai palvelimilla.
1. Johdanto
Ollama on suosittu avoimen lähdekoodin työkalu, joka on suunniteltu yksinkertaistamaan suurten kielimallien (LLM) ajamista, luomista ja jakamista paikallisesti. Se paketoi mallipainot, konfiguraation ja datan Modelfile-tiedoston määrittämään pakettiin ja tarjoaa API-rajapinnan näiden mallien kanssa toimimiseen. Tämä mahdollistaa kehittäjille ja tutkijoille erilaisten edistyneiden tekoälymallien helpon käyttöönoton ja kokeilun henkilökohtaisilla tietokoneilla tai palvelimilla.
Tämän raportin tavoitteena on paljastaa käyttöönoton trendejä, mallimieltymyksiä, maantieteellistä jakautumista ja verkko-ominaisuuksia analysoimalla dataa 174 590 maailmanlaajuisesti käyttöönotetusta Ollama-instanssista.
Huomautus: Luvuissa 5 ja 7 esitetyt tilastotiedot perustuvat kaikkiin 174 590 instanssiin. Luvun 6 tiedot perustuvat saatavilla oleviin instansseihin. Turvallisuussyistä emme ole listanneet Ollama-versioiden tilastoja.
Tiedot päivätty: 24. huhtikuuta 2025.
Raportin lähde: Tenthe AI https://tenthe.com
Tekijä: Ryan
2. Tiivistelmä
Tämä raportti perustuu maailmanlaajuisesti julkisesti saatavilla olevien Ollama-instanssien skannaustietojen ja API-kyselyiden analyysiin. Keskeiset havainnot:
Maailmanlaajuisesti Fofan kautta alun perin tunnistetuista noin 174 590 tietueesta (99 412 yksilöllistä IP-osoitetta) onnistuttiin kysymään 41 021 Ollama-instanssia, joilla oli saatavilla oleva API-rajapinta. Nämä jakautuivat 24 038 yksilölliseen IP-osoitteeseen (saavutettavuusaste noin 24,18 %).
Maantieteellisesti Yhdysvallat ja Kiina ovat maat, joissa on eniten Ollama-käyttöönottoja. Pilvipalveluntarjoajat, erityisesti AWS, Alibaba Cloud ja Tencent Cloud, ovat Ollama-instanssien ensisijaisia isäntiä.
Mallien käyttöönotot osoittavat monimuotoisuutta, ja
llama3
-,deepseek-r1
-,mistral
- jaqwen
-sarjojen mallit ovat laajalti suosittuja. Näiställama3:latest
jadeepseek-r1:latest
ovat kaksi laajimmin käyttöönotettua mallitunnistetta.7B–8B parametrin mallit ovat käyttäjien suosituin valinta, kun taas 4-bittiset kvantisoidut mallit, kuten Q4_K_M ja Q4_0, ovat laajalti käytössä niiden hyvän suorituskyvyn ja resurssienkulutuksen tasapainon vuoksi.
Oletusportti
11434
on yleisimmin käytetty, ja useimmat instanssit paljastavat palvelut HTTP-protokollan kautta.
3. Tietolähteet ja metodologia
Tämän raportin tiedot tulevat pääasiassa kahdesta vaiheesta:
Alustava skannaus: Käyttäen verkkotilan hakukoneita, kuten Fofaa, ehdolla
app="Ollama" && is_domain=false
, tunnistettiin alustavasti potentiaaliset maailmanlaajuisesti käyttöönotetut Ollama-instanssit. Tässä vaiheessa löydettiin 174 590 tietuetta, joihin sisältyi 99 412 yksilöllistä IP-osoitetta duplikaattien poiston jälkeen.API-varmennus ja tietojen rikastaminen: Kysely
ip:portti/api/tags
API-päätepisteeseen alustavasti skannatuille IP-osoitteille Ollama-palveluiden saatavuuden vahvistamiseksi ja tietojen saamiseksi käyttöön otetuista tekoälymalleista. Tässä vaiheessa vahvistettiin 41 021 onnistuneesti vastannutta Ollama-instanssia (peräisin 24 038 yksilöllisestä IP-osoitteesta, joiden tiedot tallennettiinollama
-tauluun).Lopulliset tiedot tallennetaan
ollama
-tauluun.
Tämän raportin analyysi perustuu pääasiassa ollama
-taulun tietoihin, joka sisältää tietueet onnistuneesti kysytyistä API-rajapinnoista ja niiden yksityiskohtaiset tiedot, mukaan lukien IP-osoite, portti, maantieteellinen sijainti ja JSON-vastaus (joka sisältää malliluettelon) jne.
4. Käyttöönoton kokonaistilastot
Alustavien tietueiden määrä Fofa-skannauksesta: 174 590
Yksilöllisten IP-osoitteiden määrä Fofa-alustavasta skannauksesta: 99 412
/api/tags
-rajapintaan onnistuneesti päässeiden Ollama-instanssien määrä: 41 021 (tietueista, joissastatus = 'success'
ollama
-taulussa)Vastaavien yksilöllisten IP-osoitteiden määrä: 24 038 (tietueista, joissa
status = 'success'
ollama
-taulussa)Saavutettavien IP-osoitteiden suhde alun perin tunnistettuihin IP-osoitteisiin: (24038 / 99412) * 100 % ≈ 24,18 %
Tämä osoittaa, että kaikista Fofan kautta tunnistetuista Ollama-instansseista noin neljänneksellä on /api/tags
-rajapinta julkisesti saatavilla, mikä mahdollistaa tietojen hakemisen niiden käyttöön otetuista malleista.
5. Maantieteellisen jakautumisen analyysi
5.1 Käyttöönoton 20 yleisintä maata/aluetta
Alla oleva taulukko näyttää 20 yleisintä maata/aluetta Ollama-instansseja sisältävien yksilöllisten IP-osoitteiden määrän mukaan.
Sija | Maa/Alue | Uniikkien IP-osoitteiden määrä |
---|---|---|
1 | Yhdysvallat | 29195 |
2 | Kiina | 16464 |
3 | Japani | 5849 |
4 | Saksa | 5438 |
5 | Iso-Britannia | 4014 |
6 | Intia | 3939 |
7 | Singapore | 3914 |
8 | Etelä-Korea | 3773 |
9 | Irlanti | 3636 |
10 | Ranska | 3599 |
11 | Australia | 3558 |
12 | Brasilia | 2909 |
13 | Kanada | 2763 |
14 | Etelä-Afrikka | 2742 |
15 | Ruotsi | 2113 |
16 | Hongkong, Kiina | 1277 |
17 | Israel | 675 |
18 | Taiwan, Kiina | 513 |
19 | Venäjä | 475 |
20 | Suomi | 308 |

5.2 Maailmanlaajuisen käyttöönoton 20 yleisintä kaupunkia
Alla oleva taulukko näyttää maailman 20 yleisintä kaupunkia Ollama-instansseja sisältävien yksilöllisten IP-osoitteiden määrän mukaan.
Sija | Kaupunki | Maa/Alue | Uniikkien IP-osoitteiden määrä |
---|---|---|---|
1 | Ashburn | Yhdysvallat | 5808 |
2 | Portland | Yhdysvallat | 5130 |
3 | Singapore | Singapore | 3914 |
4 | Frankfurt am Main | Saksa | 3908 |
5 | Peking | Kiina | 3906 |
6 | Lontoo | Iso-Britannia | 3685 |
7 | Columbus | Yhdysvallat | 3672 |
8 | Mumbai | Intia | 3637 |
9 | Dublin | Irlanti | 3631 |
10 | Tokio | Japani | 3620 |
11 | Sydney | Australia | 3487 |
12 | Pariisi | Ranska | 3175 |
13 | San Jose | Yhdysvallat | 2815 |
14 | Sao Paulo | Brasilia | 2753 |
15 | Kapkaupunki | Etelä-Afrikka | 2692 |
16 | Montreal | Kanada | 2535 |
17 | Seattle | Yhdysvallat | 2534 |
18 | Hangzhou | Kiina | 2447 |
19 | Soul | Etelä-Korea | 2327 |
20 | Osaka | Japani | 2184 |
5.3 Yhdysvaltojen 10 yleisimmän kaupungin jakautuma
Sija | Kaupunki | Uniikkien IP-osoitteiden määrä |
---|---|---|
1 | Ashburn | 5808 |
2 | Portland | 5130 |
3 | Columbus | 3672 |
4 | San Jose | 2815 |
5 | Seattle | 2534 |
6 | Westlake Village | 1714 |
7 | Boardman | 855 |
8 | Florence | 776 |
9 | San Francisco | 753 |
10 | Boulder | 642 |

5.4 Manner-Kiinan 10 yleisimmän kaupungin jakautuma
Hongkongin ja Taiwanin käyttöönotot eivät näy 10 yleisimmän kaupungin taulukossa, koska ne sisältyvät jo maa-/aluetilastoihin.
Sija | Kaupunki | Maa ( | Uniikkien IP-osoitteiden määrä |
---|---|---|---|
1 | Peking | Kiina | 3906 |
2 | Hangzhou | Kiina | 2447 |
3 | Shanghai | Kiina | 1335 |
4 | Kanton | Kiina | 1296 |
5 | Shenzhen | Kiina | 768 |
6 | Chengdu | Kiina | 469 |
7 | Nanjing | Kiina | 329 |
8 | Chongqing | Kiina | 259 |
9 | Suzhou | Kiina | 257 |
10 | Wuhan | Kiina | 249 |

5.5 Yhdysvaltain ja Kiinan 10 yleisimmän kaupungin käyttöönottovertailu
Jotta Ollama-käyttöönottoja voitaisiin verrata intuitiivisemmin kaupunkitasolla Yhdysvalloissa ja Kiinassa, alla oleva taulukko rinnastaa yksilöllisten IP-osoitteiden käyttöönottojen määrät molempien maiden 10 yleisimmässä kaupungissa:
Sija | USA:n kaupunki (Top 10) | USA:n uniikkien IP-osoitteiden määrä | Kiinan kaupunki (Top 10) | Kiinan uniikkien IP-osoitteiden määrä |
---|---|---|---|---|
1 | Ashburn | 5808 | Peking | 3906 |
2 | Portland | 5130 | Hangzhou | 2447 |
3 | Columbus | 3672 | Shanghai | 1335 |
4 | San Jose | 2815 | Kanton | 1296 |
5 | Seattle | 2534 | Shenzhen | 768 |
6 | Westlake Village | 1714 | Chengdu | 469 |
7 | Boardman | 855 | Nanjing | 329 |
8 | Florence | 776 | Chongqing | 259 |
9 | San Francisco | 753 | Suzhou | 257 |
10 | Boulder | 642 | Wuhan | 249 |

Lyhyt kommentaari:
Johtavien kaupunkien volyymi: Yhdysvaltain kolmessa suurimmassa kaupungissa (Ashburn, Portland, Columbus) on kullakin yli 3 000 yksilöllistä IP-osoitetta, joissa on Ollama-käyttöönottoja. Kiinan suurimmassa kaupungissa (Peking) on yli 3 000 käyttöönottoa, ja sen toisessa kaupungissa (Hangzhou) yli 2 000.
Teknologia- ja talouskeskukset: Monet listatuista kaupungeista molemmissa maissa ovat tunnettuja teknologiainnovaatiokeskuksia tai tärkeitä talousalueita.
Datakeskusalueet: Yhdysvaltalaisten kaupunkien, kuten Ashburnin, mukanaolo heijastaa myös sitä, että Ollama-instanssit saattavat olla suurelta osin käytössä pilvipalvelimilla ja datakeskuksissa.
Jakautumiserot: Kaiken kaikkiaan IP-osoitteiden kokonaismäärä Yhdysvaltain 10 suurimmassa kaupungissa on huomattavasti suurempi kuin Kiinan 10 suurimmassa kaupungissa. Molemmissa maissa kuitenkin näkyy malli, jossa muutama ydinkaupunki vastaa valtaosasta Ollama-käyttöönotoista.
Tämä kaupunkitason vertailu paljastaa edelleen, että Ollaman, kehittäjätyökaluna, edistäminen ja soveltaminen liittyvät läheisesti alueellisiin teknologiaekosysteemeihin ja teolliseen kehitykseen.
6. Mallianalyysi
6.1 Lyhyt katsaus tekoälymalleihin, parametreihin ja kvantisointiin
Ollama tukee erilaisia avoimen lähdekoodin suuria kielimalleja. Nämä mallit erotellaan tyypillisesti seuraavien ominaisuuksien perusteella:
6.1.1 Yleiset malliperheet
Nykyisessä avoimen lähdekoodin yhteisössä on nähty erinomaisten LLM-perheiden nousu, joista kullakin on omat ominaispiirteensä:
Llama-sarja (Meta AI): Kuten Llama 2, Llama 3, Code Llama. Tunnetaan tehokkaista yleisominaisuuksistaan ja laajasta yhteisötuesta, mikä on johtanut lukuisiin hienosäädettyihin versioihin. Tiedoissamme nähdyt mallit, kuten
llama3.1
jahermes3
, perustuvat usein Llama-arkkitehtuuriin.Mistral-sarja (Mistral AI): Kuten Mistral 7B, Mixtral 8x7B. Saavuttanut huomiota tehokkuudellaan ja korkealla suorituskyvyllään, erityisesti sen MoE (Mixture of Experts) -mallit.
Gemma-sarja (Google): Kuten Gemma 2B, Gemma 7B. Googlen julkaisemat avoimen painon mallit, joiden teknologia on peräisin heidän tehokkaammista Gemini-malleistaan.
Phi-sarja (Microsoft): Kuten Phi-2, Phi-3. Keskittyy pienikokoisiin mutta kyvykkäisiin malleihin, korostaen "SLM:iä (Small Language Models)".
DeepSeek-sarja (DeepSeek AI): Kuten DeepSeek Coder, DeepSeek LLM. Kiinalaiset tekoälymallit, jotka kunnostautuvat koodauksessa ja yleisissä tehtävissä.
Qwen-sarja (Alibaba Tongyi Qianwen): Kuten Qwen1.5. Alibaba DAMO Academyn lanseeraama mallisarja, joka tukee useita kieliä ja tehtäviä.
On olemassa monia muita erinomaisia malleja, kuten Yi (01.AI), Command R (Cohere) jne.
Ollama, Modelfile
-mekanisminsa kautta, antaa käyttäjien helposti käyttää näitä perusmalleja tai niiden hienosäädettyjä versioita. Mallien nimet noudattavat usein muotoa perhe:koko-variantti-kvantisointi
, esimerkiksi llama3:8b-instruct-q4_K_M
.
6.1.2 Malliparametrit (parametrien koko)
Malliparametrien määrä (yleensä B – miljardia; tai M – miljoonaa) on tärkeä indikaattori mallin mittakaavasta ja potentiaalisesta kyvykkyydestä. Yleisiä parametrikokoja ovat:
Pienet mallit: < 7B (esim. 1.5B, 2B, 3B). Toimivat yleensä nopeasti ja kuluttavat vähän resursseja, sopivat tiettyihin tehtäviin tai resurssirajoitettuihin ympäristöihin.
Keskikokoiset mallit: 7B, 8B, 13B. Saavuttavat hyvän tasapainon kyvykkyyden ja resurssienkulutuksen välillä, tällä hetkellä yksi yhteisön suosituimmista ko’oista.
Suuret mallit: 30B, 33B, 40B, 70B+. Yleensä kyvykkäämpiä, mutta vaativat myös enemmän laskentaresursseja (RAM, VRAM) ja pidempiä päättelyaikoja.
parameter_size
-kenttä tiedoissamme (esim. "8.0B", "7B", "134.52M") osoittaa tämän.
6.1.3 Kvantisointiversiot (kvantisointitaso)
Kvantisointi on tekniikka, jolla pienennetään mallin kokoa ja nopeutetaan päättelyä laskemalla mallipainojen numeerista tarkkuutta (esim. 16-bittisestä liukuluvusta FP16 4-bittiseen kokonaislukuun INT4).
Yleiset kvantisointitasot: Ollama ja GGUF-muoto (käytössä Llama.cpp:ssä) tukevat erilaisia kvantisointistrategioita, kuten
Q2_K
,Q3_K_S
,Q3_K_M
,Q3_K_L
,Q4_0
,Q4_K_M
,Q5_K_M
,Q6_K
,Q8_0
jne.Numero (esim. 2, 3, 4, 5, 6, 8) osoittaa karkeasti bittien määrän.
K
-sarjan kvantisointi (esim.Q4_K_M
) ovat llama.cpp:ssä esiteltyjä parannettuja kvantisointimenetelmiä, jotka yleensä saavuttavat paremman suorituskyvyn samalla bittimäärällä._S
,_M
,_L
merkitsevät yleensä K-kvanttien eri variantteja, jotka vaikuttavat mallin eri osiin.F16
(FP16) edustaa 16-bittistä liukulukua, jota pidetään usein kvantisoimattomana tai perus kvantisointiversiona.F32
(FP32) on täysi tarkkuus.
Kompromissi: Korkeampi kvantisointi (pienempi bittimäärä) johtaa pienempiin, nopeampiin malleihin, mutta yleensä mukana tulee jonkin verran suorituskyvyn heikkenemistä (malli suoriutuu huonommin). Käyttäjien on valittava laitteistonsa ja mallin laatuvaatimusten perusteella.
quantization_level
-kenttä tiedoissamme (esim. "Q4_K_M", "F16") osoittaa tämän.
6.2 Suosituimmat mallinimet
Alla oleva taulukko näyttää 10 suosituinta mallitunnistetta yksilöllisten IP-osoitteiden käyttöönottojen määrän mukaan, mukaan lukien niiden perhe, parametrikoko ja kvantisointitason tiedot.
Sija | Mallinimi (model_name) | Uniikkien IP-osoitteiden käyttöönotot | Kokonaiskäyttöönottoinstanssit |
---|---|---|---|
1 |
| 12659 | 24628 |
2 |
| 12572 | 24578 |
3 |
| 11163 | 22638 |
4 |
| 9868 | 21007 |
5 |
| 9845 | 20980 |
6 |
| 4058 | 5016 |
7 |
| 3124 | 3928 |
8 |
| 2856 | 3372 |
9 |
| 2714 | 3321 |
10 |
| 2668 | 3391 |

(Huom: Uniikkien IP-osoitteiden käyttöönotot viittaa niiden yksilöllisten IP-osoitteiden määrään, jotka ovat ottaneet käyttöön vähintään yhden tämän mallitunnisteen instanssin. Kokonaiskäyttöönottoinstanssit viittaa siihen, kuinka monta kertaa tämä mallitunniste esiintyy models
-luettelossa kaikissa IP-osoitteissa. Yksi IP-osoite saattaa viitata samaan mallitunnisteeseen useita kertoja eri tavoin tai tietueiden kautta, tai yksi IP-osoite saattaa ajaa useita eri tunnisteiden instansseja, jotka kuuluvat samaan perusmalliin.)
Alustavat havainnot (suositut mallinimet):
Mallit, joissa on
:latest
-tunniste, ovat hyvin yleisiä, kutenllama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
. Tämä osoittaa, että monet käyttäjät haluavat hakea suoraan mallien uusimman version.Llama-sarjan mallit (esim.
llama3:latest
,llama3:8b-text-q4_K_S
,llama2:latest
,llama3.1:8b
) vievät useita sijoja, mikä osoittaa niiden vahvaa suosiota.Kiinalaiset tekoälymallit, kuten
deepseek-r1:latest
(DeepSeek-sarja) jaqwen:latest
(Tongyi Qianwen -sarja), suoriutuvat myös vaikuttavasti ja sijoittuvat korkealle.Tietyt kvantisoidut versiot, kuten
llama3:8b-text-q4_K_S
, pääsivät myös kymmenen parhaan joukkoon, mikä osoittaa käyttäjien mieltymystä tiettyihin suorituskyvyn ja resurssienkulutuksen tasapainoihin.Pienillä malleilla, kuten
smollm2:135m
jaqwen2.5:1.5b
, on myös huomattava määrä käyttöönottoja, mikä vastaa kevyiden mallien kysyntään.
6.3 Suosituimmat malliperheet
Malliperhe (details.family
-kenttä) edustaa mallin perusarkkitehtuuria tai ensisijaista teknologista sukulinjaa. Alla on malliperheet, joilla on analyysimme perusteella suurempi määrä käyttöönottoja:
Sija | Malliperhe (family) | Uniikkien IP-osoitteiden käyttöönotot (arvioitu) | Kokonaiskäyttöönottoinstanssit (arvioitu) |
---|---|---|---|
1 |
| ~20250 | ~103480 |
2 |
| ~17881 | ~61452 |
3 |
| ~1479 | ~1714 |
4 |
| ~1363 | ~2493 |
5 |
| ~1228 | ~2217 |
6 |
| ~943 | ~1455 |
7 |
| ~596 | ~750 |
8 |
| ~484 | ~761 |
9 |
| ~368 | ~732 |
10 |
| ~244 | ~680 |

(Huom: Tässä esitetyt tarkat arvot ovat arvioituja ja yhteenveto aiemmin kysytyn Top 50 -mallitietojen listan perusteella, ja ne saattavat hieman poiketa tarkoista globaaleista tilastoista, mutta trendi on edustava.)
Alustavat havainnot (suositut malliperheet):
llama
-perheellä on ehdoton hallitseva asema, mikä on yhdenmukaista sen kanssa, että Llama-sarjan mallit ovat monien nykyaikaisten avoimen lähdekoodin LLM-mallien perusta ja niitä käytetään laajalti myös sellaisenaan. Sen laaja ekosysteemi ja lukuisat hienosäädetyt versiot tekevät siitä suosituimman valinnan.qwen2
(Tongyi Qianwen Qwen2 -sarja), toiseksi suurimpana perheenä, osoittaa vahvaa kilpailukykyään Kiinassa ja jopa maailmanlaajuisesti.nomic-bert
- jabert
-mallien esiintyminen on huomionarvoista. Vaikka niitä ei tyypillisesti pidetä "suurina kielimalleina" (keskustelevina), vaan pikemminkin tekstin upotus- tai muina luonnollisen kielen käsittelyn perusmalleina, niiden suuri käyttöönottoaste viittaa siihen, että Ollamaa käytetään laajalti myös tällaisiin tehtäviin. Ollama lataa automaattisesti oletusarvoisen upotusmallin (esim.nomic-embed-text
) suorittaessaan tiettyjä toimintoja (kuten upotusvektorien generointia), mikä on todennäköisesti pääsyy näiden perheiden korkeaan sijoitukseen.Googlen
gemma
-sarja (mukaan lukiengemma3
,gemma
,gemma2
) osoittaa myös kohtuullista käyttöönottoastetta.Muut tunnetut malliperheet, kuten
deepseek2
japhi3
, pääsivät myös kymmenen parhaan joukkoon.mllama
saattaa edustaa kokoelmaa erilaisia Llama-pohjaisia hybridi-, muokattuja tai yhteisön nimeämiä malleja.
6.4 Alkuperäisen parametrimäärän tilastot
Mallin parametrimäärä (details.parameter_size
-kenttä) on tärkeä mallin koon indikaattori. Koska parametrimäärät on esitetty raakadatoissa vaihtelevasti (esim. "8.0B", "7B", "134.52M"), laskemme suoraan nämä alkuperäiset merkkijonot. Alla on parametrimäärien esitykset, joilla on suurempi käyttöönottoaste:
Sija | Parametrimäärä (alkuperäinen merkkijono) | Uniikkien IP-osoitteiden käyttöönotot (arvioitu) | Kokonaiskäyttöönottoinstanssit (arvioitu) |
---|---|---|---|
1 |
| ~14480 | ~52577 |
2 |
| ~14358 | ~28105 |
3 |
| ~11233 | ~22907 |
4 |
| ~9895 | ~21058 |
5 |
| ~4943 | ~11738 |
6 |
| ~4062 | ~5266 |
7 |
| ~2759 | ~3596 |
8 |
| ~2477 | ~3311 |
9 |
| ~2034 | ~2476 |
10 |
| ~1553 | ~2244 |
11 |
| ~1477 | ~1708 |
12 |
| ~1421 | ~2000 |
13 |
| ~1254 | ~2840 |
14 |
| ~1123 | ~2091 |
15 |
| ~943 | ~1194 |

(Huom: Arvot ovat arvioituja ja perustuvat aiemmin kysytyn Top 50 -mallitietojen listan parametritietojen yhteenvetoon.)
Alustavat havainnot (suositut parametrikoot):
7B–8B-kokoluokan mallit ovat ehdoton valtavirta: "8.0B", "7.6B", "7.2B", "7B" kattavat valtaosan käyttöönotoista. Tämä vastaa tyypillisesti yhteisön erittäin suosittuja malleja, kuten Llama 2/3 7B/8B -sarjoja, Mistral 7B:tä ja niiden erilaisia hienosäädettyjä versioita. Ne tarjoavat hyvän tasapainon suorituskyvyn ja resurssienkulutuksen välillä.
4B-kokoluokan malleilla on myös tärkeä asema: "4B":n korkea käyttöönottoaste on huomionarvoinen.
Miljoonaparametritason (M) kevyet mallit ovat laajalle levinneitä: "134.52M":n ja "137M":n korkea sijoitus liittyy todennäköisesti upotusmallien (kuten
nomic-embed-text
) tai hyvin pienten erikoismallien (kutensmollm
-sarjan) suosioon. Nämä mallit ovat pieniä, nopeita ja sopivia resurssirajoitettuihin tai latenssiherkkiin skenaarioihin.Vakaa kysyntä pienille 1B–4B-kokoluokan malleille: Myös malleilla, joiden parametrikoot ovat "1.5B", "1.8B", "3.2B", "4.3B", on oma käyttäjäkuntansa.
Suuret yli 10B:n mallit: Kuten "13B", "12.2B", "32.8B", "14.8B". Vaikka niillä ei ole yhtä paljon yksilöllisiä IP-osoitteiden käyttöönottoja kuin 7–8B-tason malleilla, niillä on silti huomattava käyttöönottoaste, mikä osoittaa yhteisön kysyntää kyvykkäämmille malleille niiden korkeammista laitteistovaatimuksista huolimatta.
6.5 Kvantisointitason tilastot
Mallin kvantisointitaso (details.quantization_level
-kenttä) heijastaa mallin käyttämää painojen tarkkuutta koon pienentämiseksi ja päättelyn nopeuttamiseksi. Alla on kvantisointitasot, joilla on suurempi käyttöönottoaste:
Sija | Kvantisointitaso (alkuperäinen merkkijono) | Uniikkien IP-osoitteiden käyttöönotot (arvioitu) | Kokonaiskäyttöönottoinstanssit (arvioitu) |
---|---|---|---|
1 |
| ~20966 | ~53688 |
2 |
| ~18385 | ~88653 |
3 |
| ~9860 | ~21028 |
4 |
| ~5793 | ~9837 |
5 |
| ~596 | ~1574 |
6 |
| ~266 | ~1318 |
7 |
| ~97 | ~283 |
8 |
| ~85 | ~100 |
9 |
| ~60 | ~178 |
10 |
| ~54 | ~140 |

(Huom: Arvot ovat arvioituja ja perustuvat aiemmin kysytyn Top 50 -mallitietojen listan kvantisointitietojen yhteenvetoon.)
Alustavat havainnot (suositut kvantisointitasot):
4-bittinen kvantisointi on hallitseva ratkaisu:
Q4_K_M
,Q4_0
jaQ4_K_S
, nämä kolme 4-bittistä kvantisointitasoa, ovat ehdottomasti listan kärjessä. Tämä osoittaa selvästi, että yhteisö on laajalti omaksunut 4-bittisen kvantisoinnin ensisijaiseksi ratkaisuksi parhaan tasapainon saavuttamiseksi mallin suorituskyvyn, päättelynopeuden ja resurssien käytön (erityisesti VRAM) välillä.F16
(16-bittinen liukuluku) on edelleen merkittävässä asemassa: Kvantisoimattomana (tai vain peruskvantisoituna) versionaF16
:n korkea käyttöönottoaste osoittaa, että huomattava määrä käyttäjiä valitsee sen tavoitellakseen mallin korkeinta tarkkuutta tai koska heillä on riittävät laitteistoresurssit.Q8_0
(8-bittinen kvantisointi) täydennyksenä: Tarjoaa vaihtoehdon 4-bittisen jaF16
:n välillä.unknown
-arvojen esiintyminen: Osoittaa, että kvantisointitason tiedot puuttuvat tai ovat epästandardeja joissakin mallien metatiedoissa.
6.6 Tekoälyn laskentatehon jakautuminen (mallin parametrimäärän mukaan): Kiina vs. Yhdysvallat
Saadaksemme syvemmän ymmärryksen siitä, miten erikokoisia malleja otetaan käyttöön suurimmissa maissa, luokittelimme ja laskimme Yhdysvalloissa ja Kiinassa Ollama-instansseihin otettujen mallien parametrimäärät. Parametrimäärää pidetään usein tärkeänä indikaattorina mallin monimutkaisuudesta ja potentiaalisesta tekoälyn laskentatehon tarpeesta.
Parametrien kokoluokittelustandardi:
Pieni: < 1 miljardi parametriä (< 1B)
Keskikokoinen: 1 miljardista < 10 miljardiin parametriin (1B – < 10B)
Suuri: 10 miljardista < 50 miljardiin parametriin (10B – < 50B)
Erittäin suuri: >= 50 miljardia parametriä (>= 50B)
Alla oleva taulukko näyttää niiden yksilöllisten IP-osoitteiden määrän, jotka ottavat käyttöön erikokoisia malleja Yhdysvalloissa ja Kiinassa:
Maa | Parametrien kokoluokka | Uniikkien IP-osoitteiden määrä |
---|---|---|
Kiina | Pieni (<1B) | 3313 |
Kiina | Keskikokoinen (1B – <10B) | 4481 |
Kiina | Suuri (10B – <50B) | 1548 |
Kiina | Erittäin suuri (>=50B) | 280 |
Yhdysvallat | Pieni (<1B) | 1368 |
Yhdysvallat | Keskikokoinen (1B – <10B) | 6495 |
Yhdysvallat | Suuri (10B – <50B) | 1301 |
Yhdysvallat | Erittäin suuri (>=50B) | 58 |
--China-vs-USA.jpeg)
Dataan perustuvat oivallukset ja analyysi:
Keskikokoiset mallit ovat valtavirtaa, mutta eri painopistein:
Yhdysvallat: Keskikokoisten mallien (1B–10B) käyttöönotot ovat ehdottomasti hallitsevia Yhdysvalloissa (6495 yksilöllistä IP-osoitetta).
Kiina: Keskikokoiset mallit (4481 yksilöllistä IP-osoitetta) ovat myös yleisimmin käyttöönotettu tyyppi Kiinassa, mutta pienten mallien (<1B) käyttöönotto Kiinassa (3313 yksilöllistä IP-osoitetta) on erittäin huomattavaa.
Merkittävä ero pienissä malleissa: Kiinan laajamittainen pienten mallien käyttöönotto saattaa heijastaa mieltymystä reunalaskentaan, mobiilitekoälysovelluksiin ja vastaaviin skenaarioihin.
Suurten ja erittäin suurten mallien käyttöönotto: Kiina osoittaa suurempaa aktiivisuutta suurten ja erittäin suurten mallien tutkimisessa (vaikkakin pienemmästä pohjasta).
Päätelmät kokonaislaskentatehoinvestoinneista: Yhdysvaltain perusta keskikokoisissa malleissa osoittaa käytännön tekoälysovellusten yleisyyden. Kiinalla on etu pienissä malleissa ja se tutkii aktiivisesti suuria malleja.
Vaikutukset globaaleihin trendeihin: Keskikokoiset mallit ovat todennäköisesti suosittuja maailmanlaajuisesti. Eri alueilla voi olla vaihtelevia mallien käyttöönotto-strategioita niiden ekosysteemien ja resurssiolosuhteiden perusteella.
Segmentoimalla malliparametrien koot Kiinassa ja Yhdysvalloissa voimme nähdä Ollama-sovellusten erilaiset painopisteet ja kehityspotentiaalit näissä kahdessa maassa.
7. Verkkotiedot
7.1 Porttien käyttö
11434
(oletusportti): Valtaosa (30 722 yksilöllistä IP-osoitetta) Ollama-instansseista toimii oletusportissa11434
.Muut yleiset portit: Myös portteja kuten
80
(1 619 yksilöllistä IP-osoitetta),8080
(1 571 yksilöllistä IP-osoitetta),443
(1 339 yksilöllistä IP-osoitetta) jne. käytetään, mikä saattaa viitata siihen, että jotkin instanssit on otettu käyttöön käänteisen välityspalvelimen takana tai käyttäjät ovat mukauttaneet portin.
7.2 Protokollien käyttö
HTTP: Noin 65 506 yksilöllisellä IP-osoitteella on instansseja, jotka palvelevat HTTP-protokollan kautta.
HTTPS: Noin 43 765 yksilöllisellä IP-osoitteella on instansseja, jotka palvelevat HTTPS-protokollan kautta.
Useimmat instanssit ovat edelleen saatavilla salaamattoman HTTP-protokollan kautta, mikä voi aiheuttaa tiettyjä turvallisuusriskejä. (Huomaa: Yksi IP-osoite saattaa tukea sekä HTTP- että HTTPS-protokollaa, joten IP-osoitteiden yhteenlaskettu määrä voi ylittää yksilöllisten IP-osoitteiden kokonaismäärän)
7.3 Pääasialliset hosting-palveluntarjoajat (AS-organisaatio)
Ollama-instanssien isännöinti on erittäin keskittynyttä pilvipalveluntarjoajille.
Sija | AS-organisaatio | Uniikkien IP-osoitteiden määrä | Pääasiallinen palveluntarjoaja |
---|---|---|---|
1 | AMAZON-02 | 53658 | AWS |
2 | AMAZON-AES | 5539 | AWS |
3 | Chinanet | 4964 | China Telecom |
4 | Hangzhou Alibaba Advertising Co.,Ltd. | 2647 | Alibaba Cloud |
5 | HENGTONG-IDC-LLC | 2391 | Hosting Provider |
6 | Shenzhen Tencent Computer Systems Company Limited | 1682 | Tencent Cloud |
7 | CHINA UNICOM China169 Backbone | 1606 | China Unicom |
8 | Hetzner Online GmbH | 972 | Hetzner |
9 | China Unicom Beijing Province Network | 746 | China Unicom (Peking) |
10 | LEASEWEB-USA-LAX | 735 | Leaseweb |

AWS (AMAZON-02, AMAZON-AES) omistaa suurimman osuuden, ja sitä seuraavat suuret kiinalaiset teleoperaattorit ja pilvipalveluntarjoajat (kuten Alibaba Cloud, Tencent Cloud). Myös muilla hosting-palveluntarjoajilla, kuten Hetznerillä ja Leasewebillä, on merkittäviä osuuksia.
8. Turvallisuus ja muut huomiot
Versiotiedot: Turvallisuussyistä emme ole listanneet Ollama-versioiden tilastoja.
HTTP-altistumisriski: Kuten aiemmin mainittiin, suuri määrä Ollama-instansseja on saatavilla HTTP:n kautta ilman TLS-salausta, mikä voi tehdä viestintäsisällöstä (esim. vuorovaikutus mallien kanssa) alttiin salakuuntelulle tai peukaloinnille. Käyttäjiä kehotetaan konfiguroimaan käänteinen välityspalvelin ja ottamaan HTTPS käyttöön.
API-saatavuus: Tämän raportin tiedot perustuvat Ollama-instansseihin, joiden
/api/tags
-rajapinta on julkisesti saatavilla. Todellinen käyttöönottojen määrä voi olla suurempi, mutta jotkin instanssit saattavat olla käytössä yksityisissä verkoissa tai niiden ulkoinen pääsy voi olla rajoitettu palomuureilla.
9. Johtopäätökset ja lyhyt katsaus
Tämä raportti, analysoimalla tietoja 99 412 maailmanlaajuisesti julkisesti saatavilla olevasta Ollama-instanssista (niiden /api/tags
-rajapinnan kautta), tekee seuraavat pääasialliset johtopäätökset ja havainnot:
1. Maailmanlaajuinen käyttöönoton yleiskatsaus ja maantieteellinen jakautuminen:
Ollama, kätevänä työkaluna suurten mallien paikalliseen ajamiseen, on otettu laajalti käyttöön maailmanlaajuisesti. Tämä analyysi tunnisti 99 412 julkisesti saatavilla olevaa yksilöllistä IP-osoitetta.
Korkea maantieteellinen keskittyminen: Yhdysvallat ja Kiina ovat kaksi maata/aluetta, joissa Ollama-käyttöönotot ovat keskittyneimpiä, kattaen yhdessä merkittävän osan kaikista saatavilla olevista instansseista (USA 29 195, Kiina 16 464). Myös maissa kuten Japani, Saksa, Iso-Britannia, Intia ja Singapore on huomattava määrä käyttöönottoja.
Kaupunkien keskittymät: Yhdysvalloissa kaupungit kuten Ashburn, Portland ja Columbus johtavat käyttöönotoissa; Kiinassa teknologisesti edistyneet kaupungit kuten Peking, Hangzhou, Shanghai ja Kanton ovat pääasiallisia käyttöönotto-sijainteja. Tämä liittyy usein teknologiayritysten, datakeskusten ja kehittäjäyhteisöjen keskittymiseen.
2. Tekoälymallien käyttöönoton trendit:
Suositut mallitunnisteet: Yleiset uusimmat tunnisteet, kuten
llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
, ovat suosituimpia. Erityisesti optimoidut versiot, kutenllama3:8b-text-q4_K_S
, ovat myös suosittuja hyvän tasapainonsa ansiosta.Hallitsevat malliperheet:
llama
-perhe johtaa ylivoimaisesti, ja sitä seuraaqwen2
. Upotusmalliperheiden, kutennomic-bert
jabert
, korkea sijoitus on huomionarvoinen, mahdollisesti liittyen Ollaman oletuskäyttäytymiseen.Parametrikokojen mieltymykset: 7B–8B parametrin mallit ovat tällä hetkellä valtavirtaa. Myös miljoonaparametritason kevyillä malleilla ja yli 10B:n suurilla malleilla on omat markkinansa. Yhdysvaltain ja Kiinan vertailu osoittaa, että Yhdysvallat ottaa käyttöön enemmän keskikokoisia malleja, kun taas Kiina on aktiivisempi pienten ja erittäin suurten mallien tutkimisessa.
Kvantisointitason valinnat: 4-bittinen kvantisointi (erityisesti
Q4_K_M
jaQ4_0
) on ylivoimainen valinta.F16
, korkeamman tarkkuuden vaihtoehtona, on myös tärkeässä asemassa.Metadatan monimutkaisuus: Mallimetadatan analyysi (esim. malliperhekentän tulkinta) paljastaa joskus monimutkaisuuksia sen tietueiden ja mallinimien tai yleisen ymmärryksen välillä, korostaen metadatan hallinnan monimuotoisuutta avoimen lähdekoodin ekosysteemissä.
3. Tekninen infrastruktuuri:
Isännöintiympäristöt: Suuri määrä Ollama-instansseja isännöidään suurilla pilvipalveluntarjoajilla, kuten AWS, Alibaba Cloud, Tencent Cloud, sekä suurten kansallisten teleoperaattoreiden verkoissa.
Palveluportit: Ollaman oletusportti
11434
on yleisimmin käytetty, mutta huomattava määrä instansseja on myös saatavilla standardien verkkoporttien kautta.
4. Objektiivinen arviointi:
Ollaman suosio: Tiedot osoittavat selvästi Ollaman korkean käyttöönottoasteen kehittäjien ja tekoälyharrastajien keskuudessa maailmanlaajuisesti.
Avoimen lähdekoodin ekosysteemin elinvoimaisuus: Suosittujen mallien monimuotoisuus ja erilaisten parametri- ja kvantisointiversioiden laaja käyttö heijastavat avoimen lähdekoodin tekoälymalliekosysteemin kukoistavaa kehitystä.
Tasapaino käyttäjien mieltymyksissä: Malleja valitessaan käyttäjät pyrkivät löytämään tasapainon mallin kyvykkyyden, toiminnan tehokkuuden ja laitteistokustannusten välillä.
Turvallisuus ja avoimuus: Suuri määrä instansseja sallii julkisen pääsyn malliluetteloihinsa, mikä, vaikka onkin kätevää yhteisölle, saattaa myös aiheuttaa turvallisuusriskejä.
5. Tulevaisuudennäkymät:
Tehokkaampien, pienempien mallien ilmaantumisen ja kvantisointiteknologian jatkuvan kehityksen myötä Ollaman käyttöönoton esteen odotetaan edelleen madaltuvan.
Mallimetadatan ja yhteisön jakamien mallien standardointi on ratkaisevan tärkeää ekosysteemin läpinäkyvyyden ja käytettävyyden parantamiseksi.
Yhteenvetona voidaan todeta, että Ollamasta on tulossa tärkeä silta, joka yhdistää huippuluokan suuret kielimallit laajaan joukkoon kehittäjiä, tutkijoita ja jopa tavallisia käyttäjiä. Tämä data-analyysi tarjoaa arvokkaita näkemyksiä sen nykyisen maailmanlaajuisen käyttöönoton tilan ja käyttäjien mieltymysten ymmärtämiseen.
Kommentit
comments.comments (0)
Please login first
Sign in