
Una Nova Perspectiva sobre la Cursa de la IA entre els EUA i la Xina: Comparació del Desplegament d'Ollama el 2025 i Coneixements sobre les Tendències Globals dels Models d'IA
Ollama és una eina popular de codi obert dissenyada per simplificar el procés d'executar, crear i compartir models de llenguatge grans (LLM) localment. Agrupa pesos de models, configuració i dades en un paquet definit per un Modelfile, i proporciona una API per interactuar amb aquests models. Això permet als desenvolupadors i investigadors desplegar i experimentar fàcilment amb diversos models d'IA avançats en ordinadors personals o servidors.
1. Introducció
Ollama és una eina popular de codi obert dissenyada per simplificar el procés d'executar, crear i compartir models de llenguatge grans (LLM) localment. Agrupa pesos de models, configuració i dades en un paquet definit per un Modelfile, i proporciona una API per interactuar amb aquests models. Això permet als desenvolupadors i investigadors desplegar i experimentar fàcilment amb diversos models d'IA avançats en ordinadors personals o servidors.
Aquest informe té com a objectiu revelar tendències de desplegament, preferències de models, distribució geogràfica i característiques de la xarxa mitjançant l'anàlisi de dades de 174.590 instàncies d'Ollama desplegades globalment.
Nota: Les estadístiques de dades del Capítol 5 i del Capítol 7 provenen de les 174.590 instàncies. Les dades del Capítol 6 provenen d'instàncies accessibles. Per raons de seguretat, no hem llistat estadístiques sobre les versions d'Ollama.
Dades a data de: 24 d'abril de 2025.
Font de l'informe: Tenthe AI https://tenthe.com
Autor: Ryan
2. Resum Executiu
Aquest informe es basa en l'anàlisi de dades d'escaneig i sondeig d'API d'instàncies d'Ollama disponibles públicament a tot el món. Les principals conclusions inclouen:
Globalment, entre aproximadament 174.590 registres identificats inicialment mitjançant Fofa (99.412 IP úniques), 41.021 instàncies d'Ollama amb API accessibles van ser sondejades amb èxit, distribuïdes en 24.038 adreces IP úniques (una taxa d'accessibilitat d'aproximadament 24,18%).
Geogràficament, els Estats Units i la Xina són els països amb el major nombre de desplegaments d'Ollama. Els proveïdors de serveis al núvol, particularment AWS, Alibaba Cloud i Tencent Cloud, són els principals amfitrions per a les instàncies d'Ollama.
Els desplegaments de models mostren diversitat, amb els models de les sèries
llama3
,deepseek-r1
,mistral
iqwen
sent àmpliament populars. Entre ells,llama3:latest
ideepseek-r1:latest
són les dues etiquetes de model més àmpliament desplegades.Els models amb paràmetres de 7B-8B són la primera opció per als usuaris, mentre que els models quantificats de 4 bits com Q4_K_M i Q4_0 són àmpliament adoptats pel seu bon equilibri entre rendiment i consum de recursos.
El port per defecte
11434
és el més comunament utilitzat, i la majoria de les instàncies exposen serveis mitjançant el protocol HTTP.
3. Fonts de Dades i Metodologia
Les dades d'aquest informe provenen principalment de dues etapes:
Escaneig Inicial: Utilitzant motors de cerca d'espais de xarxa com Fofa, amb la condició
app="Ollama" && is_domain=false
, per identificar inicialment possibles instàncies d'Ollama desplegades globalment. Aquesta etapa va trobar 174.590 registres, implicant 99.412 IP úniques després de la deduplicació.Verificació d'API i Enriquiment de Dades: Sondejant el punt final de l'API
ip:port/api/tags
per a les adreces IP escanejades inicialment per confirmar l'accessibilitat dels serveis d'Ollama i obtenir informació sobre els models d'IA específics desplegats. Aquesta etapa va confirmar 41.021 instàncies d'Ollama que van respondre amb èxit (de 24.038 IP úniques, amb dades emmagatzemades a la taulaollama
).Les dades finals s'emmagatzemen a la taula
ollama
.
L'anàlisi d'aquest informe es basa principalment en dades de la taula ollama
, que conté registres d'API sondejades amb èxit i la seva informació detallada, incloent IP, port, ubicació geogràfica i la resposta JSON (que conté la llista de models), etc.
4. Estadístiques Generals de Desplegament
Nombre de registres inicials de l'escaneig de Fofa: 174.590
Nombre d'IP úniques de l'escaneig inicial de Fofa: 99.412
Nombre d'instàncies d'Ollama que accedeixen amb èxit a
/api/tags
: 41.021 (de registres onstatus = 'success'
a la taulaollama
)Nombre d'adreces IP úniques corresponents: 24.038 (de registres on
status = 'success'
a la taulaollama
)Ràtio d'IP accessibles respecte a les IP identificades inicialment: (24038 / 99412) * 100% ≈ 24,18%
Això indica que, entre totes les instàncies d'Ollama identificades mitjançant Fofa, aproximadament una quarta part tenen la seva interfície /api/tags
accessible públicament, la qual cosa ens permet recuperar informació sobre els seus models desplegats.
5. Anàlisi de la Distribució Geogràfica
5.1 Els 20 Principals Països/Regions de Desplegament
La taula següent mostra els 20 principals països/regions classificats pel nombre d'IP úniques amb instàncies d'Ollama.
Rànquing | País/Regió | Recompte d'IP úniques |
---|---|---|
1 | Estats Units | 29195 |
2 | Xina | 16464 |
3 | Japó | 5849 |
4 | Alemanya | 5438 |
5 | Regne Unit | 4014 |
6 | Índia | 3939 |
7 | Singapur | 3914 |
8 | Corea del Sud | 3773 |
9 | Irlanda | 3636 |
10 | França | 3599 |
11 | Austràlia | 3558 |
12 | Brasil | 2909 |
13 | Canadà | 2763 |
14 | Sud-àfrica | 2742 |
15 | Suècia | 2113 |
16 | RAE de Hong Kong, Xina | 1277 |
17 | Israel | 675 |
18 | Taiwan, Xina | 513 |
19 | Rússia | 475 |
20 | Finlàndia | 308 |

5.2 Els 20 Principals Desplegaments Urbans Globals
La taula següent mostra les 20 principals ciutats del món classificades pel nombre d'IP úniques amb instàncies d'Ollama.
Rànquing | Ciutat | País/Regió | Recompte d'IP úniques |
---|---|---|---|
1 | Ashburn | Estats Units | 5808 |
2 | Portland | Estats Units | 5130 |
3 | Singapur | Singapur | 3914 |
4 | Frankfurt am Main | Alemanya | 3908 |
5 | Pequín | Xina | 3906 |
6 | Londres | Regne Unit | 3685 |
7 | Columbus | Estats Units | 3672 |
8 | Bombai | Índia | 3637 |
9 | Dublín | Irlanda | 3631 |
10 | Tòquio | Japó | 3620 |
11 | Sydney | Austràlia | 3487 |
12 | París | França | 3175 |
13 | San Jose | Estats Units | 2815 |
14 | São Paulo | Brasil | 2753 |
15 | Ciutat del Cap | Sud-àfrica | 2692 |
16 | Mont-real | Canadà | 2535 |
17 | Seattle | Estats Units | 2534 |
18 | Hangzhou | Xina | 2447 |
19 | Seül | Corea del Sud | 2327 |
20 | Osaka | Japó | 2184 |
5.3 Distribució de les 10 Principals Ciutats dels EUA
Rànquing | Ciutat | Recompte d'IP úniques |
---|---|---|
1 | Ashburn | 5808 |
2 | Portland | 5130 |
3 | Columbus | 3672 |
4 | San Jose | 2815 |
5 | Seattle | 2534 |
6 | Westlake Village | 1714 |
7 | Boardman | 855 |
8 | Florence | 776 |
9 | San Francisco | 753 |
10 | Boulder | 642 |

5.4 Distribució de les 10 Principals Ciutats de la Xina Continental
Els desplegaments a Hong Kong i Taiwan no es reflecteixen a la taula de les 10 principals ciutats, ja que ja estan inclosos a les estadístiques de país/regió.
Rànquing | Ciutat | País ( | Recompte d'IP úniques |
---|---|---|---|
1 | Pequín | Xina | 3906 |
2 | Hangzhou | Xina | 2447 |
3 | Xangai | Xina | 1335 |
4 | Guangzhou | Xina | 1296 |
5 | Shenzhen | Xina | 768 |
6 | Chengdu | Xina | 469 |
7 | Nanjing | Xina | 329 |
8 | Chongqing | Xina | 259 |
9 | Suzhou | Xina | 257 |
10 | Wuhan | Xina | 249 |

5.5 Comparació del Desplegament de les 10 Principals Ciutats dels EUA i la Xina
Per comparar de manera més intuïtiva els desplegaments d'Ollama a nivell de ciutat als EUA i la Xina, la taula següent juxtaposa els recomptes de desplegament d'IP úniques per a les 10 ciutats principals d'ambdós països:
Rànquing | Ciutat dels EUA (Top 10) | Recompte d'IP úniques EUA | Ciutat de la Xina (Top 10) | Recompte d'IP úniques Xina |
---|---|---|---|---|
1 | Ashburn | 5808 | Pequín | 3906 |
2 | Portland | 5130 | Hangzhou | 2447 |
3 | Columbus | 3672 | Xangai | 1335 |
4 | San Jose | 2815 | Guangzhou | 1296 |
5 | Seattle | 2534 | Shenzhen | 768 |
6 | Westlake Village | 1714 | Chengdu | 469 |
7 | Boardman | 855 | Nanjing | 329 |
8 | Florence | 776 | Chongqing | 259 |
9 | San Francisco | 753 | Suzhou | 257 |
10 | Boulder | 642 | Wuhan | 249 |

Breu Comentari:
Volum de Ciutats capdavanteres: Les 3 principals ciutats dels EUA (Ashburn, Portland, Columbus) tenen cadascuna més de 3.000 IP úniques amb desplegaments d'Ollama. La ciutat principal de la Xina (Pequín) té més de 3.000 desplegaments, i la seva segona ciutat (Hangzhou) té més de 2.000.
Centres Tecnològics i Econòmics: Moltes de les ciutats llistades en ambdós països són centres d'innovació tecnològica coneguts o regions econòmiques importants.
Regions de Centres de Dades: La inclusió de ciutats dels EUA com Ashburn també reflecteix que les instàncies d'Ollama poden estar desplegades en gran mesura dins de servidors al núvol i centres de dades.
Diferències de Distribució: En general, el nombre total d'IP a les 10 principals ciutats dels EUA és significativament més alt que a les 10 principals ciutats de la Xina. No obstant això, ambdós països mostren un patró on unes poques ciutats centrals representen la gran majoria dels desplegaments d'Ollama.
Aquesta comparació a nivell de ciutat revela a més que la promoció i aplicació d'Ollama, com a eina de desenvolupament, estan estretament relacionades amb els ecosistemes tecnològics regionals i el desenvolupament industrial.
6. Anàlisi de Models
6.1 Visió General Breu de Models d'IA, Paràmetres i Quantificació
Ollama admet una varietat de models de llenguatge grans de codi obert. Aquests models es distingeixen típicament per les següents característiques:
6.1.1 Famílies de Models Comunes
La comunitat actual de codi obert ha vist un augment de famílies d'LLM excel·lents, cadascuna amb les seves pròpies característiques:
Sèrie Llama (Meta AI): Com Llama 2, Llama 3, Code Llama. Coneguda per les seves potents capacitats generals i un ampli suport de la comunitat, la qual cosa ha donat lloc a nombroses versions afinades. Models com
llama3.1
,hermes3
vistos a les nostres dades sovint es basen en l'arquitectura Llama.Sèrie Mistral (Mistral AI): Com Mistral 7B, Mixtral 8x7B. Guanyant atenció per la seva eficiència i alt rendiment, especialment els seus models MoE (Mixture of Experts).
Sèrie Gemma (Google): Com Gemma 2B, Gemma 7B. Models de pes obert publicats per Google, amb tecnologia derivada dels seus models Gemini més potents.
Sèrie Phi (Microsoft): Com Phi-2, Phi-3. Es centra en models de mida petita però capaços, emfatitzant els "SLM (Small Language Models)".
Sèrie DeepSeek (DeepSeek AI): Com DeepSeek Coder, DeepSeek LLM. Models d'IA xinesos que excel·leixen en codificació i tasques generals.
Sèrie Qwen (Alibaba Tongyi Qianwen): Com Qwen1.5. Una sèrie de models llançada per l'Acadèmia DAMO d'Alibaba, que admet múltiples idiomes i tasques.
Hi ha molts altres models excel·lents, com Yi (01.AI), Command R (Cohere), etc.
Ollama, mitjançant el seu mecanisme Modelfile
, permet als usuaris utilitzar fàcilment aquests models base o les seves versions afinades. Els noms dels models sovint segueixen el format família:mida-variant-quantificació
, per exemple, llama3:8b-instruct-q4_K_M
.
6.1.2 Paràmetres del Model (Mida dels Paràmetres)
El nombre de paràmetres del model (generalment en B - Milers de milions; o M - Milions) és un indicador important de l'escala i la capacitat potencial d'un model. Les mides de paràmetres comunes inclouen:
Models Petits: < 7B (p. ex., 1.5B, 2B, 3B). Normalment s'executen ràpidament amb un baix consum de recursos, adequats per a tasques específiques o entorns amb recursos limitats.
Models Mitjans: 7B, 8B, 13B. Aconsegueixen un bon equilibri entre capacitat i consum de recursos, actualment una de les mides més populars a la comunitat.
Models Grans: 30B, 33B, 40B, 70B+. Generalment més capaços, però també requereixen més recursos computacionals (RAM, VRAM) i temps d'inferència més llargs.
El camp parameter_size
a les nostres dades (p. ex., "8.0B", "7B", "134.52M") indica això.
6.1.3 Versions de Quantificació (Nivell de Quantificació)
La quantificació és una tècnica per reduir la mida del model i accelerar la inferència disminuint la precisió numèrica dels pesos del model (p. ex., de coma flotant de 16 bits FP16 a enter de 4 bits INT4).
Nivells de Quantificació Comuns: Ollama i el format GGUF (utilitzat per Llama.cpp) admeten diverses estratègies de quantificació, com ara
Q2_K
,Q3_K_S
,Q3_K_M
,Q3_K_L
,Q4_0
,Q4_K_M
,Q5_K_M
,Q6_K
,Q8_0
, etc.El número (p. ex., 2, 3, 4, 5, 6, 8) indica aproximadament el nombre de bits.
La quantificació de la sèrie
K
(p. ex.,Q4_K_M
) són mètodes de quantificació millorats introduïts a llama.cpp, que generalment aconsegueixen un millor rendiment amb el mateix nombre de bits._S
,_M
,_L
solen denotar diferents variants de K-quants, que afecten diferents parts del model.F16
(FP16) representa coma flotant de 16 bits, sovint considerat no quantificat o una versió de quantificació base.F32
(FP32) és precisió completa.
Compromís: Una quantificació més alta (menor nombre de bits) resulta en models més petits i ràpids, però normalment comporta una certa pèrdua de rendiment (el model funciona pitjor). Els usuaris han de triar en funció del seu maquinari i els requisits de qualitat del model.
El camp quantization_level
a les nostres dades (p. ex., "Q4_K_M", "F16") indica això.
6.2 Noms de Models Més Populars
La taula següent mostra les 10 etiquetes de model principals classificades pel nombre de desplegaments d'IP úniques, incloent informació sobre la seva família, mida de paràmetres i nivell de quantificació.
Rànquing | Nom del Model (model_name) | Desplegaments d'IP úniques | Instàncies de Desplegament Totals |
---|---|---|---|
1 |
| 12659 | 24628 |
2 |
| 12572 | 24578 |
3 |
| 11163 | 22638 |
4 |
| 9868 | 21007 |
5 |
| 9845 | 20980 |
6 |
| 4058 | 5016 |
7 |
| 3124 | 3928 |
8 |
| 2856 | 3372 |
9 |
| 2714 | 3321 |
10 |
| 2668 | 3391 |

(Nota: Els Desplegaments d'IP úniques es refereixen al nombre d'adreces IP úniques que han desplegat almenys una instància d'aquesta etiqueta de model. Les Instàncies de Desplegament Totals es refereixen al nombre total de vegades que aquesta etiqueta de model apareix a la llista models
en totes les IP. Una IP pot apuntar a la mateixa etiqueta de model múltiples vegades mitjançant diferents mitjans o registres, o una IP pot executar múltiples instàncies de diferents etiquetes que pertanyen al mateix model base.)
Observacions Inicials (Noms de Models Populars):
Els models amb l'etiqueta
:latest
són molt comuns, com arallama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
. Això indica que molts usuaris prefereixen obtenir directament la darrera versió dels models.Els models de la sèrie Llama (p. ex.,
llama3:latest
,llama3:8b-text-q4_K_S
,llama2:latest
,llama3.1:8b
) ocupen múltiples llocs, mostrant la seva forta popularitat.Models d'IA xinesos com
deepseek-r1:latest
(sèrie DeepSeek) iqwen:latest
(sèrie Tongyi Qianwen) també tenen un rendiment impressionant, classificant-se alt.Versions quantificades específiques com
llama3:8b-text-q4_K_S
també van arribar al top ten, indicant la preferència de l'usuari per equilibris específics de rendiment/consum de recursos.Models petits com
smollm2:135m
iqwen2.5:1.5b
també tenen un nombre considerable de desplegaments, satisfent la demanda de models lleugers.
6.3 Famílies de Models Principals
La família del model (camp details.family
) representa l'arquitectura base o el llinatge tecnològic principal del model. A continuació es mostren les famílies de models amb un major nombre de desplegaments basats en la nostra anàlisi de dades:
Rànquing | Família del Model (family) | Desplegaments d'IP úniques (Estimat) | Instàncies de Desplegament Totals (Estimat) |
---|---|---|---|
1 |
| ~20250 | ~103480 |
2 |
| ~17881 | ~61452 |
3 |
| ~1479 | ~1714 |
4 |
| ~1363 | ~2493 |
5 |
| ~1228 | ~2217 |
6 |
| ~943 | ~1455 |
7 |
| ~596 | ~750 |
8 |
| ~484 | ~761 |
9 |
| ~368 | ~732 |
10 |
| ~244 | ~680 |

(Nota: Els valors específics aquí són estimats i resumits basant-se en la llista de detalls dels 50 models principals consultada anteriorment i poden diferir lleugerament de les estadístiques globals precises, però la tendència és representativa.)
Observacions Inicials (Famílies de Models Populars):
La família
llama
manté una posició dominant absoluta, coherent amb el fet que els models de la sèrie Llama són la base de molts LLM de codi obert moderns i la seva pròpia aplicació generalitzada. El seu vast ecosistema i nombroses versions afinades el converteixen en l'opció més popular.qwen2
(sèrie Tongyi Qianwen Qwen2), com la segona família més gran, mostra la seva forta competitivitat a la Xina i fins i tot a nivell mundial.L'aparició de
nomic-bert
ibert
és notable. Encara que no es consideren típicament "models de llenguatge grans" (conversacionals), sinó més aviat models d'incrustació de text o altres models base de processament del llenguatge natural, el seu alt volum de desplegament suggereix que Ollama també s'utilitza àmpliament per a aquestes tasques. Ollama descarrega automàticament un model d'incrustació per defecte (p. ex.,nomic-embed-text
) en realitzar certes operacions (com generar vectors d'incrustació), la qual cosa probablement és la raó principal per la qual aquestes famílies es classifiquen alt.La sèrie
gemma
de Google (incloentgemma3
,gemma
,gemma2
) també mostra taxes d'adopció decents.Altres famílies de models conegudes com
deepseek2
iphi3
també van arribar al top ten.mllama
pot representar una col·lecció de diversos models híbrids, modificats o anomenats per la comunitat basats en Llama.
6.4 Estadístiques de la Mida Original dels Paràmetres Principals
La mida dels paràmetres del model (camp details.parameter_size
) és un indicador important de l'escala del model. A causa de les representacions variades de les mides dels paràmetres a les dades en brut (p. ex., "8.0B", "7B", "134.52M"), comptem directament aquestes cadenes originals. A continuació es mostren les representacions de la mida dels paràmetres amb un major nombre de desplegaments:
Rànquing | Mida dels Paràmetres (Cadena Original) | Desplegaments d'IP úniques (Estimat) | Instàncies de Desplegament Totals (Estimat) |
---|---|---|---|
1 |
| ~14480 | ~52577 |
2 |
| ~14358 | ~28105 |
3 |
| ~11233 | ~22907 |
4 |
| ~9895 | ~21058 |
5 |
| ~4943 | ~11738 |
6 |
| ~4062 | ~5266 |
7 |
| ~2759 | ~3596 |
8 |
| ~2477 | ~3311 |
9 |
| ~2034 | ~2476 |
10 |
| ~1553 | ~2244 |
11 |
| ~1477 | ~1708 |
12 |
| ~1421 | ~2000 |
13 |
| ~1254 | ~2840 |
14 |
| ~1123 | ~2091 |
15 |
| ~943 | ~1194 |

(Nota: Els valors són estimats basant-se en un resum de la informació dels paràmetres de la llista de detalls dels 50 models principals consultada anteriorment.)
Observacions Inicials (Mides de Paràmetres Populars):
Els models a l'escala de 7B a 8B són el corrent principal absolut: "8.0B", "7.6B", "7.2B", "7B" ocupen la gran majoria dels desplegaments. Això correspon típicament a models molt populars a la comunitat, com les sèries Llama 2/3 7B/8B, Mistral 7B, i les seves diverses versions afinades. Aconsegueixen un bon equilibri entre rendiment i consum de recursos.
Els models a escala 4B també ocupen una posició important: L'alt desplegament de "4B" és notable.
Els models lleugers a nivell de milions de paràmetres (M) estan generalitzats: L'alta classificació de "134.52M" i "137M" està probablement relacionada amb la popularitat dels models d'incrustació (com
nomic-embed-text
) o models especialitzats molt petits (com la sèriesmollm
). Aquests models són petits, ràpids i adequats per a escenaris amb recursos limitats o sensibles a la latència.Demanda estable de models petits en el rang 1B-4B: Els models amb mides de paràmetres com "1.5B", "1.8B", "3.2B", "4.3B" també són afavorits per un segment d'usuaris.
Models grans per sobre de 10B: Com "13B", "12.2B", "32.8B", "14.8B", tot i que no tenen tants desplegaments d'IP úniques com el nivell 7-8B, encara tenen un volum de desplegament considerable, la qual cosa indica una demanda de la comunitat per models més capaços, malgrat els seus requisits de maquinari més alts.
6.5 Estadístiques del Nivell de Quantificació Principal
El nivell de quantificació del model (camp details.quantization_level
) reflecteix la precisió dels pesos adoptada pel model per reduir la mida i accelerar la inferència. A continuació es mostren els nivells de quantificació amb un major nombre de desplegaments:
Rànquing | Nivell de Quantificació (Cadena Original) | Desplegaments d'IP úniques (Estimat) | Instàncies de Desplegament Totals (Estimat) |
---|---|---|---|
1 |
| ~20966 | ~53688 |
2 |
| ~18385 | ~88653 |
3 |
| ~9860 | ~21028 |
4 |
| ~5793 | ~9837 |
5 |
| ~596 | ~1574 |
6 |
| ~266 | ~1318 |
7 |
| ~97 | ~283 |
8 |
| ~85 | ~100 |
9 |
| ~60 | ~178 |
10 |
| ~54 | ~140 |

(Nota: Els valors són estimats basant-se en un resum de la informació de quantificació de la llista de detalls dels 50 models principals consultada anteriorment.)
Observacions Inicials (Nivells de Quantificació Populars):
La quantificació de 4 bits és la solució dominant:
Q4_K_M
,Q4_0
iQ4_K_S
, aquests tres nivells de quantificació de 4 bits, encapçalen absolutament les llistes. Això indica clarament que la comunitat adopta àmpliament la quantificació de 4 bits com la solució preferida per aconseguir el millor equilibri entre el rendiment del model, la velocitat d'inferència i l'ocupació de recursos (especialment VRAM).F16
(coma flotant de 16 bits) encara ocupa un lloc significatiu: Com a versió no quantificada (o només bàsicament quantificada), l'alt desplegament deF16
mostra que un nombre considerable d'usuaris l'escullen per perseguir la màxima fidelitat del model o perquè tenen suficients recursos de maquinari.Q8_0
(quantificació de 8 bits) com a suplement: Proporciona una opció entre 4 bits iF16
.Aparició de valors
unknown
: Indica que la informació del nivell de quantificació falta o no és estàndard en algunes metadades del model.
6.6 Distribució de la Potència de Càlcul d'IA (per Mida de Paràmetres del Model): Xina vs. EUA
Per obtenir una comprensió més profunda de com es despleguen models de diferents escales als principals països, vam categoritzar i comptar les mides dels paràmetres dels models desplegats en instàncies d'Ollama als Estats Units i la Xina. La mida dels paràmetres sovint es considera un indicador important de la complexitat del model i la demanda potencial de potència de càlcul d'IA.
Estàndard de Classificació d'Escala de Paràmetres:
Petita: < 1 Mil Milions de paràmetres (< 1B)
Mitjana: D'1 Mil Milions a < 10 Mil Milions de paràmetres (1B a < 10B)
Gran: De 10 Mil Milions a < 50 Mil Milions de paràmetres (10B a < 50B)
Extra Gran: >= 50 Mil Milions de paràmetres (>= 50B)
La taula següent mostra el nombre d'IP úniques que despleguen models de diferents escales de paràmetres als EUA i la Xina:
País | Categoria d'Escala de Paràmetres | Recompte d'IP úniques |
---|---|---|
Xina | Petita (<1B) | 3313 |
Xina | Mitjana (1B a <10B) | 4481 |
Xina | Gran (10B a <50B) | 1548 |
Xina | Extra Gran (>=50B) | 280 |
Estats Units | Petita (<1B) | 1368 |
Estats Units | Mitjana (1B a <10B) | 6495 |
Estats Units | Gran (10B a <50B) | 1301 |
Estats Units | Extra Gran (>=50B) | 58 |
--China-vs-USA.jpeg)
Coneixements i Anàlisi de Dades:
Els models de mida mitjana són el corrent principal, però amb diferents enfocaments:
Estats Units: Els desplegaments de models de mida mitjana (1B-10B) són absolutament dominants als EUA (6495 IP úniques).
Xina: Els models de mida mitjana (4481 IP úniques) també són el tipus més desplegat a la Xina, però el desplegament de models petits (<1B) a la Xina (3313 IP úniques) és molt considerable.
Diferència significativa en models petits: El desplegament a gran escala de models petits a la Xina pot reflectir una preferència per la computació a la vora (edge computing), aplicacions d'IA mòbils i escenaris similars.
Desplegament de models grans i extra grans: La Xina mostra una major activitat en l'exploració de models grans i extra grans (encara que des d'una base més petita).
Inferència sobre la inversió global en potència de càlcul: La base dels EUA en models de mida mitjana mostra la prevalença d'aplicacions pràctiques d'IA. La Xina té un avantatge en models petits i està explorant activament models grans.
Implicacions per a les tendències globals: És probable que els models de mida mitjana siguin populars a nivell mundial. Diferents regions poden tenir estratègies d'adopció de models variables basades en els seus ecosistemes i condicions de recursos.
Segmentant les escales de paràmetres dels models a la Xina i els EUA, podem veure els diferents enfocaments i potencials de desenvolupament de les aplicacions d'Ollama en els dos països.
7. Perspectius de la Xarxa
7.1 Ús de Ports
11434
(port per defecte): La gran majoria (30.722 IP úniques) d'instàncies d'Ollama s'executen al port per defecte11434
.Altres ports comuns: Ports com
80
(1.619 IP úniques),8080
(1.571 IP úniques),443
(1.339 IP úniques), etc., també s'utilitzen, la qual cosa pot indicar que algunes instàncies estan desplegades darrere d'un proxy invers o que els usuaris han personalitzat el port.
7.2 Ús de Protocols
HTTP: Aproximadament 65.506 IP úniques tenen instàncies que serveixen mitjançant el protocol HTTP.
HTTPS: Aproximadament 43.765 IP úniques tenen instàncies que serveixen mitjançant el protocol HTTPS.
La majoria de les instàncies encara estan exposades mitjançant HTTP no xifrat, la qual cosa podria plantejar certs riscos de seguretat. (Tingueu en compte: Una IP pot admetre tant HTTP com HTTPS, de manera que la suma dels recomptes d'IP aquí pot superar el nombre total d'IP úniques)
7.3 Principals Proveïdors d'Allotjament (Organització AS)
L'allotjament d'instàncies d'Ollama està altament concentrat entre els proveïdors de serveis al núvol.
Rànquing | Organització AS | Recompte d'IP úniques | Principal Proveïdor Associat |
---|---|---|---|
1 | AMAZON-02 | 53658 | AWS |
2 | AMAZON-AES | 5539 | AWS |
3 | Chinanet | 4964 | China Telecom |
4 | Hangzhou Alibaba Advertising Co.,Ltd. | 2647 | Alibaba Cloud |
5 | HENGTONG-IDC-LLC | 2391 | Proveïdor d'Allotjament |
6 | Shenzhen Tencent Computer Systems Company Limited | 1682 | Tencent Cloud |
7 | CHINA UNICOM China169 Backbone | 1606 | China Unicom |
8 | Hetzner Online GmbH | 972 | Hetzner |
9 | China Unicom Beijing Province Network | 746 | China Unicom (Pequín) |
10 | LEASEWEB-USA-LAX | 735 | Leaseweb |

AWS (AMAZON-02, AMAZON-AES) té la major quota, seguida dels principals operadors de telecomunicacions xinesos i proveïdors de serveis al núvol (com Alibaba Cloud, Tencent Cloud). Altres proveïdors d'allotjament com Hetzner i Leaseweb també tenen quotes significatives.
8. Seguretat i Altres Observacions
Informació de Versió: Per raons de seguretat, no hem llistat estadístiques sobre les versions d'Ollama.
Risc d'Exposició HTTP: Com s'ha esmentat anteriorment, un gran nombre d'instàncies d'Ollama estan exposades mitjançant HTTP sense xifratge TLS, la qual cosa pot fer que el contingut de la comunicació (p. ex., interaccions amb models) sigui vulnerable a l'escolta clandestina o la manipulació. Es recomana als usuaris configurar un proxy invers i activar HTTPS.
Accessibilitat de l'API: Les dades d'aquest informe es basen en instàncies d'Ollama la interfície
/api/tags
de les quals és accessible públicament. El nombre real de desplegaments pot ser més alt, però algunes instàncies podrien estar desplegades en xarxes privades o tenir l'accés extern restringit per tallafocs.
9. Conclusió i Breu Revisió
Aquest informe, mitjançant l'anàlisi de dades de 99.412 instàncies d'Ollama accessibles públicament a nivell global (mitjançant la seva interfície /api/tags
), extreu les següents conclusions i observacions principals:
1. Visió General del Desplegament Global i Distribució Geogràfica:
Ollama, com a eina convenient per executar models grans localment, ha estat àmpliament desplegada a nivell global. Aquesta anàlisi va identificar 99.412 IP úniques accessibles públicament.
Alta Concentració Geogràfica: Els Estats Units i la Xina són els dos països/regions amb els desplegaments d'Ollama més concentrats, representant col·lectivament una porció significativa del total d'instàncies accessibles (EUA 29.195, Xina 16.464). Països com Japó, Alemanya, el Regne Unit, l'Índia i Singapur també tenen xifres de desplegament notables.
Punts Calents Urbans: Als EUA, ciutats com Ashburn, Portland i Columbus lideren els desplegaments; a la Xina, ciutats tecnològicament avançades com Pequín, Hangzhou, Xangai i Guangzhou són els principals llocs de desplegament. Això sovint està relacionat amb la concentració d'empreses tecnològiques, centres de dades i comunitats de desenvolupadors.
2. Tendències de Desplegament de Models d'IA:
Etiquetes de Model Populars: Les etiquetes generals més recents com
llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
són les més populars. Versions optimitzades específicament comllama3:8b-text-q4_K_S
també són afavorides pel seu bon equilibri.Famílies de Models Dominants: La família
llama
lidera amb un marge absolut, seguida perqwen2
. L'alta classificació de famílies de models d'incrustació comnomic-bert
ibert
és notable, possiblement relacionada amb el comportament per defecte d'Ollama.Preferències de Mida de Paràmetres: Els models amb paràmetres de 7B-8B són actualment el corrent principal. Els models lleugers a nivell de milions de paràmetres i els models grans per sobre de 10B també tenen els seus respectius mercats. Una comparació EUA-Xina mostra que els EUA despleguen més models de mida mitjana, mentre que la Xina és més activa en l'exploració de models petits i extra grans.
Opcions de Nivell de Quantificació: La quantificació de 4 bits (especialment
Q4_K_M
iQ4_0
) és l'opció aclaparadora.F16
, com a opció de major fidelitat, també ocupa una posició important.Complexitat de les Metadades: L'anàlisi de les metadades del model (p. ex., interpretar el camp de la família del model) de vegades revela complexitats entre els seus registres i els noms dels models o la comprensió comuna, destacant la diversitat de la gestió de metadades en l'ecosistema de codi obert.
3. Infraestructura Tècnica:
Entorns d'Allotjament: Un gran nombre d'instàncies d'Ollama s'allotgen en els principals proveïdors de serveis al núvol com AWS, Alibaba Cloud, Tencent Cloud, així com a les xarxes dels principals operadors de telecomunicacions nacionals.
Ports de Servei: El port per defecte d'Ollama
11434
és el més comunament utilitzat, però un nombre considerable d'instàncies també s'exposen mitjançant ports web estàndard.
4. Avaluació Objectiva:
Popularitat d'Ollama: Les dades mostren clarament l'alta taxa d'adopció d'Ollama entre desenvolupadors i entusiastes de la IA a tot el món.
Vitalitat de l'Ecosistema de Codi Obert: La diversitat de models populars i l'ús generalitzat de diverses versions de paràmetres i quantificació reflecteixen el desenvolupament creixent de l'ecosistema de models d'IA de codi obert.
Equilibri en les Preferències de l'Usuari: En triar models, els usuaris tendeixen a buscar un equilibri entre la capacitat del model, l'eficiència operativa i els costos de maquinari.
Seguretat i Obertura: Un gran nombre d'instàncies permeten l'accés públic a les seves llistes de models, la qual cosa, tot i ser convenient per a la comunitat, també pot plantejar riscos de seguretat.
5. Perspectives de Futur:
Amb l'aparició de models més eficients i petits i nous avenços en la tecnologia de quantificació, s'espera que la barrera de desplegament per a Ollama continuï disminuint.
L'estandardització de les metadades dels models i els models compartits per la comunitat és crucial per millorar la transparència i la usabilitat de l'ecosistema.
En resum, Ollama s'està convertint en un pont important que connecta models de llenguatge grans d'avantguarda amb una àmplia gamma de desenvolupadors, investigadors i fins i tot usuaris generals. Aquesta anàlisi de dades proporciona coneixements valuosos per entendre el seu estat de desplegament global actual i les preferències dels usuaris.
Comentaris
comments.comments (0)
Please login first
Sign in