Tenthe ai directory logo
Una Nova Perspectiva sobre la Cursa de la IA entre els EUA i la Xina: Comparació del Desplegament d'Ollama el 2025 i Coneixements sobre les Tendències Globals dels Models d'IA

Una Nova Perspectiva sobre la Cursa de la IA entre els EUA i la Xina: Comparació del Desplegament d'Ollama el 2025 i Coneixements sobre les Tendències Globals dels Models d'IA

Ryan@ryan
0 Visualitzacions0 Comentaris

Ollama és una eina popular de codi obert dissenyada per simplificar el procés d'executar, crear i compartir models de llenguatge grans (LLM) localment. Agrupa pesos de models, configuració i dades en un paquet definit per un Modelfile, i proporciona una API per interactuar amb aquests models. Això permet als desenvolupadors i investigadors desplegar i experimentar fàcilment amb diversos models d'IA avançats en ordinadors personals o servidors.

1. Introducció

Ollama és una eina popular de codi obert dissenyada per simplificar el procés d'executar, crear i compartir models de llenguatge grans (LLM) localment. Agrupa pesos de models, configuració i dades en un paquet definit per un Modelfile, i proporciona una API per interactuar amb aquests models. Això permet als desenvolupadors i investigadors desplegar i experimentar fàcilment amb diversos models d'IA avançats en ordinadors personals o servidors.

Aquest informe té com a objectiu revelar tendències de desplegament, preferències de models, distribució geogràfica i característiques de la xarxa mitjançant l'anàlisi de dades de 174.590 instàncies d'Ollama desplegades globalment.

Nota: Les estadístiques de dades del Capítol 5 i del Capítol 7 provenen de les 174.590 instàncies. Les dades del Capítol 6 provenen d'instàncies accessibles. Per raons de seguretat, no hem llistat estadístiques sobre les versions d'Ollama.

  • Dades a data de: 24 d'abril de 2025.

  • Font de l'informe: Tenthe AI https://tenthe.com

  • Autor: Ryan

2. Resum Executiu

Aquest informe es basa en l'anàlisi de dades d'escaneig i sondeig d'API d'instàncies d'Ollama disponibles públicament a tot el món. Les principals conclusions inclouen:

  • Globalment, entre aproximadament 174.590 registres identificats inicialment mitjançant Fofa (99.412 IP úniques), 41.021 instàncies d'Ollama amb API accessibles van ser sondejades amb èxit, distribuïdes en 24.038 adreces IP úniques (una taxa d'accessibilitat d'aproximadament 24,18%).

  • Geogràficament, els Estats Units i la Xina són els països amb el major nombre de desplegaments d'Ollama. Els proveïdors de serveis al núvol, particularment AWS, Alibaba Cloud i Tencent Cloud, són els principals amfitrions per a les instàncies d'Ollama.

  • Els desplegaments de models mostren diversitat, amb els models de les sèries llama3, deepseek-r1, mistral i qwen sent àmpliament populars. Entre ells, llama3:latest i deepseek-r1:latest són les dues etiquetes de model més àmpliament desplegades.

  • Els models amb paràmetres de 7B-8B són la primera opció per als usuaris, mentre que els models quantificats de 4 bits com Q4_K_M i Q4_0 són àmpliament adoptats pel seu bon equilibri entre rendiment i consum de recursos.

  • El port per defecte 11434 és el més comunament utilitzat, i la majoria de les instàncies exposen serveis mitjançant el protocol HTTP.

3. Fonts de Dades i Metodologia

Les dades d'aquest informe provenen principalment de dues etapes:

  1. Escaneig Inicial: Utilitzant motors de cerca d'espais de xarxa com Fofa, amb la condició app="Ollama" && is_domain=false, per identificar inicialment possibles instàncies d'Ollama desplegades globalment. Aquesta etapa va trobar 174.590 registres, implicant 99.412 IP úniques després de la deduplicació.

  2. Verificació d'API i Enriquiment de Dades: Sondejant el punt final de l'API ip:port/api/tags per a les adreces IP escanejades inicialment per confirmar l'accessibilitat dels serveis d'Ollama i obtenir informació sobre els models d'IA específics desplegats. Aquesta etapa va confirmar 41.021 instàncies d'Ollama que van respondre amb èxit (de 24.038 IP úniques, amb dades emmagatzemades a la taula ollama).

  3. Les dades finals s'emmagatzemen a la taula ollama.

L'anàlisi d'aquest informe es basa principalment en dades de la taula ollama, que conté registres d'API sondejades amb èxit i la seva informació detallada, incloent IP, port, ubicació geogràfica i la resposta JSON (que conté la llista de models), etc.

4. Estadístiques Generals de Desplegament

  • Nombre de registres inicials de l'escaneig de Fofa: 174.590

  • Nombre d'IP úniques de l'escaneig inicial de Fofa: 99.412

  • Nombre d'instàncies d'Ollama que accedeixen amb èxit a /api/tags: 41.021 (de registres on status = 'success' a la taula ollama)

  • Nombre d'adreces IP úniques corresponents: 24.038 (de registres on status = 'success' a la taula ollama)

  • Ràtio d'IP accessibles respecte a les IP identificades inicialment: (24038 / 99412) * 100% ≈ 24,18%

Això indica que, entre totes les instàncies d'Ollama identificades mitjançant Fofa, aproximadament una quarta part tenen la seva interfície /api/tags accessible públicament, la qual cosa ens permet recuperar informació sobre els seus models desplegats.

5. Anàlisi de la Distribució Geogràfica

5.1 Els 20 Principals Països/Regions de Desplegament

La taula següent mostra els 20 principals països/regions classificats pel nombre d'IP úniques amb instàncies d'Ollama.

Rànquing

País/Regió

Recompte d'IP úniques

1

Estats Units

29195

2

Xina

16464

3

Japó

5849

4

Alemanya

5438

5

Regne Unit

4014

6

Índia

3939

7

Singapur

3914

8

Corea del Sud

3773

9

Irlanda

3636

10

França

3599

11

Austràlia

3558

12

Brasil

2909

13

Canadà

2763

14

Sud-àfrica

2742

15

Suècia

2113

16

RAE de Hong Kong, Xina

1277

17

Israel

675

18

Taiwan, Xina

513

19

Rússia

475

20

Finlàndia

308

Els 20 principals països/regions de desplegament d'Ollama

5.2 Els 20 Principals Desplegaments Urbans Globals

La taula següent mostra les 20 principals ciutats del món classificades pel nombre d'IP úniques amb instàncies d'Ollama.

Rànquing

Ciutat

País/Regió

Recompte d'IP úniques

1

Ashburn

Estats Units

5808

2

Portland

Estats Units

5130

3

Singapur

Singapur

3914

4

Frankfurt am Main

Alemanya

3908

5

Pequín

Xina

3906

6

Londres

Regne Unit

3685

7

Columbus

Estats Units

3672

8

Bombai

Índia

3637

9

Dublín

Irlanda

3631

10

Tòquio

Japó

3620

11

Sydney

Austràlia

3487

12

París

França

3175

13

San Jose

Estats Units

2815

14

São Paulo

Brasil

2753

15

Ciutat del Cap

Sud-àfrica

2692

16

Mont-real

Canadà

2535

17

Seattle

Estats Units

2534

18

Hangzhou

Xina

2447

19

Seül

Corea del Sud

2327

20

Osaka

Japó

2184

5.3 Distribució de les 10 Principals Ciutats dels EUA

Rànquing

Ciutat

Recompte d'IP úniques

1

Ashburn

5808

2

Portland

5130

3

Columbus

3672

4

San Jose

2815

5

Seattle

2534

6

Westlake Village

1714

7

Boardman

855

8

Florence

776

9

San Francisco

753

10

Boulder

642

Distribució de les 10 principals ciutats dels EUA d'Ollama

5.4 Distribució de les 10 Principals Ciutats de la Xina Continental

Els desplegaments a Hong Kong i Taiwan no es reflecteixen a la taula de les 10 principals ciutats, ja que ja estan inclosos a les estadístiques de país/regió.

Rànquing

Ciutat

País (country_name)

Recompte d'IP úniques

1

Pequín

Xina

3906

2

Hangzhou

Xina

2447

3

Xangai

Xina

1335

4

Guangzhou

Xina

1296

5

Shenzhen

Xina

768

6

Chengdu

Xina

469

7

Nanjing

Xina

329

8

Chongqing

Xina

259

9

Suzhou

Xina

257

10

Wuhan

Xina

249

Els 20 principals desplegaments urbans globals d'Ollama

5.5 Comparació del Desplegament de les 10 Principals Ciutats dels EUA i la Xina

Per comparar de manera més intuïtiva els desplegaments d'Ollama a nivell de ciutat als EUA i la Xina, la taula següent juxtaposa els recomptes de desplegament d'IP úniques per a les 10 ciutats principals d'ambdós països:

Rànquing

Ciutat dels EUA (Top 10)

Recompte d'IP úniques EUA

Ciutat de la Xina (Top 10)

Recompte d'IP úniques Xina

1

Ashburn

5808

Pequín

3906

2

Portland

5130

Hangzhou

2447

3

Columbus

3672

Xangai

1335

4

San Jose

2815

Guangzhou

1296

5

Seattle

2534

Shenzhen

768

6

Westlake Village

1714

Chengdu

469

7

Boardman

855

Nanjing

329

8

Florence

776

Chongqing

259

9

San Francisco

753

Suzhou

257

10

Boulder

642

Wuhan

249

Comparació del desplegament de les 10 principals ciutats dels EUA i la Xina d'Ollama

Breu Comentari:

  • Volum de Ciutats capdavanteres: Les 3 principals ciutats dels EUA (Ashburn, Portland, Columbus) tenen cadascuna més de 3.000 IP úniques amb desplegaments d'Ollama. La ciutat principal de la Xina (Pequín) té més de 3.000 desplegaments, i la seva segona ciutat (Hangzhou) té més de 2.000.

  • Centres Tecnològics i Econòmics: Moltes de les ciutats llistades en ambdós països són centres d'innovació tecnològica coneguts o regions econòmiques importants.

  • Regions de Centres de Dades: La inclusió de ciutats dels EUA com Ashburn també reflecteix que les instàncies d'Ollama poden estar desplegades en gran mesura dins de servidors al núvol i centres de dades.

  • Diferències de Distribució: En general, el nombre total d'IP a les 10 principals ciutats dels EUA és significativament més alt que a les 10 principals ciutats de la Xina. No obstant això, ambdós països mostren un patró on unes poques ciutats centrals representen la gran majoria dels desplegaments d'Ollama.

Aquesta comparació a nivell de ciutat revela a més que la promoció i aplicació d'Ollama, com a eina de desenvolupament, estan estretament relacionades amb els ecosistemes tecnològics regionals i el desenvolupament industrial.

6. Anàlisi de Models

6.1 Visió General Breu de Models d'IA, Paràmetres i Quantificació

Ollama admet una varietat de models de llenguatge grans de codi obert. Aquests models es distingeixen típicament per les següents característiques:

6.1.1 Famílies de Models Comunes

La comunitat actual de codi obert ha vist un augment de famílies d'LLM excel·lents, cadascuna amb les seves pròpies característiques:

  • Sèrie Llama (Meta AI): Com Llama 2, Llama 3, Code Llama. Coneguda per les seves potents capacitats generals i un ampli suport de la comunitat, la qual cosa ha donat lloc a nombroses versions afinades. Models com llama3.1, hermes3 vistos a les nostres dades sovint es basen en l'arquitectura Llama.

  • Sèrie Mistral (Mistral AI): Com Mistral 7B, Mixtral 8x7B. Guanyant atenció per la seva eficiència i alt rendiment, especialment els seus models MoE (Mixture of Experts).

  • Sèrie Gemma (Google): Com Gemma 2B, Gemma 7B. Models de pes obert publicats per Google, amb tecnologia derivada dels seus models Gemini més potents.

  • Sèrie Phi (Microsoft): Com Phi-2, Phi-3. Es centra en models de mida petita però capaços, emfatitzant els "SLM (Small Language Models)".

  • Sèrie DeepSeek (DeepSeek AI): Com DeepSeek Coder, DeepSeek LLM. Models d'IA xinesos que excel·leixen en codificació i tasques generals.

  • Sèrie Qwen (Alibaba Tongyi Qianwen): Com Qwen1.5. Una sèrie de models llançada per l'Acadèmia DAMO d'Alibaba, que admet múltiples idiomes i tasques.

  • Hi ha molts altres models excel·lents, com Yi (01.AI), Command R (Cohere), etc.

Ollama, mitjançant el seu mecanisme Modelfile, permet als usuaris utilitzar fàcilment aquests models base o les seves versions afinades. Els noms dels models sovint segueixen el format família:mida-variant-quantificació, per exemple, llama3:8b-instruct-q4_K_M.

6.1.2 Paràmetres del Model (Mida dels Paràmetres)

El nombre de paràmetres del model (generalment en B - Milers de milions; o M - Milions) és un indicador important de l'escala i la capacitat potencial d'un model. Les mides de paràmetres comunes inclouen:

  • Models Petits: < 7B (p. ex., 1.5B, 2B, 3B). Normalment s'executen ràpidament amb un baix consum de recursos, adequats per a tasques específiques o entorns amb recursos limitats.

  • Models Mitjans: 7B, 8B, 13B. Aconsegueixen un bon equilibri entre capacitat i consum de recursos, actualment una de les mides més populars a la comunitat.

  • Models Grans: 30B, 33B, 40B, 70B+. Generalment més capaços, però també requereixen més recursos computacionals (RAM, VRAM) i temps d'inferència més llargs.

El camp parameter_size a les nostres dades (p. ex., "8.0B", "7B", "134.52M") indica això.

6.1.3 Versions de Quantificació (Nivell de Quantificació)

La quantificació és una tècnica per reduir la mida del model i accelerar la inferència disminuint la precisió numèrica dels pesos del model (p. ex., de coma flotant de 16 bits FP16 a enter de 4 bits INT4).

  • Nivells de Quantificació Comuns: Ollama i el format GGUF (utilitzat per Llama.cpp) admeten diverses estratègies de quantificació, com ara Q2_K, Q3_K_S, Q3_K_M, Q3_K_L, Q4_0, Q4_K_M, Q5_K_M, Q6_K, Q8_0, etc.

    • El número (p. ex., 2, 3, 4, 5, 6, 8) indica aproximadament el nombre de bits.

    • La quantificació de la sèrie K (p. ex., Q4_K_M) són mètodes de quantificació millorats introduïts a llama.cpp, que generalment aconsegueixen un millor rendiment amb el mateix nombre de bits.

    • _S, _M, _L solen denotar diferents variants de K-quants, que afecten diferents parts del model.

    • F16 (FP16) representa coma flotant de 16 bits, sovint considerat no quantificat o una versió de quantificació base. F32 (FP32) és precisió completa.

  • Compromís: Una quantificació més alta (menor nombre de bits) resulta en models més petits i ràpids, però normalment comporta una certa pèrdua de rendiment (el model funciona pitjor). Els usuaris han de triar en funció del seu maquinari i els requisits de qualitat del model.

El camp quantization_level a les nostres dades (p. ex., "Q4_K_M", "F16") indica això.

6.2 Noms de Models Més Populars

La taula següent mostra les 10 etiquetes de model principals classificades pel nombre de desplegaments d'IP úniques, incloent informació sobre la seva família, mida de paràmetres i nivell de quantificació.

Rànquing

Nom del Model (model_name)

Desplegaments d'IP úniques

Instàncies de Desplegament Totals

1

llama3:latest

12659

24628

2

deepseek-r1:latest

12572

24578

3

mistral:latest

11163

22638

4

qwen:latest

9868

21007

5

llama3:8b-text-q4_K_S

9845

20980

6

smollm2:135m

4058

5016

7

llama2:latest

3124

3928

8

hermes3:8b

2856

3372

9

llama3.1:8b

2714

3321

10

qwen2.5:1.5b

2668

3391

Noms de models més populars d'Ollama

(Nota: Els Desplegaments d'IP úniques es refereixen al nombre d'adreces IP úniques que han desplegat almenys una instància d'aquesta etiqueta de model. Les Instàncies de Desplegament Totals es refereixen al nombre total de vegades que aquesta etiqueta de model apareix a la llista models en totes les IP. Una IP pot apuntar a la mateixa etiqueta de model múltiples vegades mitjançant diferents mitjans o registres, o una IP pot executar múltiples instàncies de diferents etiquetes que pertanyen al mateix model base.)

Observacions Inicials (Noms de Models Populars):

  • Els models amb l'etiqueta :latest són molt comuns, com ara llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest. Això indica que molts usuaris prefereixen obtenir directament la darrera versió dels models.

  • Els models de la sèrie Llama (p. ex., llama3:latest, llama3:8b-text-q4_K_S, llama2:latest, llama3.1:8b) ocupen múltiples llocs, mostrant la seva forta popularitat.

  • Models d'IA xinesos com deepseek-r1:latest (sèrie DeepSeek) i qwen:latest (sèrie Tongyi Qianwen) també tenen un rendiment impressionant, classificant-se alt.

  • Versions quantificades específiques com llama3:8b-text-q4_K_S també van arribar al top ten, indicant la preferència de l'usuari per equilibris específics de rendiment/consum de recursos.

  • Models petits com smollm2:135m i qwen2.5:1.5b també tenen un nombre considerable de desplegaments, satisfent la demanda de models lleugers.

6.3 Famílies de Models Principals

La família del model (camp details.family) representa l'arquitectura base o el llinatge tecnològic principal del model. A continuació es mostren les famílies de models amb un major nombre de desplegaments basats en la nostra anàlisi de dades:

Rànquing

Família del Model (family)

Desplegaments d'IP úniques (Estimat)

Instàncies de Desplegament Totals (Estimat)

1

llama

~20250

~103480

2

qwen2

~17881

~61452

3

nomic-bert

~1479

~1714

4

gemma3

~1363

~2493

5

bert

~1228

~2217

6

mllama

~943

~1455

7

gemma

~596

~750

8

deepseek2

~484

~761

9

phi3

~368

~732

10

gemma2

~244

~680

Famílies de models principals d'Ollama

(Nota: Els valors específics aquí són estimats i resumits basant-se en la llista de detalls dels 50 models principals consultada anteriorment i poden diferir lleugerament de les estadístiques globals precises, però la tendència és representativa.)

Observacions Inicials (Famílies de Models Populars):

  • La família llama manté una posició dominant absoluta, coherent amb el fet que els models de la sèrie Llama són la base de molts LLM de codi obert moderns i la seva pròpia aplicació generalitzada. El seu vast ecosistema i nombroses versions afinades el converteixen en l'opció més popular.

  • qwen2 (sèrie Tongyi Qianwen Qwen2), com la segona família més gran, mostra la seva forta competitivitat a la Xina i fins i tot a nivell mundial.

  • L'aparició de nomic-bert i bert és notable. Encara que no es consideren típicament "models de llenguatge grans" (conversacionals), sinó més aviat models d'incrustació de text o altres models base de processament del llenguatge natural, el seu alt volum de desplegament suggereix que Ollama també s'utilitza àmpliament per a aquestes tasques. Ollama descarrega automàticament un model d'incrustació per defecte (p. ex., nomic-embed-text) en realitzar certes operacions (com generar vectors d'incrustació), la qual cosa probablement és la raó principal per la qual aquestes famílies es classifiquen alt.

  • La sèrie gemma de Google (incloent gemma3, gemma, gemma2) també mostra taxes d'adopció decents.

  • Altres famílies de models conegudes com deepseek2 i phi3 també van arribar al top ten.

  • mllama pot representar una col·lecció de diversos models híbrids, modificats o anomenats per la comunitat basats en Llama.

6.4 Estadístiques de la Mida Original dels Paràmetres Principals

La mida dels paràmetres del model (camp details.parameter_size) és un indicador important de l'escala del model. A causa de les representacions variades de les mides dels paràmetres a les dades en brut (p. ex., "8.0B", "7B", "134.52M"), comptem directament aquestes cadenes originals. A continuació es mostren les representacions de la mida dels paràmetres amb un major nombre de desplegaments:

Rànquing

Mida dels Paràmetres (Cadena Original)

Desplegaments d'IP úniques (Estimat)

Instàncies de Desplegament Totals (Estimat)

1

8.0B

~14480

~52577

2

7.6B

~14358

~28105

3

7.2B

~11233

~22907

4

4B

~9895

~21058

5

7B

~4943

~11738

6

134.52M

~4062

~5266

7

1.5B

~2759

~3596

8

13B

~2477

~3311

9

1.8B

~2034

~2476

10

3.2B

~1553

~2244

11

137M

~1477

~1708

12

12.2B

~1421

~2000

13

32.8B

~1254

~2840

14

14.8B

~1123

~2091

15

4.3B

~943

~1194

Estadístiques de la mida original dels paràmetres principals d'Ollama

(Nota: Els valors són estimats basant-se en un resum de la informació dels paràmetres de la llista de detalls dels 50 models principals consultada anteriorment.)

Observacions Inicials (Mides de Paràmetres Populars):

  • Els models a l'escala de 7B a 8B són el corrent principal absolut: "8.0B", "7.6B", "7.2B", "7B" ocupen la gran majoria dels desplegaments. Això correspon típicament a models molt populars a la comunitat, com les sèries Llama 2/3 7B/8B, Mistral 7B, i les seves diverses versions afinades. Aconsegueixen un bon equilibri entre rendiment i consum de recursos.

  • Els models a escala 4B també ocupen una posició important: L'alt desplegament de "4B" és notable.

  • Els models lleugers a nivell de milions de paràmetres (M) estan generalitzats: L'alta classificació de "134.52M" i "137M" està probablement relacionada amb la popularitat dels models d'incrustació (com nomic-embed-text) o models especialitzats molt petits (com la sèrie smollm). Aquests models són petits, ràpids i adequats per a escenaris amb recursos limitats o sensibles a la latència.

  • Demanda estable de models petits en el rang 1B-4B: Els models amb mides de paràmetres com "1.5B", "1.8B", "3.2B", "4.3B" també són afavorits per un segment d'usuaris.

  • Models grans per sobre de 10B: Com "13B", "12.2B", "32.8B", "14.8B", tot i que no tenen tants desplegaments d'IP úniques com el nivell 7-8B, encara tenen un volum de desplegament considerable, la qual cosa indica una demanda de la comunitat per models més capaços, malgrat els seus requisits de maquinari més alts.

6.5 Estadístiques del Nivell de Quantificació Principal

El nivell de quantificació del model (camp details.quantization_level) reflecteix la precisió dels pesos adoptada pel model per reduir la mida i accelerar la inferència. A continuació es mostren els nivells de quantificació amb un major nombre de desplegaments:

Rànquing

Nivell de Quantificació (Cadena Original)

Desplegaments d'IP úniques (Estimat)

Instàncies de Desplegament Totals (Estimat)

1

Q4_K_M

~20966

~53688

2

Q4_0

~18385

~88653

3

Q4_K_S

~9860

~21028

4

F16

~5793

~9837

5

Q8_0

~596

~1574

6

unknown

~266

~1318

7

Q5_K_M

~97

~283

8

F32

~85

~100

9

Q6_K

~60

~178

10

Q2_K

~54

~140

Estadístiques del nivell de quantificació principal d'Ollama

(Nota: Els valors són estimats basant-se en un resum de la informació de quantificació de la llista de detalls dels 50 models principals consultada anteriorment.)

Observacions Inicials (Nivells de Quantificació Populars):

  • La quantificació de 4 bits és la solució dominant: Q4_K_M, Q4_0 i Q4_K_S, aquests tres nivells de quantificació de 4 bits, encapçalen absolutament les llistes. Això indica clarament que la comunitat adopta àmpliament la quantificació de 4 bits com la solució preferida per aconseguir el millor equilibri entre el rendiment del model, la velocitat d'inferència i l'ocupació de recursos (especialment VRAM).

  • F16 (coma flotant de 16 bits) encara ocupa un lloc significatiu: Com a versió no quantificada (o només bàsicament quantificada), l'alt desplegament de F16 mostra que un nombre considerable d'usuaris l'escullen per perseguir la màxima fidelitat del model o perquè tenen suficients recursos de maquinari.

  • Q8_0 (quantificació de 8 bits) com a suplement: Proporciona una opció entre 4 bits i F16.

  • Aparició de valors unknown: Indica que la informació del nivell de quantificació falta o no és estàndard en algunes metadades del model.

6.6 Distribució de la Potència de Càlcul d'IA (per Mida de Paràmetres del Model): Xina vs. EUA

Per obtenir una comprensió més profunda de com es despleguen models de diferents escales als principals països, vam categoritzar i comptar les mides dels paràmetres dels models desplegats en instàncies d'Ollama als Estats Units i la Xina. La mida dels paràmetres sovint es considera un indicador important de la complexitat del model i la demanda potencial de potència de càlcul d'IA.

Estàndard de Classificació d'Escala de Paràmetres:

  • Petita: < 1 Mil Milions de paràmetres (< 1B)

  • Mitjana: D'1 Mil Milions a < 10 Mil Milions de paràmetres (1B a < 10B)

  • Gran: De 10 Mil Milions a < 50 Mil Milions de paràmetres (10B a < 50B)

  • Extra Gran: >= 50 Mil Milions de paràmetres (>= 50B)

La taula següent mostra el nombre d'IP úniques que despleguen models de diferents escales de paràmetres als EUA i la Xina:

País

Categoria d'Escala de Paràmetres

Recompte d'IP úniques

Xina

Petita (<1B)

3313

Xina

Mitjana (1B a <10B)

4481

Xina

Gran (10B a <50B)

1548

Xina

Extra Gran (>=50B)

280

Estats Units

Petita (<1B)

1368

Estats Units

Mitjana (1B a <10B)

6495

Estats Units

Gran (10B a <50B)

1301

Estats Units

Extra Gran (>=50B)

58

La taula següent mostra el nombre d'IP úniques que despleguen models de diferents escales de paràmetres als EUA i la Xina

Coneixements i Anàlisi de Dades:

  1. Els models de mida mitjana són el corrent principal, però amb diferents enfocaments:

    • Estats Units: Els desplegaments de models de mida mitjana (1B-10B) són absolutament dominants als EUA (6495 IP úniques).

    • Xina: Els models de mida mitjana (4481 IP úniques) també són el tipus més desplegat a la Xina, però el desplegament de models petits (<1B) a la Xina (3313 IP úniques) és molt considerable.

  2. Diferència significativa en models petits: El desplegament a gran escala de models petits a la Xina pot reflectir una preferència per la computació a la vora (edge computing), aplicacions d'IA mòbils i escenaris similars.

  3. Desplegament de models grans i extra grans: La Xina mostra una major activitat en l'exploració de models grans i extra grans (encara que des d'una base més petita).

  4. Inferència sobre la inversió global en potència de càlcul: La base dels EUA en models de mida mitjana mostra la prevalença d'aplicacions pràctiques d'IA. La Xina té un avantatge en models petits i està explorant activament models grans.

  5. Implicacions per a les tendències globals: És probable que els models de mida mitjana siguin populars a nivell mundial. Diferents regions poden tenir estratègies d'adopció de models variables basades en els seus ecosistemes i condicions de recursos.

Segmentant les escales de paràmetres dels models a la Xina i els EUA, podem veure els diferents enfocaments i potencials de desenvolupament de les aplicacions d'Ollama en els dos països.

7. Perspectius de la Xarxa

7.1 Ús de Ports

  • 11434 (port per defecte): La gran majoria (30.722 IP úniques) d'instàncies d'Ollama s'executen al port per defecte 11434.

  • Altres ports comuns: Ports com 80 (1.619 IP úniques), 8080 (1.571 IP úniques), 443 (1.339 IP úniques), etc., també s'utilitzen, la qual cosa pot indicar que algunes instàncies estan desplegades darrere d'un proxy invers o que els usuaris han personalitzat el port.

7.2 Ús de Protocols

  • HTTP: Aproximadament 65.506 IP úniques tenen instàncies que serveixen mitjançant el protocol HTTP.

  • HTTPS: Aproximadament 43.765 IP úniques tenen instàncies que serveixen mitjançant el protocol HTTPS.

La majoria de les instàncies encara estan exposades mitjançant HTTP no xifrat, la qual cosa podria plantejar certs riscos de seguretat. (Tingueu en compte: Una IP pot admetre tant HTTP com HTTPS, de manera que la suma dels recomptes d'IP aquí pot superar el nombre total d'IP úniques)

7.3 Principals Proveïdors d'Allotjament (Organització AS)

L'allotjament d'instàncies d'Ollama està altament concentrat entre els proveïdors de serveis al núvol.

Rànquing

Organització AS

Recompte d'IP úniques

Principal Proveïdor Associat

1

AMAZON-02

53658

AWS

2

AMAZON-AES

5539

AWS

3

Chinanet

4964

China Telecom

4

Hangzhou Alibaba Advertising Co.,Ltd.

2647

Alibaba Cloud

5

HENGTONG-IDC-LLC

2391

Proveïdor d'Allotjament

6

Shenzhen Tencent Computer Systems Company Limited

1682

Tencent Cloud

7

CHINA UNICOM China169 Backbone

1606

China Unicom

8

Hetzner Online GmbH

972

Hetzner

9

China Unicom Beijing Province Network

746

China Unicom (Pequín)

10

LEASEWEB-USA-LAX

735

Leaseweb

L'allotjament d'instàncies d'Ollama està altament concentrat entre els proveïdors de serveis al núvol

AWS (AMAZON-02, AMAZON-AES) té la major quota, seguida dels principals operadors de telecomunicacions xinesos i proveïdors de serveis al núvol (com Alibaba Cloud, Tencent Cloud). Altres proveïdors d'allotjament com Hetzner i Leaseweb també tenen quotes significatives.

8. Seguretat i Altres Observacions

  • Informació de Versió: Per raons de seguretat, no hem llistat estadístiques sobre les versions d'Ollama.

  • Risc d'Exposició HTTP: Com s'ha esmentat anteriorment, un gran nombre d'instàncies d'Ollama estan exposades mitjançant HTTP sense xifratge TLS, la qual cosa pot fer que el contingut de la comunicació (p. ex., interaccions amb models) sigui vulnerable a l'escolta clandestina o la manipulació. Es recomana als usuaris configurar un proxy invers i activar HTTPS.

  • Accessibilitat de l'API: Les dades d'aquest informe es basen en instàncies d'Ollama la interfície /api/tags de les quals és accessible públicament. El nombre real de desplegaments pot ser més alt, però algunes instàncies podrien estar desplegades en xarxes privades o tenir l'accés extern restringit per tallafocs.

9. Conclusió i Breu Revisió

Aquest informe, mitjançant l'anàlisi de dades de 99.412 instàncies d'Ollama accessibles públicament a nivell global (mitjançant la seva interfície /api/tags), extreu les següents conclusions i observacions principals:

1. Visió General del Desplegament Global i Distribució Geogràfica:

  • Ollama, com a eina convenient per executar models grans localment, ha estat àmpliament desplegada a nivell global. Aquesta anàlisi va identificar 99.412 IP úniques accessibles públicament.

  • Alta Concentració Geogràfica: Els Estats Units i la Xina són els dos països/regions amb els desplegaments d'Ollama més concentrats, representant col·lectivament una porció significativa del total d'instàncies accessibles (EUA 29.195, Xina 16.464). Països com Japó, Alemanya, el Regne Unit, l'Índia i Singapur també tenen xifres de desplegament notables.

  • Punts Calents Urbans: Als EUA, ciutats com Ashburn, Portland i Columbus lideren els desplegaments; a la Xina, ciutats tecnològicament avançades com Pequín, Hangzhou, Xangai i Guangzhou són els principals llocs de desplegament. Això sovint està relacionat amb la concentració d'empreses tecnològiques, centres de dades i comunitats de desenvolupadors.

2. Tendències de Desplegament de Models d'IA:

  • Etiquetes de Model Populars: Les etiquetes generals més recents com llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest són les més populars. Versions optimitzades específicament com llama3:8b-text-q4_K_S també són afavorides pel seu bon equilibri.

  • Famílies de Models Dominants: La família llama lidera amb un marge absolut, seguida per qwen2. L'alta classificació de famílies de models d'incrustació com nomic-bert i bert és notable, possiblement relacionada amb el comportament per defecte d'Ollama.

  • Preferències de Mida de Paràmetres: Els models amb paràmetres de 7B-8B són actualment el corrent principal. Els models lleugers a nivell de milions de paràmetres i els models grans per sobre de 10B també tenen els seus respectius mercats. Una comparació EUA-Xina mostra que els EUA despleguen més models de mida mitjana, mentre que la Xina és més activa en l'exploració de models petits i extra grans.

  • Opcions de Nivell de Quantificació: La quantificació de 4 bits (especialment Q4_K_M i Q4_0) és l'opció aclaparadora. F16, com a opció de major fidelitat, també ocupa una posició important.

  • Complexitat de les Metadades: L'anàlisi de les metadades del model (p. ex., interpretar el camp de la família del model) de vegades revela complexitats entre els seus registres i els noms dels models o la comprensió comuna, destacant la diversitat de la gestió de metadades en l'ecosistema de codi obert.

3. Infraestructura Tècnica:

  • Entorns d'Allotjament: Un gran nombre d'instàncies d'Ollama s'allotgen en els principals proveïdors de serveis al núvol com AWS, Alibaba Cloud, Tencent Cloud, així com a les xarxes dels principals operadors de telecomunicacions nacionals.

  • Ports de Servei: El port per defecte d'Ollama 11434 és el més comunament utilitzat, però un nombre considerable d'instàncies també s'exposen mitjançant ports web estàndard.

4. Avaluació Objectiva:

  • Popularitat d'Ollama: Les dades mostren clarament l'alta taxa d'adopció d'Ollama entre desenvolupadors i entusiastes de la IA a tot el món.

  • Vitalitat de l'Ecosistema de Codi Obert: La diversitat de models populars i l'ús generalitzat de diverses versions de paràmetres i quantificació reflecteixen el desenvolupament creixent de l'ecosistema de models d'IA de codi obert.

  • Equilibri en les Preferències de l'Usuari: En triar models, els usuaris tendeixen a buscar un equilibri entre la capacitat del model, l'eficiència operativa i els costos de maquinari.

  • Seguretat i Obertura: Un gran nombre d'instàncies permeten l'accés públic a les seves llistes de models, la qual cosa, tot i ser convenient per a la comunitat, també pot plantejar riscos de seguretat.

5. Perspectives de Futur:

  • Amb l'aparició de models més eficients i petits i nous avenços en la tecnologia de quantificació, s'espera que la barrera de desplegament per a Ollama continuï disminuint.

  • L'estandardització de les metadades dels models i els models compartits per la comunitat és crucial per millorar la transparència i la usabilitat de l'ecosistema.

En resum, Ollama s'està convertint en un pont important que connecta models de llenguatge grans d'avantguarda amb una àmplia gamma de desenvolupadors, investigadors i fins i tot usuaris generals. Aquesta anàlisi de dades proporciona coneixements valuosos per entendre el seu estat de desplegament global actual i les preferències dels usuaris.

Comentaris

comments.comments (0)

Please login first

Sign in