Tenthe ai directory logo
Nowe spojrzenie na wyścig AI między USA a Chinami: Porównanie wdrożeń Ollama w 2025 r. i wgląd w globalne trendy modeli AI

Nowe spojrzenie na wyścig AI między USA a Chinami: Porównanie wdrożeń Ollama w 2025 r. i wgląd w globalne trendy modeli AI

Ryan@ryan
0 Wyświetlenia0 Komentarze

Ollama to popularne narzędzie open-source zaprojektowane w celu uproszczenia procesu uruchamiania, tworzenia i udostępniania dużych modeli językowych (LLM) lokalnie. Łączy w sobie wagi modeli, konfigurację i dane w pakiet zdefiniowany przez Modelfile i zapewnia interfejs API do interakcji z tymi modelami. Umożliwia to programistom i badaczom łatwe wdrażanie i eksperymentowanie z różnymi zaawansowanymi modelami AI na komputerach osobistych lub serwerach.

1. Wprowadzenie

Ollama to popularne narzędzie open-source zaprojektowane w celu uproszczenia procesu uruchamiania, tworzenia i udostępniania dużych modeli językowych (LLM) lokalnie. Łączy w sobie wagi modeli, konfigurację i dane w pakiet zdefiniowany przez Modelfile i zapewnia interfejs API do interakcji z tymi modelami. Umożliwia to programistom i badaczom łatwe wdrażanie i eksperymentowanie z różnymi zaawansowanymi modelami AI na komputerach osobistych lub serwerach.

Niniejszy raport ma na celu ujawnienie trendów wdrożeniowych, preferencji modeli, rozkładu geograficznego i charakterystyki sieci poprzez analizę danych ze 174 590 instancji Ollama wdrożonych globalnie.

Uwaga: Statystyki danych w Rozdziale 5 i Rozdziale 7 pochodzą ze wszystkich 174 590 instancji. Dane w Rozdziale 6 pochodzą z dostępnych instancji. Ze względów bezpieczeństwa nie zamieściliśmy statystyk dotyczących wersji Ollama.

  • Dane na dzień: 24 kwietnia 2025 r.

  • Źródło raportu: Tenthe AI https://tenthe.com

  • Autor: Ryan

2. Podsumowanie wykonawcze

Niniejszy raport opiera się na analizie danych skanowania i sondowania API publicznie dostępnych instancji Ollama na całym świecie. Kluczowe wnioski obejmują:

  • Globalnie, spośród około 174 590 rekordów zidentyfikowanych początkowo za pomocą Fofa (99 412 unikalnych adresów IP), pomyślnie przebadano 41 021 instancji Ollama z dostępnymi API, rozłożonych na 24 038 unikalnych adresów IP (wskaźnik dostępności około 24,18%).

  • Geograficznie, Stany Zjednoczone i Chiny to kraje z największą liczbą wdrożeń Ollama. Dostawcy usług w chmurze, w szczególności AWS, Alibaba Cloud i Tencent Cloud, są głównymi hostami instancji Ollama.

  • Wdrożenia modeli wykazują różnorodność, z modelami serii llama3, deepseek-r1, mistral i qwen cieszącymi się dużą popularnością. Wśród nich llama3:latest i deepseek-r1:latest to dwa najczęściej wdrażane tagi modeli.

  • Modele z 7B-8B parametrami są najlepszym wyborem dla użytkowników, podczas gdy modele kwantyzowane 4-bitowe, takie jak Q4_K_M i Q4_0, są szeroko stosowane ze względu na dobry balans między wydajnością a zużyciem zasobów.

  • Domyślny port 11434 jest najczęściej używany, a większość instancji udostępnia usługi przez protokół HTTP.

3. Źródła danych i metodologia

Dane do niniejszego raportu pochodzą głównie z dwóch etapów:

  1. Skanowanie początkowe: Wykorzystanie wyszukiwarek przestrzeni sieciowej, takich jak Fofa, z warunkiem app="Ollama" && is_domain=false, w celu wstępnej identyfikacji potencjalnych instancji Ollama wdrożonych globalnie. Na tym etapie znaleziono 174 590 rekordów, obejmujących 99 412 unikalnych adresów IP po deduplikacji.

  2. Weryfikacja API i wzbogacanie danych: Sondowanie punktu końcowego API ip:port/api/tags dla wstępnie zeskanowanych adresów IP w celu potwierdzenia dostępności usług Ollama i uzyskania informacji o konkretnych wdrożonych modelach AI. Na tym etapie potwierdzono 41 021 pomyślnie odpowiadających instancji Ollama (z 24 038 unikalnych adresów IP, z danymi przechowywanymi w tabeli ollama).

  3. Końcowe dane są przechowywane w tabeli ollama.

Analiza w niniejszym raporcie opiera się głównie na danych z tabeli ollama, która zawiera rekordy pomyślnie przebadanych API i ich szczegółowe informacje, w tym IP, port, lokalizację geograficzną oraz odpowiedź JSON (zawierającą listę modeli) itp.

4. Ogólne statystyki wdrożeń

  • Liczba początkowych rekordów ze skanowania Fofa: 174 590

  • Liczba unikalnych adresów IP z początkowego skanowania Fofa: 99 412

  • Liczba instancji Ollama pomyślnie uzyskujących dostęp do /api/tags: 41 021 (z rekordów, gdzie status = 'success' w tabeli ollama)

  • Liczba odpowiadających unikalnych adresów IP: 24 038 (z rekordów, gdzie status = 'success' w tabeli ollama)

  • Stosunek dostępnych adresów IP do początkowo zidentyfikowanych adresów IP: (24038 / 99412) * 100% ≈ 24,18%

Wskazuje to, że spośród wszystkich instancji Ollama zidentyfikowanych za pomocą Fofa, interfejs /api/tags jest publicznie dostępny dla około jednej czwartej, co pozwala nam pobrać informacje o ich wdrożonych modelach.

5. Analiza rozkładu geograficznego

5.1 20 krajów/regionów z największą liczbą wdrożeń

Poniższa tabela przedstawia 20 krajów/regionów z największą liczbą unikalnych adresów IP z instancjami Ollama.

Ranking

Kraj/Region

Liczba unikalnych adresów IP

1

Stany Zjednoczone

29195

2

Chiny

16464

3

Japonia

5849

4

Niemcy

5438

5

Wielka Brytania

4014

6

Indie

3939

7

Singapur

3914

8

Korea Południowa

3773

9

Irlandia

3636

10

Francja

3599

11

Australia

3558

12

Brazylia

2909

13

Kanada

2763

14

Republika Południowej Afryki

2742

15

Szwecja

2113

16

SRA Hongkong, Chiny

1277

17

Izrael

675

18

Tajwan, Chiny

513

19

Rosja

475

20

Finlandia

308

Ollama Top 20 Deployment Countries/Regions

5.2 20 miast na świecie z największą liczbą wdrożeń

Poniższa tabela przedstawia 20 miast na świecie z największą liczbą unikalnych adresów IP z instancjami Ollama.

Ranking

Miasto

Kraj/Region

Liczba unikalnych adresów IP

1

Ashburn

Stany Zjednoczone

5808

2

Portland

Stany Zjednoczone

5130

3

Singapur

Singapur

3914

4

Frankfurt nad Menem

Niemcy

3908

5

Pekin

Chiny

3906

6

Londyn

Wielka Brytania

3685

7

Columbus

Stany Zjednoczone

3672

8

Mumbaj

Indie

3637

9

Dublin

Irlandia

3631

10

Tokio

Japonia

3620

11

Sydney

Australia

3487

12

Paryż

Francja

3175

13

San Jose

Stany Zjednoczone

2815

14

Sao Paulo

Brazylia

2753

15

Kapsztad

Republika Południowej Afryki

2692

16

Montreal

Kanada

2535

17

Seattle

Stany Zjednoczone

2534

18

Hangzhou

Chiny

2447

19

Seul

Korea Południowa

2327

20

Osaka

Japonia

2184

5.3 Rozkład w 10 miastach USA z największą liczbą wdrożeń

Ranking

Miasto

Liczba unikalnych adresów IP

1

Ashburn

5808

2

Portland

5130

3

Columbus

3672

4

San Jose

2815

5

Seattle

2534

6

Westlake Village

1714

7

Boardman

855

8

Florence

776

9

San Francisco

753

10

Boulder

642

Rozkład w 10 miastach USA z największą liczbą wdrożeń Ollama

5.4 Rozkład w 10 miastach Chin kontynentalnych z największą liczbą wdrożeń

Wdrożenia w Hongkongu i na Tajwanie nie są uwzględnione w tabeli 10 największych miast, ponieważ zostały już ujęte w statystykach krajów/regionów.

Ranking

Miasto

Kraj (country_name)

Liczba unikalnych adresów IP

1

Pekin

Chiny

3906

2

Hangzhou

Chiny

2447

3

Szanghaj

Chiny

1335

4

Kanton

Chiny

1296

5

Shenzhen

Chiny

768

6

Chengdu

Chiny

469

7

Nankin

Chiny

329

8

Chongqing

Chiny

259

9

Suzhou

Chiny

257

10

Wuhan

Chiny

249

Rozkład w 10 miastach Chin kontynentalnych z największą liczbą wdrożeń Ollama

5.5 Porównanie wdrożeń w 10 największych miastach USA i Chin

Aby bardziej intuicyjnie porównać wdrożenia Ollama na poziomie miast w USA i Chinach, poniższa tabela zestawia liczbę wdrożeń unikalnych adresów IP dla 10 największych miast w obu krajach:

Ranking

Miasto USA (Top 10)

Liczba unikalnych adresów IP w USA

Miasto Chin (Top 10)

Liczba unikalnych adresów IP w Chinach

1

Ashburn

5808

Pekin

3906

2

Portland

5130

Hangzhou

2447

3

Columbus

3672

Szanghaj

1335

4

San Jose

2815

Kanton

1296

5

Seattle

2534

Shenzhen

768

6

Westlake Village

1714

Chengdu

469

7

Boardman

855

Nankin

329

8

Florence

776

Chongqing

259

9

San Francisco

753

Suzhou

257

10

Boulder

642

Wuhan

249

Porównanie wdrożeń w 10 największych miastach USA i Chin Ollama

Krótki komentarz:

  • Wolumen wiodących miast: Trzy największe miasta w USA (Ashburn, Portland, Columbus) mają po ponad 3000 unikalnych adresów IP z wdrożeniami Ollama. Największe miasto w Chinach (Pekin) ma ponad 3000 wdrożeń, a drugie miasto (Hangzhou) ma ponad 2000.

  • Centra technologiczne i gospodarcze: Wiele z wymienionych miast w obu krajach to dobrze znane centra innowacji technologicznych lub ważne regiony gospodarcze.

  • Regiony centrów danych: Włączenie amerykańskich miast, takich jak Ashburn, odzwierciedla również fakt, że instancje Ollama mogą być w dużej mierze wdrażane na serwerach w chmurze i w centrach danych.

  • Różnice w rozkładzie: Ogólnie rzecz biorąc, całkowita liczba adresów IP w 10 największych miastach USA jest znacznie wyższa niż w 10 największych miastach Chin. Jednak oba kraje wykazują wzorzec, w którym kilka głównych miast odpowiada za zdecydowaną większość wdrożeń Ollama.

To porównanie na poziomie miast dodatkowo pokazuje, że promocja i zastosowanie Ollama, jako narzędzia dla programistów, są ściśle związane z regionalnymi ekosystemami technologicznymi i rozwojem przemysłowym.

6. Analiza modeli

6.1 Krótki przegląd modeli AI, parametrów i kwantyzacji

Ollama obsługuje różnorodne otwarte duże modele językowe. Modele te zazwyczaj wyróżniają się następującymi cechami:

6.1.1 Typowe rodziny modeli

Obecnie w społeczności open-source pojawiło się wiele doskonałych rodzin LLM, z których każda ma swoje unikalne cechy:

  • Seria Llama (Meta AI): Takie jak Llama 2, Llama 3, Code Llama. Znana z potężnych ogólnych możliwości i szerokiego wsparcia społeczności, co prowadzi do powstania licznych dostrojonych wersji. Modele takie jak llama3.1, hermes3 widoczne w naszych danych są często oparte na architekturze Llama.

  • Seria Mistral (Mistral AI): Takie jak Mistral 7B, Mixtral 8x7B. Zyskują uwagę dzięki swojej wydajności i wysokiej jakości, zwłaszcza modele MoE (Mixture of Experts).

  • Seria Gemma (Google): Takie jak Gemma 2B, Gemma 7B. Modele o otwartych wagach wydane przez Google, z technologią wywodzącą się z ich potężniejszych modeli Gemini.

  • Seria Phi (Microsoft): Takie jak Phi-2, Phi-3. Skupiają się na małych, ale zdolnych modelach, kładąc nacisk na „SLM (Small Language Models)”.

  • Seria DeepSeek (DeepSeek AI): Takie jak DeepSeek Coder, DeepSeek LLM. Chińskie modele AI, które wyróżniają się w kodowaniu i ogólnych zadaniach.

  • Seria Qwen (Alibaba Tongyi Qianwen): Takie jak Qwen1.5. Seria modeli uruchomiona przez Alibaba DAMO Academy, obsługująca wiele języków i zadań.

  • Istnieje wiele innych doskonałych modeli, takich jak Yi (01.AI), Command R (Cohere) itp.

Ollama, poprzez swój mechanizm Modelfile, pozwala użytkownikom łatwo używać tych modeli bazowych lub ich dostrojonych wersji. Nazwy modeli często przyjmują format family:size-variant-quantization, na przykład llama3:8b-instruct-q4_K_M.

6.1.2 Parametry modelu (Rozmiar parametrów)

Liczba parametrów modelu (zazwyczaj w B - miliardach; lub M - milionach) jest ważnym wskaźnikiem skali i potencjalnych możliwości modelu. Typowe rozmiary parametrów obejmują:

  • Małe modele: < 7B (np. 1.5B, 2B, 3B). Zazwyczaj działają szybko przy niskim zużyciu zasobów, odpowiednie do specyficznych zadań lub środowisk o ograniczonych zasobach.

  • Średnie modele: 7B, 8B, 13B. Osiągają dobry balans między możliwościami a zużyciem zasobów, obecnie jeden z najpopularniejszych rozmiarów w społeczności.

  • Duże modele: 30B, 33B, 40B, 70B+. Generalnie bardziej zdolne, ale wymagają również większych zasobów obliczeniowych (RAM, VRAM) i dłuższego czasu wnioskowania.

Pole parameter_size w naszych danych (np. "8.0B", "7B", "134.52M") wskazuje na to.

6.1.3 Wersje kwantyzacji (Poziom kwantyzacji)

Kwantyzacja to technika zmniejszania rozmiaru modelu i przyspieszania wnioskowania poprzez obniżenie precyzji numerycznej wag modelu (np. z 16-bitowej liczby zmiennoprzecinkowej FP16 do 4-bitowej liczby całkowitej INT4).

  • Typowe poziomy kwantyzacji: Ollama i format GGUF (używany przez Llama.cpp) obsługują różne strategie kwantyzacji, takie jak Q2_K, Q3_K_S, Q3_K_M, Q3_K_L, Q4_0, Q4_K_M, Q5_K_M, Q6_K, Q8_0 itp.

    • Liczba (np. 2, 3, 4, 5, 6, 8) w przybliżeniu wskazuje liczbę bitów.

    • Kwantyzacja serii K (np. Q4_K_M) to ulepszone metody kwantyzacji wprowadzone w llama.cpp, zazwyczaj osiągające lepszą wydajność przy tej samej liczbie bitów.

    • _S, _M, _L zazwyczaj oznaczają różne warianty kwantyzacji K, wpływające na różne części modelu.

    • F16 (FP16) reprezentuje 16-bitową liczbę zmiennoprzecinkową, często uważaną za niekwantyzowaną lub bazową wersję kwantyzacji. F32 (FP32) to pełna precyzja.

  • Kompromis: Wyższa kwantyzacja (mniejsza liczba bitów) skutkuje mniejszymi, szybszymi modelami, ale zazwyczaj wiąże się z pewną utratą wydajności (model działa gorzej). Użytkownicy muszą wybierać w zależności od swojego sprzętu i wymagań dotyczących jakości modelu.

Pole quantization_level w naszych danych (np. "Q4_K_M", "F16") wskazuje na to.

6.2 Najpopularniejsze nazwy modeli

Poniższa tabela przedstawia 10 najpopularniejszych tagów modeli według liczby wdrożeń unikalnych adresów IP, w tym informacje o ich rodzinie, rozmiarze parametrów i poziomie kwantyzacji.

Ranking

Nazwa modelu (model_name)

Wdrożenia unikalnych adresów IP

Łączna liczba instancji wdrożeń

1

llama3:latest

12659

24628

2

deepseek-r1:latest

12572

24578

3

mistral:latest

11163

22638

4

qwen:latest

9868

21007

5

llama3:8b-text-q4_K_S

9845

20980

6

smollm2:135m

4058

5016

7

llama2:latest

3124

3928

8

hermes3:8b

2856

3372

9

llama3.1:8b

2714

3321

10

qwen2.5:1.5b

2668

3391

Najpopularniejsze nazwy modeli Ollama

6.3 Najpopularniejsze rodziny modeli

Rodzina modeli (details.family field) reprezentuje architekturę bazową lub główną linię technologiczną modelu. Poniżej przedstawiono rodziny modeli z największą liczbą wdrożeń na podstawie naszej analizy danych:

Ranking

Rodzina modeli (family)

Wdrożenia unikalnych adresów IP (szacunkowo)

Łączna liczba instancji wdrożeń (szacunkowo)

1

llama

~20250

~103480

2

qwen2

~17881

~61452

3

nomic-bert

~1479

~1714

4

gemma3

~1363

~2493

5

bert

~1228

~2217

6

mllama

~943

~1455

7

gemma

~596

~750

8

deepseek2

~484

~761

9

phi3

~368

~732

10

gemma2

~244

~680

Najpopularniejsze rodziny modeli Ollama

6.4 Statystyki dotyczące rozmiaru parametrów oryginalnych

Rozmiar parametrów modelu (details.parameter_size field) jest ważnym wskaźnikiem skali modelu. Ze względu na zróżnicowane przedstawienie rozmiarów parametrów w surowych danych (np. "8.0B", "7B", "134.52M"), bezpośrednio zliczamy te oryginalne ciągi znaków. Poniżej przedstawiono reprezentacje rozmiarów parametrów z większą liczbą wdrożeń:

Ranking

Rozmiar parametrów (Oryginalny ciąg znaków)

Wdrożenia unikalnych adresów IP (szacunkowo)

Łączna liczba instancji wdrożeń (szacunkowo)

1

8.0B

~14480

~52577

2

7.6B

~14358

~28105

3

7.2B

~11233

~22907

4

4B

~9895

~21058

5

7B

~4943

~11738

6

134.52M

~4062

~5266

7

1.5B

~2759

~3596

8

13B

~2477

~3311

9

1.8B

~2034

~2476

10

3.2B

~1553

~2244

11

137M

~1477

~1708

12

12.2B

~1421

~2000

13

32.8B

~1254

~2840

14

14.8B

~1123

~2091

15

4.3B

~943

~1194

Statystyki dotyczące rozmiaru parametrów oryginalnych Ollama

6.5 Statystyki dotyczące poziomu kwantyzacji

Poziom kwantyzacji modelu (details.quantization_level field) odzwierciedla precyzję wag przyjętą przez model w celu zmniejszenia rozmiaru i przyspieszenia wnioskowania. Poniżej przedstawiono poziomy kwantyzacji z większą liczbą wdrożeń:

Ranking

Poziom kwantyzacji (Oryginalny ciąg znaków)

Wdrożenia unikalnych adresów IP (szacunkowo)

Łączna liczba instancji wdrożeń (szacunkowo)

1

Q4_K_M

~20966

~53688

2

Q4_0

~18385

~88653

3

Q4_K_S

~9860

~21028

4

F16

~5793

~9837

5

Q8_0

~596

~1574

6

unknown

~266

~1318

7

Q5_K_M

~97

~283

8

F32

~85

~100

9

Q6_K

~60

~178

10

Q2_K

~54

~140

Statystyki dotyczące poziomu kwantyzacji Ollama

6.6 Rozkład mocy obliczeniowej AI (według rozmiaru parametrów modeli): Chiny vs. USA

Aby lepiej zrozumieć, jak modele o różnej skali są wdrażane w głównych krajach, skategoryzowaliśmy i zliczyliśmy rozmiary parametrów modeli wdrożonych na instancjach Ollama w Stanach Zjednoczonych i Chinach. Rozmiar parametrów jest często uważany za ważny wskaźnik złożoności modelu i potencjalnego zapotrzebowania na moc obliczeniową AI.

Standard klasyfikacji skali parametrów:

  • Małe: < 1 miliard parametrów (< 1B)

  • Średnie: Od 1 miliarda do < 10 miliardów parametrów (1B do < 10B)

  • Duże: Od 10 miliardów do < 50 miliardów parametrów (10B do < 50B)

  • Bardzo duże: >= 50 miliardów parametrów (>= 50B)

Poniższa tabela przedstawia liczbę unikalnych adresów IP wdrażających modele o różnej skali parametrów w USA i Chinach:

Kraj

Kategoria skali parametrów

Liczba unikalnych adresów IP

Chiny

Małe (<1B)

3313

Chiny

Średnie (1B do <10B)

4481

Chiny

Duże (10B do <50B)

1548

Chiny

Bardzo duże (>=50B)

280

Stany Zjednoczone

Małe (<1B)

1368

Stany Zjednoczone

Średnie (1B do <10B)

6495

Stany Zjednoczone

Duże (10B do <50B)

1301

Stany Zjednoczone

Bardzo duże (>=50B)

58

Tabela przedstawia liczbę unikalnych adresów IP wdrażających modele o różnej skali parametrów w USA i Chinach

Analiza i wnioski z danych:

  1. Modele średniej wielkości są głównym nurtem, ale z różnym naciskiem:

    • Stany Zjednoczone: Wdrożenia modeli średniej wielkości (1B-10B) są absolutnie dominujące w USA (6495 unikalnych adresów IP).

    • Chiny: Modele średniej wielkości (4481 unikalnych adresów IP) są również najczęściej wdrażanym typem w Chinach, ale wdrożenie małych modeli (<1B) w Chinach (3313 unikalnych adresów IP) jest bardzo znaczące.

  2. Znacząca różnica w małych modelach: Duża skala wdrożeń małych modeli w Chinach może odzwierciedlać preferencje dla przetwarzania brzegowego, mobilnych aplikacji AI i podobnych scenariuszy.

  3. Wdrożenie dużych i bardzo dużych modeli: Chiny wykazują większą aktywność w eksploracji dużych i bardzo dużych modeli (choć z mniejszej bazy).

  4. Wnioski dotyczące ogólnych inwestycji w moc obliczeniową: Baza USA w modelach średniej wielkości świadczy o powszechności praktycznych zastosowań AI. Chiny mają przewagę w małych modelach i aktywnie eksplorują duże modele.

  5. Implikacje dla globalnych trendów: Modele średniej wielkości prawdopodobnie są popularne globalnie. Różne regiony mogą mieć różne strategie przyjmowania modeli w zależności od swoich ekosystemów i warunków zasobów.

Poprzez segmentację skal parametrów modeli w Chinach i USA możemy zobaczyć różne obszary zainteresowania i potencjał rozwoju zastosowań Ollama w obu krajach.

7. Wgląd w sieć

7.1 Wykorzystanie portów

  • 11434 (port domyślny): Zdecydowana większość (30 722 unikalnych adresów IP) instancji Ollama działa na domyślnym porcie 11434.

  • Inne typowe porty: Używane są również porty takie jak 80 (1 619 unikalnych adresów IP), 8080 (1 571 unikalnych adresów IP), 443 (1 339 unikalnych adresów IP) itp., co może wskazywać, że niektóre instancje są wdrożone za odwrotnym proxy lub użytkownicy dostosowali port.

7.2 Wykorzystanie protokołów

  • HTTP: Około 65 506 unikalnych adresów IP ma instancje udostępniające usługi przez protokół HTTP.

  • HTTPS: Około 43 765 unikalnych adresów IP ma instancje udostępniające usługi przez protokół HTTPS.

Większość instancji jest nadal udostępniana przez nieszyfrowany HTTP, co może stwarzać pewne zagrożenia bezpieczeństwa. (Uwaga: Jeden adres IP może obsługiwać zarówno HTTP, jak i HTTPS, więc suma liczby adresów IP tutaj może przekroczyć całkowitą liczbę unikalnych adresów IP)

7.3 Główni dostawcy hostingu (Organizacja AS)

Hosting instancji Ollama jest wysoce skoncentrowany wśród dostawców usług w chmurze.

Ranking

Organizacja AS

Liczba unikalnych adresów IP

Główny powiązany dostawca

1

AMAZON-02

53658

AWS

2

AMAZON-AES

5539

AWS

3

Chinanet

4964

China Telecom

4

Hangzhou Alibaba Advertising Co.,Ltd.

2647

Alibaba Cloud

5

HENGTONG-IDC-LLC

2391

Dostawca hostingu

6

Shenzhen Tencent Computer Systems Company Limited

1682

Tencent Cloud

7

CHINA UNICOM China169 Backbone

1606

China Unicom

8

Hetzner Online GmbH

972

Hetzner

9

China Unicom Beijing Province Network

746

China Unicom (Pekin)

10

LEASEWEB-USA-LAX

735

Leaseweb

Hosting instancji Ollama jest wysoce skoncentrowany wśród dostawców usług w chmurze

AWS (AMAZON-02, AMAZON-AES) ma największy udział, a następnie główni chińscy operatorzy telekomunikacyjni i dostawcy usług w chmurze (takie jak Alibaba Cloud, Tencent Cloud). Inni dostawcy hostingu, tacy jak Hetzner i Leaseweb, również mają znaczące udziały.

8. Bezpieczeństwo i inne obserwacje

  • Informacje o wersji: Ze względów bezpieczeństwa nie zamieściliśmy statystyk dotyczących wersji Ollama.

  • Ryzyko związane z udostępnianiem przez HTTP: Jak wspomniano wcześniej, duża liczba instancji Ollama jest udostępniana przez HTTP bez szyfrowania TLS, co może sprawić, że treść komunikacji (np. interakcje z modelami) będzie podatna na podsłuchiwanie lub manipulację. Użytkownikom zaleca się skonfigurowanie odwrotnego proxy i włączenie HTTPS.

  • Dostępność API: Dane w niniejszym raporcie opierają się na instancjach Ollama, których interfejs /api/tags jest publicznie dostępny. Rzeczywista liczba wdrożeń może być wyższa, ale niektóre instancje mogą być wdrożone w sieciach prywatnych lub mieć ograniczony dostęp zewnętrzny przez zapory sieciowe.

9. Wnioski i krótkie podsumowanie

Niniejszy raport, analizując dane z 99 412 globalnie publicznie dostępnych instancji Ollama (za pośrednictwem ich interfejsu /api/tags), wyciąga następujące główne wnioski i obserwacje:

1. Ogólny przegląd wdrożeń i rozkład geograficzny:

  • Ollama, jako wygodne narzędzie do lokalnego uruchamiania dużych modeli, zostało szeroko wdrożone globalnie. Analiza ta zidentyfikowała 99 412 publicznie dostępnych unikalnych adresów IP.

  • Wysoka koncentracja geograficzna: Stany Zjednoczone i Chiny to dwa kraje/regiony z największą koncentracją wdrożeń Ollama, łącznie stanowiące znaczną część wszystkich dostępnych instancji (USA 29 195, Chiny 16 464). Kraje takie jak Japonia, Niemcy, Wielka Brytania, Indie i Singapur również mają znaczącą liczbę wdrożeń.

  • Gorące punkty miejskie: W USA miasta takie jak Ashburn, Portland i Columbus przodują w liczbie wdrożeń; w Chinach głównymi miejscami wdrożeń są zaawansowane technologicznie miasta, takie jak Pekin, Hangzhou, Szanghaj i Kanton. Jest to często związane z koncentracją firm technologicznych, centrów danych i społeczności programistów.

2. Trendy we wdrożeniach modeli AI:

  • Popularne tagi modeli: Najpopularniejsze są ogólne najnowsze tagi, takie jak llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest. Specjalnie zoptymalizowane wersje, takie jak llama3:8b-text-q4_K_S, są również preferowane ze względu na dobry balans.

  • Dominujące rodziny modeli: Rodzina llama prowadzi z absolutną przewagą, a następnie qwen2. Warto zauważyć wysokie pozycje rodzin modeli embeddingowych, takich jak nomic-bert i bert, prawdopodobnie związane z domyślnym zachowaniem Ollama.

  • Preferencje rozmiaru parametrów: Modele z 7B-8B parametrami są obecnie głównym nurtem. Modele lekkie na poziomie milionów parametrów i duże modele powyżej 10B również mają swoje rynki. Porównanie USA-Chiny pokazuje, że USA wdrażają więcej modeli średniej wielkości, podczas gdy Chiny są bardziej aktywne w eksploracji małych i bardzo dużych modeli.

  • Wybory poziomu kwantyzacji: Kwantyzacja 4-bitowa (zwłaszcza Q4_K_M i Q4_0) jest dominującym wyborem. F16, jako opcja o wyższej wierności, również zajmuje ważną pozycję.

  • Złożoność metadanych: Analiza metadanych modeli (np. interpretacja pola rodziny modeli) czasami ujawnia złożoność między jej rekordami a nazwami modeli lub powszechnym rozumieniem, podkreślając różnorodność zarządzania metadanymi w ekosystemie open-source.

3. Infrastruktura techniczna:

  • Środowiska hostingu: Duża liczba instancji Ollama jest hostowana u głównych dostawców usług w chmurze, takich jak AWS, Alibaba Cloud, Tencent Cloud, a także w sieciach głównych krajowych operatorów telekomunikacyjnych.

  • Porty usług: Domyślny port Ollama 11434 jest najczęściej używany, ale znaczna liczba instancji jest również udostępniana przez standardowe porty internetowe.

4. Obiektywna ocena:

  • Popularność Ollama: Dane wyraźnie pokazują wysoki wskaźnik adopcji Ollama wśród programistów i entuzjastów AI na całym świecie.

  • Witalność ekosystemu open-source: Różnorodność popularnych modeli oraz szerokie zastosowanie różnych wersji parametrów i kwantyzacji odzwierciedlają dynamiczny rozwój ekosystemu modeli AI open-source.

  • Równowaga w preferencjach użytkowników: Przy wyborze modeli użytkownicy dążą do znalezienia równowagi między możliwościami modelu, efektywnością operacyjną a kosztami sprzętu.

  • Bezpieczeństwo i otwartość: Duża liczba instancji umożliwia publiczny dostęp do ich list modeli, co, choć wygodne dla społeczności, może również stwarzać zagrożenia bezpieczeństwa.

5. Przyszłe perspektywy:

  • Wraz z pojawieniem się bardziej wydajnych, mniejszych modeli i dalszym postępem w technologii kwantyzacji, bariera wdrożenia dla Ollama powinna nadal maleć.

  • Standaryzacja metadanych modeli i modeli współdzielonych przez społeczność ma kluczowe znaczenie dla zwiększenia przejrzystości i użyteczności ekosystemu.

Podsumowując, Ollama staje się ważnym mostem łączącym najnowsze duże modele językowe z szerokim gronem programistów, badaczy, a nawet ogólnych użytkowników. Ta analiza danych dostarcza cennych informacji do zrozumienia jej obecnego globalnego statusu wdrożeń i preferencji użytkowników.

Komentarze

comments.comments (0)

Please login first

Sign in