
Nowe spojrzenie na wyścig AI między USA a Chinami: Porównanie wdrożeń Ollama w 2025 r. i wgląd w globalne trendy modeli AI
Ollama to popularne narzędzie open-source zaprojektowane w celu uproszczenia procesu uruchamiania, tworzenia i udostępniania dużych modeli językowych (LLM) lokalnie. Łączy w sobie wagi modeli, konfigurację i dane w pakiet zdefiniowany przez Modelfile i zapewnia interfejs API do interakcji z tymi modelami. Umożliwia to programistom i badaczom łatwe wdrażanie i eksperymentowanie z różnymi zaawansowanymi modelami AI na komputerach osobistych lub serwerach.
1. Wprowadzenie
Ollama to popularne narzędzie open-source zaprojektowane w celu uproszczenia procesu uruchamiania, tworzenia i udostępniania dużych modeli językowych (LLM) lokalnie. Łączy w sobie wagi modeli, konfigurację i dane w pakiet zdefiniowany przez Modelfile i zapewnia interfejs API do interakcji z tymi modelami. Umożliwia to programistom i badaczom łatwe wdrażanie i eksperymentowanie z różnymi zaawansowanymi modelami AI na komputerach osobistych lub serwerach.
Niniejszy raport ma na celu ujawnienie trendów wdrożeniowych, preferencji modeli, rozkładu geograficznego i charakterystyki sieci poprzez analizę danych ze 174 590 instancji Ollama wdrożonych globalnie.
Uwaga: Statystyki danych w Rozdziale 5 i Rozdziale 7 pochodzą ze wszystkich 174 590 instancji. Dane w Rozdziale 6 pochodzą z dostępnych instancji. Ze względów bezpieczeństwa nie zamieściliśmy statystyk dotyczących wersji Ollama.
Dane na dzień: 24 kwietnia 2025 r.
Źródło raportu: Tenthe AI https://tenthe.com
Autor: Ryan
2. Podsumowanie wykonawcze
Niniejszy raport opiera się na analizie danych skanowania i sondowania API publicznie dostępnych instancji Ollama na całym świecie. Kluczowe wnioski obejmują:
Globalnie, spośród około 174 590 rekordów zidentyfikowanych początkowo za pomocą Fofa (99 412 unikalnych adresów IP), pomyślnie przebadano 41 021 instancji Ollama z dostępnymi API, rozłożonych na 24 038 unikalnych adresów IP (wskaźnik dostępności około 24,18%).
Geograficznie, Stany Zjednoczone i Chiny to kraje z największą liczbą wdrożeń Ollama. Dostawcy usług w chmurze, w szczególności AWS, Alibaba Cloud i Tencent Cloud, są głównymi hostami instancji Ollama.
Wdrożenia modeli wykazują różnorodność, z modelami serii
llama3
,deepseek-r1
,mistral
iqwen
cieszącymi się dużą popularnością. Wśród nichllama3:latest
ideepseek-r1:latest
to dwa najczęściej wdrażane tagi modeli.Modele z 7B-8B parametrami są najlepszym wyborem dla użytkowników, podczas gdy modele kwantyzowane 4-bitowe, takie jak Q4_K_M i Q4_0, są szeroko stosowane ze względu na dobry balans między wydajnością a zużyciem zasobów.
Domyślny port
11434
jest najczęściej używany, a większość instancji udostępnia usługi przez protokół HTTP.
3. Źródła danych i metodologia
Dane do niniejszego raportu pochodzą głównie z dwóch etapów:
Skanowanie początkowe: Wykorzystanie wyszukiwarek przestrzeni sieciowej, takich jak Fofa, z warunkiem
app="Ollama" && is_domain=false
, w celu wstępnej identyfikacji potencjalnych instancji Ollama wdrożonych globalnie. Na tym etapie znaleziono 174 590 rekordów, obejmujących 99 412 unikalnych adresów IP po deduplikacji.Weryfikacja API i wzbogacanie danych: Sondowanie punktu końcowego API
ip:port/api/tags
dla wstępnie zeskanowanych adresów IP w celu potwierdzenia dostępności usług Ollama i uzyskania informacji o konkretnych wdrożonych modelach AI. Na tym etapie potwierdzono 41 021 pomyślnie odpowiadających instancji Ollama (z 24 038 unikalnych adresów IP, z danymi przechowywanymi w tabeliollama
).Końcowe dane są przechowywane w tabeli
ollama
.
Analiza w niniejszym raporcie opiera się głównie na danych z tabeli ollama
, która zawiera rekordy pomyślnie przebadanych API i ich szczegółowe informacje, w tym IP, port, lokalizację geograficzną oraz odpowiedź JSON (zawierającą listę modeli) itp.
4. Ogólne statystyki wdrożeń
Liczba początkowych rekordów ze skanowania Fofa: 174 590
Liczba unikalnych adresów IP z początkowego skanowania Fofa: 99 412
Liczba instancji Ollama pomyślnie uzyskujących dostęp do
/api/tags
: 41 021 (z rekordów, gdziestatus = 'success'
w tabeliollama
)Liczba odpowiadających unikalnych adresów IP: 24 038 (z rekordów, gdzie
status = 'success'
w tabeliollama
)Stosunek dostępnych adresów IP do początkowo zidentyfikowanych adresów IP: (24038 / 99412) * 100% ≈ 24,18%
Wskazuje to, że spośród wszystkich instancji Ollama zidentyfikowanych za pomocą Fofa, interfejs /api/tags
jest publicznie dostępny dla około jednej czwartej, co pozwala nam pobrać informacje o ich wdrożonych modelach.
5. Analiza rozkładu geograficznego
5.1 20 krajów/regionów z największą liczbą wdrożeń
Poniższa tabela przedstawia 20 krajów/regionów z największą liczbą unikalnych adresów IP z instancjami Ollama.
Ranking | Kraj/Region | Liczba unikalnych adresów IP |
---|---|---|
1 | Stany Zjednoczone | 29195 |
2 | Chiny | 16464 |
3 | Japonia | 5849 |
4 | Niemcy | 5438 |
5 | Wielka Brytania | 4014 |
6 | Indie | 3939 |
7 | Singapur | 3914 |
8 | Korea Południowa | 3773 |
9 | Irlandia | 3636 |
10 | Francja | 3599 |
11 | Australia | 3558 |
12 | Brazylia | 2909 |
13 | Kanada | 2763 |
14 | Republika Południowej Afryki | 2742 |
15 | Szwecja | 2113 |
16 | SRA Hongkong, Chiny | 1277 |
17 | Izrael | 675 |
18 | Tajwan, Chiny | 513 |
19 | Rosja | 475 |
20 | Finlandia | 308 |

5.2 20 miast na świecie z największą liczbą wdrożeń
Poniższa tabela przedstawia 20 miast na świecie z największą liczbą unikalnych adresów IP z instancjami Ollama.
Ranking | Miasto | Kraj/Region | Liczba unikalnych adresów IP |
---|---|---|---|
1 | Ashburn | Stany Zjednoczone | 5808 |
2 | Portland | Stany Zjednoczone | 5130 |
3 | Singapur | Singapur | 3914 |
4 | Frankfurt nad Menem | Niemcy | 3908 |
5 | Pekin | Chiny | 3906 |
6 | Londyn | Wielka Brytania | 3685 |
7 | Columbus | Stany Zjednoczone | 3672 |
8 | Mumbaj | Indie | 3637 |
9 | Dublin | Irlandia | 3631 |
10 | Tokio | Japonia | 3620 |
11 | Sydney | Australia | 3487 |
12 | Paryż | Francja | 3175 |
13 | San Jose | Stany Zjednoczone | 2815 |
14 | Sao Paulo | Brazylia | 2753 |
15 | Kapsztad | Republika Południowej Afryki | 2692 |
16 | Montreal | Kanada | 2535 |
17 | Seattle | Stany Zjednoczone | 2534 |
18 | Hangzhou | Chiny | 2447 |
19 | Seul | Korea Południowa | 2327 |
20 | Osaka | Japonia | 2184 |
5.3 Rozkład w 10 miastach USA z największą liczbą wdrożeń
Ranking | Miasto | Liczba unikalnych adresów IP |
---|---|---|
1 | Ashburn | 5808 |
2 | Portland | 5130 |
3 | Columbus | 3672 |
4 | San Jose | 2815 |
5 | Seattle | 2534 |
6 | Westlake Village | 1714 |
7 | Boardman | 855 |
8 | Florence | 776 |
9 | San Francisco | 753 |
10 | Boulder | 642 |

5.4 Rozkład w 10 miastach Chin kontynentalnych z największą liczbą wdrożeń
Wdrożenia w Hongkongu i na Tajwanie nie są uwzględnione w tabeli 10 największych miast, ponieważ zostały już ujęte w statystykach krajów/regionów.
Ranking | Miasto | Kraj ( | Liczba unikalnych adresów IP |
---|---|---|---|
1 | Pekin | Chiny | 3906 |
2 | Hangzhou | Chiny | 2447 |
3 | Szanghaj | Chiny | 1335 |
4 | Kanton | Chiny | 1296 |
5 | Shenzhen | Chiny | 768 |
6 | Chengdu | Chiny | 469 |
7 | Nankin | Chiny | 329 |
8 | Chongqing | Chiny | 259 |
9 | Suzhou | Chiny | 257 |
10 | Wuhan | Chiny | 249 |

5.5 Porównanie wdrożeń w 10 największych miastach USA i Chin
Aby bardziej intuicyjnie porównać wdrożenia Ollama na poziomie miast w USA i Chinach, poniższa tabela zestawia liczbę wdrożeń unikalnych adresów IP dla 10 największych miast w obu krajach:
Ranking | Miasto USA (Top 10) | Liczba unikalnych adresów IP w USA | Miasto Chin (Top 10) | Liczba unikalnych adresów IP w Chinach |
---|---|---|---|---|
1 | Ashburn | 5808 | Pekin | 3906 |
2 | Portland | 5130 | Hangzhou | 2447 |
3 | Columbus | 3672 | Szanghaj | 1335 |
4 | San Jose | 2815 | Kanton | 1296 |
5 | Seattle | 2534 | Shenzhen | 768 |
6 | Westlake Village | 1714 | Chengdu | 469 |
7 | Boardman | 855 | Nankin | 329 |
8 | Florence | 776 | Chongqing | 259 |
9 | San Francisco | 753 | Suzhou | 257 |
10 | Boulder | 642 | Wuhan | 249 |

Krótki komentarz:
Wolumen wiodących miast: Trzy największe miasta w USA (Ashburn, Portland, Columbus) mają po ponad 3000 unikalnych adresów IP z wdrożeniami Ollama. Największe miasto w Chinach (Pekin) ma ponad 3000 wdrożeń, a drugie miasto (Hangzhou) ma ponad 2000.
Centra technologiczne i gospodarcze: Wiele z wymienionych miast w obu krajach to dobrze znane centra innowacji technologicznych lub ważne regiony gospodarcze.
Regiony centrów danych: Włączenie amerykańskich miast, takich jak Ashburn, odzwierciedla również fakt, że instancje Ollama mogą być w dużej mierze wdrażane na serwerach w chmurze i w centrach danych.
Różnice w rozkładzie: Ogólnie rzecz biorąc, całkowita liczba adresów IP w 10 największych miastach USA jest znacznie wyższa niż w 10 największych miastach Chin. Jednak oba kraje wykazują wzorzec, w którym kilka głównych miast odpowiada za zdecydowaną większość wdrożeń Ollama.
To porównanie na poziomie miast dodatkowo pokazuje, że promocja i zastosowanie Ollama, jako narzędzia dla programistów, są ściśle związane z regionalnymi ekosystemami technologicznymi i rozwojem przemysłowym.
6. Analiza modeli
6.1 Krótki przegląd modeli AI, parametrów i kwantyzacji
Ollama obsługuje różnorodne otwarte duże modele językowe. Modele te zazwyczaj wyróżniają się następującymi cechami:
6.1.1 Typowe rodziny modeli
Obecnie w społeczności open-source pojawiło się wiele doskonałych rodzin LLM, z których każda ma swoje unikalne cechy:
Seria Llama (Meta AI): Takie jak Llama 2, Llama 3, Code Llama. Znana z potężnych ogólnych możliwości i szerokiego wsparcia społeczności, co prowadzi do powstania licznych dostrojonych wersji. Modele takie jak
llama3.1
,hermes3
widoczne w naszych danych są często oparte na architekturze Llama.Seria Mistral (Mistral AI): Takie jak Mistral 7B, Mixtral 8x7B. Zyskują uwagę dzięki swojej wydajności i wysokiej jakości, zwłaszcza modele MoE (Mixture of Experts).
Seria Gemma (Google): Takie jak Gemma 2B, Gemma 7B. Modele o otwartych wagach wydane przez Google, z technologią wywodzącą się z ich potężniejszych modeli Gemini.
Seria Phi (Microsoft): Takie jak Phi-2, Phi-3. Skupiają się na małych, ale zdolnych modelach, kładąc nacisk na „SLM (Small Language Models)”.
Seria DeepSeek (DeepSeek AI): Takie jak DeepSeek Coder, DeepSeek LLM. Chińskie modele AI, które wyróżniają się w kodowaniu i ogólnych zadaniach.
Seria Qwen (Alibaba Tongyi Qianwen): Takie jak Qwen1.5. Seria modeli uruchomiona przez Alibaba DAMO Academy, obsługująca wiele języków i zadań.
Istnieje wiele innych doskonałych modeli, takich jak Yi (01.AI), Command R (Cohere) itp.
Ollama, poprzez swój mechanizm Modelfile
, pozwala użytkownikom łatwo używać tych modeli bazowych lub ich dostrojonych wersji. Nazwy modeli często przyjmują format family:size-variant-quantization
, na przykład llama3:8b-instruct-q4_K_M
.
6.1.2 Parametry modelu (Rozmiar parametrów)
Liczba parametrów modelu (zazwyczaj w B - miliardach; lub M - milionach) jest ważnym wskaźnikiem skali i potencjalnych możliwości modelu. Typowe rozmiary parametrów obejmują:
Małe modele: < 7B (np. 1.5B, 2B, 3B). Zazwyczaj działają szybko przy niskim zużyciu zasobów, odpowiednie do specyficznych zadań lub środowisk o ograniczonych zasobach.
Średnie modele: 7B, 8B, 13B. Osiągają dobry balans między możliwościami a zużyciem zasobów, obecnie jeden z najpopularniejszych rozmiarów w społeczności.
Duże modele: 30B, 33B, 40B, 70B+. Generalnie bardziej zdolne, ale wymagają również większych zasobów obliczeniowych (RAM, VRAM) i dłuższego czasu wnioskowania.
Pole parameter_size
w naszych danych (np. "8.0B", "7B", "134.52M") wskazuje na to.
6.1.3 Wersje kwantyzacji (Poziom kwantyzacji)
Kwantyzacja to technika zmniejszania rozmiaru modelu i przyspieszania wnioskowania poprzez obniżenie precyzji numerycznej wag modelu (np. z 16-bitowej liczby zmiennoprzecinkowej FP16 do 4-bitowej liczby całkowitej INT4).
Typowe poziomy kwantyzacji: Ollama i format GGUF (używany przez Llama.cpp) obsługują różne strategie kwantyzacji, takie jak
Q2_K
,Q3_K_S
,Q3_K_M
,Q3_K_L
,Q4_0
,Q4_K_M
,Q5_K_M
,Q6_K
,Q8_0
itp.Liczba (np. 2, 3, 4, 5, 6, 8) w przybliżeniu wskazuje liczbę bitów.
Kwantyzacja serii
K
(np.Q4_K_M
) to ulepszone metody kwantyzacji wprowadzone w llama.cpp, zazwyczaj osiągające lepszą wydajność przy tej samej liczbie bitów._S
,_M
,_L
zazwyczaj oznaczają różne warianty kwantyzacji K, wpływające na różne części modelu.F16
(FP16) reprezentuje 16-bitową liczbę zmiennoprzecinkową, często uważaną za niekwantyzowaną lub bazową wersję kwantyzacji.F32
(FP32) to pełna precyzja.
Kompromis: Wyższa kwantyzacja (mniejsza liczba bitów) skutkuje mniejszymi, szybszymi modelami, ale zazwyczaj wiąże się z pewną utratą wydajności (model działa gorzej). Użytkownicy muszą wybierać w zależności od swojego sprzętu i wymagań dotyczących jakości modelu.
Pole quantization_level
w naszych danych (np. "Q4_K_M", "F16") wskazuje na to.
6.2 Najpopularniejsze nazwy modeli
Poniższa tabela przedstawia 10 najpopularniejszych tagów modeli według liczby wdrożeń unikalnych adresów IP, w tym informacje o ich rodzinie, rozmiarze parametrów i poziomie kwantyzacji.
Ranking | Nazwa modelu (model_name) | Wdrożenia unikalnych adresów IP | Łączna liczba instancji wdrożeń |
---|---|---|---|
1 |
| 12659 | 24628 |
2 |
| 12572 | 24578 |
3 |
| 11163 | 22638 |
4 |
| 9868 | 21007 |
5 |
| 9845 | 20980 |
6 |
| 4058 | 5016 |
7 |
| 3124 | 3928 |
8 |
| 2856 | 3372 |
9 |
| 2714 | 3321 |
10 |
| 2668 | 3391 |

6.3 Najpopularniejsze rodziny modeli
Rodzina modeli (details.family
field) reprezentuje architekturę bazową lub główną linię technologiczną modelu. Poniżej przedstawiono rodziny modeli z największą liczbą wdrożeń na podstawie naszej analizy danych:
Ranking | Rodzina modeli (family) | Wdrożenia unikalnych adresów IP (szacunkowo) | Łączna liczba instancji wdrożeń (szacunkowo) |
---|---|---|---|
1 |
| ~20250 | ~103480 |
2 |
| ~17881 | ~61452 |
3 |
| ~1479 | ~1714 |
4 |
| ~1363 | ~2493 |
5 |
| ~1228 | ~2217 |
6 |
| ~943 | ~1455 |
7 |
| ~596 | ~750 |
8 |
| ~484 | ~761 |
9 |
| ~368 | ~732 |
10 |
| ~244 | ~680 |

6.4 Statystyki dotyczące rozmiaru parametrów oryginalnych
Rozmiar parametrów modelu (details.parameter_size
field) jest ważnym wskaźnikiem skali modelu. Ze względu na zróżnicowane przedstawienie rozmiarów parametrów w surowych danych (np. "8.0B", "7B", "134.52M"), bezpośrednio zliczamy te oryginalne ciągi znaków. Poniżej przedstawiono reprezentacje rozmiarów parametrów z większą liczbą wdrożeń:
Ranking | Rozmiar parametrów (Oryginalny ciąg znaków) | Wdrożenia unikalnych adresów IP (szacunkowo) | Łączna liczba instancji wdrożeń (szacunkowo) |
---|---|---|---|
1 |
| ~14480 | ~52577 |
2 |
| ~14358 | ~28105 |
3 |
| ~11233 | ~22907 |
4 |
| ~9895 | ~21058 |
5 |
| ~4943 | ~11738 |
6 |
| ~4062 | ~5266 |
7 |
| ~2759 | ~3596 |
8 |
| ~2477 | ~3311 |
9 |
| ~2034 | ~2476 |
10 |
| ~1553 | ~2244 |
11 |
| ~1477 | ~1708 |
12 |
| ~1421 | ~2000 |
13 |
| ~1254 | ~2840 |
14 |
| ~1123 | ~2091 |
15 |
| ~943 | ~1194 |

6.5 Statystyki dotyczące poziomu kwantyzacji
Poziom kwantyzacji modelu (details.quantization_level
field) odzwierciedla precyzję wag przyjętą przez model w celu zmniejszenia rozmiaru i przyspieszenia wnioskowania. Poniżej przedstawiono poziomy kwantyzacji z większą liczbą wdrożeń:
Ranking | Poziom kwantyzacji (Oryginalny ciąg znaków) | Wdrożenia unikalnych adresów IP (szacunkowo) | Łączna liczba instancji wdrożeń (szacunkowo) |
---|---|---|---|
1 |
| ~20966 | ~53688 |
2 |
| ~18385 | ~88653 |
3 |
| ~9860 | ~21028 |
4 |
| ~5793 | ~9837 |
5 |
| ~596 | ~1574 |
6 |
| ~266 | ~1318 |
7 |
| ~97 | ~283 |
8 |
| ~85 | ~100 |
9 |
| ~60 | ~178 |
10 |
| ~54 | ~140 |

6.6 Rozkład mocy obliczeniowej AI (według rozmiaru parametrów modeli): Chiny vs. USA
Aby lepiej zrozumieć, jak modele o różnej skali są wdrażane w głównych krajach, skategoryzowaliśmy i zliczyliśmy rozmiary parametrów modeli wdrożonych na instancjach Ollama w Stanach Zjednoczonych i Chinach. Rozmiar parametrów jest często uważany za ważny wskaźnik złożoności modelu i potencjalnego zapotrzebowania na moc obliczeniową AI.
Standard klasyfikacji skali parametrów:
Małe: < 1 miliard parametrów (< 1B)
Średnie: Od 1 miliarda do < 10 miliardów parametrów (1B do < 10B)
Duże: Od 10 miliardów do < 50 miliardów parametrów (10B do < 50B)
Bardzo duże: >= 50 miliardów parametrów (>= 50B)
Poniższa tabela przedstawia liczbę unikalnych adresów IP wdrażających modele o różnej skali parametrów w USA i Chinach:
Kraj | Kategoria skali parametrów | Liczba unikalnych adresów IP |
---|---|---|
Chiny | Małe (<1B) | 3313 |
Chiny | Średnie (1B do <10B) | 4481 |
Chiny | Duże (10B do <50B) | 1548 |
Chiny | Bardzo duże (>=50B) | 280 |
Stany Zjednoczone | Małe (<1B) | 1368 |
Stany Zjednoczone | Średnie (1B do <10B) | 6495 |
Stany Zjednoczone | Duże (10B do <50B) | 1301 |
Stany Zjednoczone | Bardzo duże (>=50B) | 58 |
--China-vs-USA.jpeg)
Analiza i wnioski z danych:
Modele średniej wielkości są głównym nurtem, ale z różnym naciskiem:
Stany Zjednoczone: Wdrożenia modeli średniej wielkości (1B-10B) są absolutnie dominujące w USA (6495 unikalnych adresów IP).
Chiny: Modele średniej wielkości (4481 unikalnych adresów IP) są również najczęściej wdrażanym typem w Chinach, ale wdrożenie małych modeli (<1B) w Chinach (3313 unikalnych adresów IP) jest bardzo znaczące.
Znacząca różnica w małych modelach: Duża skala wdrożeń małych modeli w Chinach może odzwierciedlać preferencje dla przetwarzania brzegowego, mobilnych aplikacji AI i podobnych scenariuszy.
Wdrożenie dużych i bardzo dużych modeli: Chiny wykazują większą aktywność w eksploracji dużych i bardzo dużych modeli (choć z mniejszej bazy).
Wnioski dotyczące ogólnych inwestycji w moc obliczeniową: Baza USA w modelach średniej wielkości świadczy o powszechności praktycznych zastosowań AI. Chiny mają przewagę w małych modelach i aktywnie eksplorują duże modele.
Implikacje dla globalnych trendów: Modele średniej wielkości prawdopodobnie są popularne globalnie. Różne regiony mogą mieć różne strategie przyjmowania modeli w zależności od swoich ekosystemów i warunków zasobów.
Poprzez segmentację skal parametrów modeli w Chinach i USA możemy zobaczyć różne obszary zainteresowania i potencjał rozwoju zastosowań Ollama w obu krajach.
7. Wgląd w sieć
7.1 Wykorzystanie portów
11434
(port domyślny): Zdecydowana większość (30 722 unikalnych adresów IP) instancji Ollama działa na domyślnym porcie11434
.Inne typowe porty: Używane są również porty takie jak
80
(1 619 unikalnych adresów IP),8080
(1 571 unikalnych adresów IP),443
(1 339 unikalnych adresów IP) itp., co może wskazywać, że niektóre instancje są wdrożone za odwrotnym proxy lub użytkownicy dostosowali port.
7.2 Wykorzystanie protokołów
HTTP: Około 65 506 unikalnych adresów IP ma instancje udostępniające usługi przez protokół HTTP.
HTTPS: Około 43 765 unikalnych adresów IP ma instancje udostępniające usługi przez protokół HTTPS.
Większość instancji jest nadal udostępniana przez nieszyfrowany HTTP, co może stwarzać pewne zagrożenia bezpieczeństwa. (Uwaga: Jeden adres IP może obsługiwać zarówno HTTP, jak i HTTPS, więc suma liczby adresów IP tutaj może przekroczyć całkowitą liczbę unikalnych adresów IP)
7.3 Główni dostawcy hostingu (Organizacja AS)
Hosting instancji Ollama jest wysoce skoncentrowany wśród dostawców usług w chmurze.
Ranking | Organizacja AS | Liczba unikalnych adresów IP | Główny powiązany dostawca |
---|---|---|---|
1 | AMAZON-02 | 53658 | AWS |
2 | AMAZON-AES | 5539 | AWS |
3 | Chinanet | 4964 | China Telecom |
4 | Hangzhou Alibaba Advertising Co.,Ltd. | 2647 | Alibaba Cloud |
5 | HENGTONG-IDC-LLC | 2391 | Dostawca hostingu |
6 | Shenzhen Tencent Computer Systems Company Limited | 1682 | Tencent Cloud |
7 | CHINA UNICOM China169 Backbone | 1606 | China Unicom |
8 | Hetzner Online GmbH | 972 | Hetzner |
9 | China Unicom Beijing Province Network | 746 | China Unicom (Pekin) |
10 | LEASEWEB-USA-LAX | 735 | Leaseweb |

AWS (AMAZON-02, AMAZON-AES) ma największy udział, a następnie główni chińscy operatorzy telekomunikacyjni i dostawcy usług w chmurze (takie jak Alibaba Cloud, Tencent Cloud). Inni dostawcy hostingu, tacy jak Hetzner i Leaseweb, również mają znaczące udziały.
8. Bezpieczeństwo i inne obserwacje
Informacje o wersji: Ze względów bezpieczeństwa nie zamieściliśmy statystyk dotyczących wersji Ollama.
Ryzyko związane z udostępnianiem przez HTTP: Jak wspomniano wcześniej, duża liczba instancji Ollama jest udostępniana przez HTTP bez szyfrowania TLS, co może sprawić, że treść komunikacji (np. interakcje z modelami) będzie podatna na podsłuchiwanie lub manipulację. Użytkownikom zaleca się skonfigurowanie odwrotnego proxy i włączenie HTTPS.
Dostępność API: Dane w niniejszym raporcie opierają się na instancjach Ollama, których interfejs
/api/tags
jest publicznie dostępny. Rzeczywista liczba wdrożeń może być wyższa, ale niektóre instancje mogą być wdrożone w sieciach prywatnych lub mieć ograniczony dostęp zewnętrzny przez zapory sieciowe.
9. Wnioski i krótkie podsumowanie
Niniejszy raport, analizując dane z 99 412 globalnie publicznie dostępnych instancji Ollama (za pośrednictwem ich interfejsu /api/tags
), wyciąga następujące główne wnioski i obserwacje:
1. Ogólny przegląd wdrożeń i rozkład geograficzny:
Ollama, jako wygodne narzędzie do lokalnego uruchamiania dużych modeli, zostało szeroko wdrożone globalnie. Analiza ta zidentyfikowała 99 412 publicznie dostępnych unikalnych adresów IP.
Wysoka koncentracja geograficzna: Stany Zjednoczone i Chiny to dwa kraje/regiony z największą koncentracją wdrożeń Ollama, łącznie stanowiące znaczną część wszystkich dostępnych instancji (USA 29 195, Chiny 16 464). Kraje takie jak Japonia, Niemcy, Wielka Brytania, Indie i Singapur również mają znaczącą liczbę wdrożeń.
Gorące punkty miejskie: W USA miasta takie jak Ashburn, Portland i Columbus przodują w liczbie wdrożeń; w Chinach głównymi miejscami wdrożeń są zaawansowane technologicznie miasta, takie jak Pekin, Hangzhou, Szanghaj i Kanton. Jest to często związane z koncentracją firm technologicznych, centrów danych i społeczności programistów.
2. Trendy we wdrożeniach modeli AI:
Popularne tagi modeli: Najpopularniejsze są ogólne najnowsze tagi, takie jak
llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
. Specjalnie zoptymalizowane wersje, takie jakllama3:8b-text-q4_K_S
, są również preferowane ze względu na dobry balans.Dominujące rodziny modeli: Rodzina
llama
prowadzi z absolutną przewagą, a następnieqwen2
. Warto zauważyć wysokie pozycje rodzin modeli embeddingowych, takich jaknomic-bert
ibert
, prawdopodobnie związane z domyślnym zachowaniem Ollama.Preferencje rozmiaru parametrów: Modele z 7B-8B parametrami są obecnie głównym nurtem. Modele lekkie na poziomie milionów parametrów i duże modele powyżej 10B również mają swoje rynki. Porównanie USA-Chiny pokazuje, że USA wdrażają więcej modeli średniej wielkości, podczas gdy Chiny są bardziej aktywne w eksploracji małych i bardzo dużych modeli.
Wybory poziomu kwantyzacji: Kwantyzacja 4-bitowa (zwłaszcza
Q4_K_M
iQ4_0
) jest dominującym wyborem.F16
, jako opcja o wyższej wierności, również zajmuje ważną pozycję.Złożoność metadanych: Analiza metadanych modeli (np. interpretacja pola rodziny modeli) czasami ujawnia złożoność między jej rekordami a nazwami modeli lub powszechnym rozumieniem, podkreślając różnorodność zarządzania metadanymi w ekosystemie open-source.
3. Infrastruktura techniczna:
Środowiska hostingu: Duża liczba instancji Ollama jest hostowana u głównych dostawców usług w chmurze, takich jak AWS, Alibaba Cloud, Tencent Cloud, a także w sieciach głównych krajowych operatorów telekomunikacyjnych.
Porty usług: Domyślny port Ollama
11434
jest najczęściej używany, ale znaczna liczba instancji jest również udostępniana przez standardowe porty internetowe.
4. Obiektywna ocena:
Popularność Ollama: Dane wyraźnie pokazują wysoki wskaźnik adopcji Ollama wśród programistów i entuzjastów AI na całym świecie.
Witalność ekosystemu open-source: Różnorodność popularnych modeli oraz szerokie zastosowanie różnych wersji parametrów i kwantyzacji odzwierciedlają dynamiczny rozwój ekosystemu modeli AI open-source.
Równowaga w preferencjach użytkowników: Przy wyborze modeli użytkownicy dążą do znalezienia równowagi między możliwościami modelu, efektywnością operacyjną a kosztami sprzętu.
Bezpieczeństwo i otwartość: Duża liczba instancji umożliwia publiczny dostęp do ich list modeli, co, choć wygodne dla społeczności, może również stwarzać zagrożenia bezpieczeństwa.
5. Przyszłe perspektywy:
Wraz z pojawieniem się bardziej wydajnych, mniejszych modeli i dalszym postępem w technologii kwantyzacji, bariera wdrożenia dla Ollama powinna nadal maleć.
Standaryzacja metadanych modeli i modeli współdzielonych przez społeczność ma kluczowe znaczenie dla zwiększenia przejrzystości i użyteczności ekosystemu.
Podsumowując, Ollama staje się ważnym mostem łączącym najnowsze duże modele językowe z szerokim gronem programistów, badaczy, a nawet ogólnych użytkowników. Ta analiza danych dostarcza cennych informacji do zrozumienia jej obecnego globalnego statusu wdrożeń i preferencji użytkowników.
Komentarze
comments.comments (0)
Please login first
Sign in