
미중 AI 경쟁에 대한 새로운 시각: 2025년 Ollama 배포 비교 및 글로벌 AI 모델 트렌드 분석
Ollama는 대규모 언어 모델(LLM)을 로컬에서 실행, 생성 및 공유하는 프로세스를 단순화하도록 설계된 인기 있는 오픈 소스 도구입니다. 모델 가중치, 구성, 데이터를 Modelfile로 정의된 패키지로 묶고, 이러한 모델과 상호 작용하기 위한 API를 제공합니다. 이를 통해 개발자 및 연구자는 개인 컴퓨터 또는 서버에서 다양한 고급 AI 모델을 쉽게 배포하고 실험할 수 있습니다.
1. 서론
Ollama는 대규모 언어 모델(LLM)을 로컬에서 실행, 생성 및 공유하는 프로세스를 단순화하도록 설계된 인기 있는 오픈 소스 도구입니다. 모델 가중치, 구성, 데이터를 Modelfile로 정의된 패키지로 묶고, 이러한 모델과 상호 작용하기 위한 API를 제공합니다. 이를 통해 개발자 및 연구자는 개인 컴퓨터 또는 서버에서 다양한 고급 AI 모델을 쉽게 배포하고 실험할 수 있습니다.
본 보고서는 전 세계적으로 배포된 174,590개의 Ollama 인스턴스에서 수집된 데이터를 분석하여 배포 트렌드, 모델 선호도, 지리적 분포, 네트워크 특성을 밝히는 것을 목표로 합니다.
참고: 5장과 7장의 데이터 통계는 전체 174,590개 인스턴스에서 가져왔습니다. 6장의 데이터는 접근 가능한 인스턴스에서 가져왔습니다. 보안상의 이유로 Ollama 버전에 대한 통계는 포함하지 않았습니다.
데이터 기준일: 2025년 4월 24일
보고서 출처: Tenthe AI https://tenthe.com
저자: Ryan
2. 요약
본 보고서는 전 세계 공개된 Ollama 인스턴스에 대한 스캔 데이터 및 API 탐색 분석을 기반으로 합니다. 주요 결과는 다음과 같습니다:
전 세계적으로 Fofa를 통해 처음 식별된 약 174,590개 기록(99,412개의 고유 IP) 중, 접근 가능한 API를 가진 41,021개의 Ollama 인스턴스가 성공적으로 탐색되었으며, 이는 24,038개의 고유 IP 주소에 분산되어 있습니다(접근 가능 비율 약 24.18%).
지리적으로 미국과 중국이 Ollama 배포 수가 가장 많은 국가입니다. 클라우드 서비스 제공업체, 특히 AWS, Alibaba Cloud, Tencent Cloud가 Ollama 인스턴스의 주요 호스팅 환경입니다.
모델 배포는 다양성을 보이며,
llama3
,deepseek-r1
,mistral
,qwen
시리즈 모델이 널리 인기가 있습니다. 그중llama3:latest
와deepseek-r1:latest
가 가장 널리 배포된 두 가지 모델 태그입니다.7B-8B 매개변수 모델이 사용자에게 최고의 선택이며, Q4_K_M 및 Q4_0과 같은 4비트 양자화 모델은 성능과 리소스 소비 간의 좋은 균형 덕분에 널리 채택되고 있습니다.
기본 포트
11434
가 가장 일반적으로 사용되며, 대부분의 인스턴스는 HTTP 프로토콜을 통해 서비스를 노출합니다.
3. 데이터 출처 및 방법론
본 보고서의 데이터는 주로 두 단계에서 수집되었습니다:
초기 스캔: Fofa와 같은 네트워크 공간 검색 엔진을 사용하여
app="Ollama" && is_domain=false
조건을 통해 전 세계에 배포된 잠재적 Ollama 인스턴스를 초기 식별했습니다. 이 단계에서 중복 제거 후 99,412개의 고유 IP를 포함하는 174,590개의 기록을 찾았습니다.API 검증 및 데이터 풍부화: 초기 스캔된 IP 주소에 대해
ip:port/api/tags
API 엔드포인트를 탐색하여 Ollama 서비스의 접근성을 확인하고 배포된 특정 AI 모델 정보를 얻었습니다. 이 단계에서 41,021개의 성공적으로 응답한 Ollama 인스턴스(24,038개의 고유 IP에서)가 확인되었으며, 데이터는ollama
테이블에 저장되었습니다.최종 데이터는
ollama
테이블에 저장됩니다.
본 보고서의 분석은 주로 성공적으로 탐색된 API 및 해당 세부 정보(IP, 포트, 지리적 위치, 모델 목록을 포함하는 JSON 응답 등) 기록을 포함하는 ollama
테이블의 데이터를 기반으로 합니다.
4. 전체 배포 통계
Fofa 스캔 초기 기록 수: 174,590
Fofa 초기 스캔 고유 IP 수: 99,412
/api/tags
에 성공적으로 접근한 Ollama 인스턴스 수: 41,021ollama
테이블에서status = 'success'
인 기록)해당 고유 IP 주소 수: 24,038
ollama
테이블에서status = 'success'
인 기록)접근 가능한 IP 대 초기 식별된 IP 비율: (24038 / 99412) * 100% ≈ 24.18%
이는 Fofa를 통해 식별된 모든 Ollama 인스턴스 중 약 4분의 1이 /api/tags
인터페이스를 공개적으로 접근 가능하게 설정하여 배포된 모델 정보를 검색할 수 있음을 나타냅니다.
5. 지리적 분포 분석
5.1 상위 20개 배포 국가/지역
아래 표는 Ollama 인스턴스를 가진 고유 IP 수 기준으로 순위를 매긴 상위 20개 국가/지역을 보여줍니다.
순위 | 국가/지역 | 고유 IP 수 |
---|---|---|
1 | United States | 29195 |
2 | China | 16464 |
3 | Japan | 5849 |
4 | Germany | 5438 |
5 | United Kingdom | 4014 |
6 | India | 3939 |
7 | Singapore | 3914 |
8 | South Korea | 3773 |
9 | Ireland | 3636 |
10 | France | 3599 |
11 | Australia | 3558 |
12 | Brazil | 2909 |
13 | Canada | 2763 |
14 | South Africa | 2742 |
15 | Sweden | 2113 |
16 | Hong Kong SAR, China | 1277 |
17 | Israel | 675 |
18 | Taiwan, China | 513 |
19 | Russia | 475 |
20 | Finland | 308 |

5.2 상위 20개 글로벌 도시 배포
아래 표는 Ollama 인스턴스를 가진 고유 IP 수 기준으로 순위를 매긴 전 세계 상위 20개 도시를 보여줍니다.
순위 | 도시 | 국가/지역 | 고유 IP 수 |
---|---|---|---|
1 | Ashburn | United States | 5808 |
2 | Portland | United States | 5130 |
3 | Singapore | Singapore | 3914 |
4 | Frankfurt am Main | Germany | 3908 |
5 | Beijing | China | 3906 |
6 | London | United Kingdom | 3685 |
7 | Columbus | United States | 3672 |
8 | Mumbai | India | 3637 |
9 | Dublin | Ireland | 3631 |
10 | Tokyo | Japan | 3620 |
11 | Sydney | Australia | 3487 |
12 | Paris | France | 3175 |
13 | San Jose | United States | 2815 |
14 | Sao Paulo | Brazil | 2753 |
15 | Cape Town | South Africa | 2692 |
16 | Montreal | Canada | 2535 |
17 | Seattle | United States | 2534 |
18 | Hangzhou | China | 2447 |
19 | Seoul | South Korea | 2327 |
20 | Osaka | Japan | 2184 |
5.3 미국 상위 10개 도시 분포
순위 | 도시 | 고유 IP 수 |
---|---|---|
1 | Ashburn | 5808 |
2 | Portland | 5130 |
3 | Columbus | 3672 |
4 | San Jose | 2815 |
5 | Seattle | 2534 |
6 | Westlake Village | 1714 |
7 | Boardman | 855 |
8 | Florence | 776 |
9 | San Francisco | 753 |
10 | Boulder | 642 |

5.4 중국 본토 상위 10개 도시 분포
홍콩과 대만의 배포는 이미 국가/지역 통계에 포함되어 있으므로 상위 10개 도시 표에는 반영되지 않았습니다.
순위 | 도시 | 국가 | 고유 IP 수 |
---|---|---|---|
1 | Beijing | China | 3906 |
2 | Hangzhou | China | 2447 |
3 | Shanghai | China | 1335 |
4 | Guangzhou | China | 1296 |
5 | Shenzhen | China | 768 |
6 | Chengdu | China | 469 |
7 | Nanjing | China | 329 |
8 | Chongqing | China | 259 |
9 | Suzhou | China | 257 |
10 | Wuhan | China | 249 |

5.5 미중 상위 10개 도시 배포 비교
미국과 중국의 도시별 Ollama 배포를 더 직관적으로 비교하기 위해 아래 표는 양국 상위 10개 도시의 고유 IP 배포 수를 나란히 보여줍니다.
순위 | 미국 도시 (상위 10) | 미국 고유 IP 수 | 중국 도시 (상위 10) | 중국 고유 IP 수 |
---|---|---|---|---|
1 | Ashburn | 5808 | Beijing | 3906 |
2 | Portland | 5130 | Hangzhou | 2447 |
3 | Columbus | 3672 | Shanghai | 1335 |
4 | San Jose | 2815 | Guangzhou | 1296 |
5 | Seattle | 2534 | Shenzhen | 768 |
6 | Westlake Village | 1714 | Chengdu | 469 |
7 | Boardman | 855 | Nanjing | 329 |
8 | Florence | 776 | Chongqing | 259 |
9 | San Francisco | 753 | Suzhou | 257 |
10 | Boulder | 642 | Wuhan | 249 |

간단한 해설:
주요 도시 규모: 미국 상위 3개 도시(Ashburn, Portland, Columbus)는 각각 3,000개 이상의 고유 IP에 Ollama 배포가 이루어져 있습니다. 중국의 상위 도시(Beijing)는 3,000개 이상, 두 번째 도시(Hangzhou)는 2,000개 이상의 배포가 있습니다.
기술 및 경제 허브: 나열된 많은 도시들은 양국에서 잘 알려진 기술 혁신 센터 또는 중요한 경제 지역입니다.
데이터 센터 지역: Ashburn과 같은 미국 도시의 포함은 Ollama 인스턴스가 클라우드 서버 및 데이터 센터에 대규모로 배포될 수 있음을 반영합니다.
분포 차이: 전반적으로 미국 상위 10개 도시의 총 IP 수는 중국 상위 10개 도시보다 훨씬 높습니다. 그러나 양국 모두 소수의 핵심 도시가 Ollama 배포의 대부분을 차지하는 패턴을 보입니다.
이 도시별 비교는 Ollama가 개발자 도구로서의 홍보 및 적용이 지역 기술 생태계 및 산업 발전과 밀접하게 연결되어 있음을 더 잘 보여줍니다.
6. 모델 분석
6.1 AI 모델, 매개변수, 양자화에 대한 간략한 개요
Ollama는 다양한 오픈 소스 대규모 언어 모델을 지원합니다. 이러한 모델은 일반적으로 다음 특징으로 구분됩니다:
6.1.1 일반적인 모델 패밀리
현재 오픈 소스 커뮤니티에서는 각기 고유한 특성을 가진 우수한 LLM 패밀리가 많이 등장했습니다:
Llama 시리즈 (Meta AI): Llama 2, Llama 3, Code Llama 등. 강력한 일반 능력과 광범위한 커뮤니티 지원으로 알려져 있으며, 수많은 파인튜닝 버전이 있습니다. 데이터에서 볼 수 있는
llama3.1
,hermes3
과 같은 모델은 종종 Llama 아키텍처 기반입니다.Mistral 시리즈 (Mistral AI): Mistral 7B, Mixtral 8x7B 등. 효율성과 고성능, 특히 MoE(Mixture of Experts) 모델로 주목받고 있습니다.
Gemma 시리즈 (Google): Gemma 2B, Gemma 7B 등. Google이 출시한 오픈 가중치 모델로, 더 강력한 Gemini 모델에서 파생된 기술을 사용합니다.
Phi 시리즈 (Microsoft): Phi-2, Phi-3 등. 작지만 유능한 모델에 초점을 맞추며 "SLMs (Small Language Models)"를 강조합니다.
DeepSeek 시리즈 (DeepSeek AI): DeepSeek Coder, DeepSeek LLM 등. 코딩 및 일반 작업에 뛰어난 중국 AI 모델입니다.
Qwen 시리즈 (Alibaba Tongyi Qianwen): Qwen1.5 등. Alibaba DAMO Academy에서 출시한 모델 시리즈로, 다국어 및 작업을 지원합니다.
Yi (01.AI), Command R (Cohere) 등 다른 우수한 모델도 많이 있습니다.
Ollama는 Modelfile
메커니즘을 통해 이러한 기본 모델 또는 파인튜닝 버전을 쉽게 사용할 수 있도록 합니다. 모델 이름은 종종 family:size-variant-quantization
형식을 따릅니다. 예를 들어, llama3:8b-instruct-q4_K_M
과 같습니다.
6.1.2 모델 매개변수 (매개변수 크기)
모델 매개변수 수(일반적으로 B - Billion 또는 M - Million 단위)는 모델의 규모와 잠재적 능력을 나타내는 중요한 지표입니다. 일반적인 매개변수 크기는 다음과 같습니다:
소형 모델: < 7B (예: 1.5B, 2B, 3B). 일반적으로 빠르고 리소스 소비가 적어 특정 작업 또는 리소스가 제한된 환경에 적합합니다.
중형 모델: 7B, 8B, 13B. 능력과 리소스 소비 사이에서 좋은 균형을 이루며, 현재 커뮤니티에서 가장 인기 있는 크기 중 하나입니다.
대형 모델: 30B, 33B, 40B, 70B+. 일반적으로 더 유능하지만 더 많은 계산 리소스(RAM, VRAM)와 더 긴 추론 시간을 요구합니다.
데이터의 parameter_size
필드(예: "8.0B", "7B", "134.52M")가 이를 나타냅니다.
6.1.3 양자화 버전 (양자화 수준)
양자화는 모델 가중치의 수치 정밀도를 낮춰(예: 16비트 부동 소수점 FP16에서 4비트 정수 INT4로) 모델 크기를 줄이고 추론 속도를 높이는 기술입니다.
일반적인 양자화 수준: Ollama 및 GGUF 형식(Llama.cpp에서 사용)은
Q2_K
,Q3_K_S
,Q3_K_M
,Q3_K_L
,Q4_0
,Q4_K_M
,Q5_K_M
,Q6_K
,Q8_0
등 다양한 양자화 전략을 지원합니다.숫자(예: 2, 3, 4, 5, 6, 8)는 대략적인 비트 수를 나타냅니다.
K
시리즈 양자화(예:Q4_K_M
)는 llama.cpp에서 도입된 개선된 양자화 방법으로, 일반적으로 동일한 비트 수에서 더 나은 성능을 달성합니다._S
,_M
,_L
은 일반적으로 K-양자화의 다른 변형을 나타내며, 모델의 다른 부분에 영향을 미칩니다.F16
(FP16)은 16비트 부동 소수점을 나타내며, 종종 양자화되지 않거나 기본 양자화 버전으로 간주됩니다.F32
(FP32)는 전체 정밀도입니다.
트레이드오프: 더 높은 양자화(낮은 비트 수)는 더 작고 빠른 모델을 만들지만, 일반적으로 일부 성능 손실(모델 성능 저하)이 동반됩니다. 사용자는 하드웨어 및 모델 품질 요구 사항에 따라 선택해야 합니다.
데이터의 quantization_level
필드(예: "Q4_K_M", "F16")가 이를 나타냅니다.
6.2 인기 모델 이름 상위 10개
아래 표는 고유 IP 배포 수 기준으로 순위를 매긴 상위 10개 모델 태그를 보여주며, 해당 패밀리, 매개변수 크기, 양자화 수준 정보를 포함합니다.
순위 | 모델 이름 (model_name) | 고유 IP 배포 수 | 총 배포 인스턴스 수 |
---|---|---|---|
1 |
| 12659 | 24628 |
2 |
| 12572 | 24578 |
3 |
| 11163 | 22638 |
4 |
| 9868 | 21007 |
5 |
| 9845 | 20980 |
6 |
| 4058 | 5016 |
7 |
| 3124 | 3928 |
8 |
| 2856 | 3372 |
9 |
| 2714 | 3321 |
10 |
| 2668 | 3391 |

(참고: 고유 IP 배포 수는 해당 모델 태그의 인스턴스를 하나 이상 배포한 고유 IP 주소 수를 의미합니다. 총 배포 인스턴스 수는 모든 IP에서 models
목록에 해당 모델 태그가 나타나는 총 횟수를 의미합니다. 하나의 IP가 다른 방법을 통해 동일한 모델 태그를 여러 번 가리키거나, 하나의 IP가 동일한 기본 모델에 속하는 다른 태그의 여러 인스턴스를 실행할 수 있습니다.)
초기 관찰 (인기 모델 이름):
:latest
태그가 붙은 모델이 매우 흔합니다.llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
등입니다. 이는 많은 사용자가 최신 버전의 모델을 직접 가져오는 것을 선호함을 나타냅니다.Llama 시리즈 모델(예:
llama3:latest
,llama3:8b-text-q4_K_S
,llama2:latest
,llama3.1:8b
)이 여러 순위를 차지하며 강력한 인기를 보여줍니다.deepseek-r1:latest
(DeepSeek 시리즈) 및qwen:latest
(Tongyi Qianwen 시리즈)와 같은 중국 AI 모델도 인상적인 성과를 보이며 상위권을 차지했습니다.llama3:8b-text-q4_K_S
와 같은 특정 양자화 버전도 상위 10위 안에 들었으며, 이는 사용자가 특정 성능/리소스 소비 균형을 선호함을 나타냅니다.smollm2:135m
및qwen2.5:1.5b
와 같은 소형 모델도 상당수 배포되어 경량 모델에 대한 수요를 충족하고 있습니다.
6.3 인기 모델 패밀리 상위 10개
모델 패밀리details.family
필드)는 모델의 기본 아키텍처 또는 주요 기술 계보를 나타냅니다. 아래는 데이터 분석을 기반으로 배포 수가 더 많은 모델 패밀리입니다:
순위 | 모델 패밀리 (family) | 고유 IP 배포 수 (추정) | 총 배포 인스턴스 수 (추정) |
---|---|---|---|
1 |
| ~20250 | ~103480 |
2 |
| ~17881 | ~61452 |
3 |
| ~1479 | ~1714 |
4 |
| ~1363 | ~2493 |
5 |
| ~1228 | ~2217 |
6 |
| ~943 | ~1455 |
7 |
| ~596 | ~750 |
8 |
| ~484 | ~761 |
9 |
| ~368 | ~732 |
10 |
| ~244 | ~680 |

(참고: 여기의 특정 값은 이전에 쿼리된 상위 50개 모델 세부 정보 목록을 기반으로 추정 및 요약되었으며 정확한 글로벌 통계와 약간 다를 수 있지만 추세는 대표적입니다.)
초기 관찰 (인기 모델 패밀리):
llama
패밀리가 절대적인 우위를 차지하고 있으며, 이는 Llama 시리즈 모델이 많은 최신 오픈 소스 LLM의 기반이자 자체적으로도 광범위하게 응용되고 있다는 점과 일치합니다. 방대한 생태계와 수많은 파인튜닝 버전이 가장 인기 있는 선택지가 되게 합니다.qwen2
(Tongyi Qianwen Qwen2 시리즈)는 두 번째로 큰 패밀리로서 중국 및 전 세계적으로 강력한 경쟁력을 보여줍니다.nomic-bert
와bert
의 등장이 주목할 만합니다. 이들은 일반적으로 '대규모 언어 모델'(대화형)이 아닌 텍스트 임베딩 또는 기타 자연어 처리 기본 모델로 간주되지만, 높은 배포량은 Ollama가 이러한 작업에도 널리 사용됨을 시사합니다. Ollama는 특정 작업(예: 임베딩 벡터 생성)을 수행할 때 기본 임베딩 모델(예:nomic-embed-text
)을 자동으로 다운로드하는데, 이것이 이 패밀리들이 높은 순위를 차지하는 주된 이유일 가능성이 높습니다.Google의
gemma
시리즈gemma3
,gemma
,gemma2
포함)도 상당한 채택률을 보입니다.deepseek2
및phi3
와 같은 다른 잘 알려진 모델 패밀리도 상위 10위 안에 들었습니다.mllama
는 다양한 Llama 기반 하이브리드, 수정 또는 커뮤니티 이름 모델의 집합을 나타낼 수 있습니다.
6.4 원래 매개변수 크기 통계 상위 15개
모델 매개변수 크기details.parameter_size
필드)는 모델 규모의 중요한 지표입니다. 원본 데이터의 매개변수 크기 표현이 다양하므로(예: "8.0B", "7B", "134.52M"), 이러한 원본 문자열을 직접 집계했습니다. 아래는 배포 수가 더 많은 매개변수 크기 표현입니다:
순위 | 매개변수 크기 (원본 문자열) | 고유 IP 배포 수 (추정) | 총 배포 인스턴스 수 (추정) |
---|---|---|---|
1 |
| ~14480 | ~52577 |
2 |
| ~14358 | ~28105 |
3 |
| ~11233 | ~22907 |
4 |
| ~9895 | ~21058 |
5 |
| ~4943 | ~11738 |
6 |
| ~4062 | ~5266 |
7 |
| ~2759 | ~3596 |
8 |
| ~2477 | ~3311 |
9 |
| ~2034 | ~2476 |
10 |
| ~1553 | ~2244 |
11 |
| ~1477 | ~1708 |
12 |
| ~1421 | ~2000 |
13 |
| ~1254 | ~2840 |
14 |
| ~1123 | ~2091 |
15 |
| ~943 | ~1194 |

(참고: 값은 이전에 쿼리된 상위 50개 모델 세부 정보 목록의 매개변수 정보를 요약하여 추정되었습니다.)
초기 관찰 (인기 매개변수 크기):
7B에서 8B 규모의 모델이 절대적인 주류입니다: "8.0B", "7.6B", "7.2B", "7B"가 배포의 대부분을 차지합니다. 이는 일반적으로 Llama 2/3 7B/8B 시리즈, Mistral 7B 등 커뮤니티에서 매우 인기 있는 모델 및 그 다양한 파인튜닝 버전과 일치합니다. 이들은 성능과 리소스 소비 사이에서 좋은 균형을 이룹니다.
4B 규모 모델도 중요한 위치를 차지합니다: "4B"의 높은 배포가 주목할 만합니다.
백만 단위 매개변수(M) 경량 모델이 널리 배포되어 있습니다: "134.52M" 및 "137M"의 높은 순위는 임베딩 모델(예:
nomic-embed-text
) 또는 매우 작은 전문 모델smollm
시리즈와 같은)의 인기도와 관련이 있을 가능성이 높습니다. 이 모델들은 작고 빠르며 리소스가 제한되거나 지연 시간에 민감한 시나리오에 적합합니다.1B-4B 범위 소형 모델의 안정적인 수요: "1.5B", "1.8B", "3.2B", "4.3B"와 같은 매개변수 크기의 모델도 일부 사용자에게 선호됩니다.
10B 이상의 대형 모델: "13B", "12.2B", "32.8B", "14.8B"와 같은 모델은 7-8B 수준만큼 고유 IP 배포가 많지는 않지만, 상당한 배포량을 보이며 하드웨어 요구 사항이 높음에도 불구하고 더 유능한 모델에 대한 커뮤니티 수요가 있음을 나타냅니다.
6.5 양자화 수준 통계 상위 10개
모델 양자화 수준details.quantization_level
필드)은 모델 크기를 줄이고 추론 속도를 높이기 위해 채택된 가중치 정밀도를 반영합니다. 아래는 배포 수가 더 많은 양자화 수준입니다:
순위 | 양자화 수준 (원본 문자열) | 고유 IP 배포 수 (추정) | 총 배포 인스턴스 수 (추정) |
---|---|---|---|
1 |
| ~20966 | ~53688 |
2 |
| ~18385 | ~88653 |
3 |
| ~9860 | ~21028 |
4 |
| ~5793 | ~9837 |
5 |
| ~596 | ~1574 |
6 |
| ~266 | ~1318 |
7 |
| ~97 | ~283 |
8 |
| ~85 | ~100 |
9 |
| ~60 | ~178 |
10 |
| ~54 | ~140 |

(참고: 값은 이전에 쿼리된 상위 50개 모델 세부 정보 목록의 양자화 정보를 요약하여 추정되었습니다.)
초기 관찰 (인기 양자화 수준):
4비트 양자화가 지배적인 솔루션입니다:
Q4_K_M
,Q4_0
,Q4_K_S
이 세 가지 4비트 양자화 수준이 압도적으로 상위권을 차지합니다. 이는 커뮤니티가 모델 성능, 추론 속도 및 리소스 점유(특히 VRAM) 사이의 최적의 균형을 달성하기 위해 4비트 양자화를 선호하는 솔루션으로 널리 채택하고 있음을 명확히 보여줍니다.F16
(16비트 부동 소수점)도 상당한 위치를 차지합니다: 양자화되지 않은(또는 기본적으로만 양자화된) 버전으로서F16
의 높은 배포는 상당수의 사용자가 최고의 모델 충실도를 추구하거나 충분한 하드웨어 리소스를 보유하고 있기 때문에 이를 선택함을 보여줍니다.Q8_0
(8비트 양자화)은 보충적인 옵션입니다: 4비트와F16
사이의 옵션을 제공합니다.unknown
값의 출현: 일부 모델 메타데이터에서 양자화 수준 정보가 누락되거나 비표준임을 나타냅니다.
6.6 AI 컴퓨팅 파워 분포 (모델 매개변수 크기별): 중국 vs 미국
주요 국가에서 다양한 규모의 모델이 어떻게 배포되는지 더 깊이 이해하기 위해 미국과 중국의 Ollama 인스턴스에 배포된 모델의 매개변수 크기를 분류하고 집계했습니다. 매개변수 크기는 종종 모델 복잡성과 잠재적 AI 컴퓨팅 파워 수요의 중요한 지표로 간주됩니다.
매개변수 규모 분류 기준:
소형: 10억 개 미만 매개변수 (< 1B)
중형: 10억 개 이상 ~ 100억 개 미만 매개변수 (1B ~ < 10B)
대형: 100억 개 이상 ~ 500억 개 미만 매개변수 (10B ~ < 50B)
초대형: 500억 개 이상 매개변수 (>= 50B)
아래 표는 미국과 중국에서 다양한 매개변수 규모의 모델을 배포한 고유 IP 수를 보여줍니다:
국가 | 매개변수 규모 분류 | 고유 IP 수 |
---|---|---|
China | Small (<1B) | 3313 |
China | Medium (1B to <10B) | 4481 |
China | Large (10B to <50B) | 1548 |
China | Extra Large (>=50B) | 280 |
United States | Small (<1B) | 1368 |
United States | Medium (1B to <10B) | 6495 |
United States | Large (10B to <50B) | 1301 |
United States | Extra Large (>=50B) | 58 |
--China-vs-USA.jpeg)
데이터 통찰 및 분석:
중형 모델이 주류이지만, 초점이 다릅니다:
미국: 미국에서는 중형 모델(1B-10B) 배포가 절대적으로 지배적입니다 (6495개의 고유 IP).
중국: 중국에서도 중형 모델(4481개의 고유 IP)이 가장 많이 배포된 유형이지만, 소형 모델(<1B)의 배포(3313개의 고유 IP)가 매우 상당합니다.
소형 모델에서의 상당한 차이: 중국의 대규모 소형 모델 배포는 엣지 컴퓨팅, 모바일 AI 애플리케이션 등 유사 시나리오에 대한 선호도를 반영할 수 있습니다.
대형 및 초대형 모델 배포: 중국은 대형 및 초대형 모델 탐색에서 더 높은 활동성을 보입니다 (기반은 작지만).
전반적인 컴퓨팅 파워 투자에 대한 추론: 미국은 중형 모델 기반이 실용적인 AI 애플리케이션의 확산을 보여줍니다. 중국은 소형 모델에서 강점을 보이며 대형 모델을 적극적으로 탐색하고 있습니다.
글로벌 트렌드에 대한 시사점: 중형 모델은 전 세계적으로 인기가 있을 가능성이 높습니다. 지역마다 생태계 및 리소스 조건에 따라 모델 채택 전략이 다를 수 있습니다.
중국과 미국의 모델 매개변수 규모를 구분함으로써 양국에서 Ollama 애플리케이션의 다른 초점과 개발 잠재력을 알 수 있습니다.
7. 네트워크 통찰
7.1 포트 사용
11434
(기본 포트): 대다수(30,722개의 고유 IP)의 Ollama 인스턴스가 기본 포트11434
에서 실행됩니다.다른 일반적인 포트:
80
(1,619개의 고유 IP),8080
(1,571개의 고유 IP),443
(1,339개의 고유 IP) 등도 사용되며, 이는 일부 인스턴스가 리버스 프록시 뒤에 배포되거나 사용자가 포트를 사용자 지정했음을 나타낼 수 있습니다.
7.2 프로토콜 사용
HTTP: 약 65,506개의 고유 IP가 HTTP 프로토콜을 통해 인스턴스를 서비스하고 있습니다.
HTTPS: 약 43,765개의 고유 IP가 HTTPS 프로토콜을 통해 인스턴스를 서비스하고 있습니다.
대부분의 인스턴스는 여전히 암호화되지 않은 HTTP를 통해 노출되어 특정 보안 위험을 초래할 수 있습니다. (참고: 하나의 IP가 HTTP와 HTTPS를 모두 지원할 수 있으므로 여기의 IP 수 합계가 총 고유 IP 수를 초과할 수 있습니다)
7.3 주요 호스팅 제공업체 (AS 조직)
Ollama 인스턴스 호스팅은 클라우드 서비스 제공업체에 매우 집중되어 있습니다.
순위 | AS 조직 | 고유 IP 수 | 주요 관련 제공업체 |
---|---|---|---|
1 | AMAZON-02 | 53658 | AWS |
2 | AMAZON-AES | 5539 | AWS |
3 | Chinanet | 4964 | China Telecom |
4 | Hangzhou Alibaba Advertising Co.,Ltd. | 2647 | Alibaba Cloud |
5 | HENGTONG-IDC-LLC | 2391 | 호스팅 제공업체 |
6 | Shenzhen Tencent Computer Systems Company Limited | 1682 | Tencent Cloud |
7 | CHINA UNICOM China169 Backbone | 1606 | China Unicom |
8 | Hetzner Online GmbH | 972 | Hetzner |
9 | China Unicom Beijing Province Network | 746 | China Unicom (Beijing) |
10 | LEASEWEB-USA-LAX | 735 | Leaseweb |

AWS (AMAZON-02, AMAZON-AES)가 가장 큰 비중을 차지하며, 주요 중국 통신 사업자 및 클라우드 서비스 제공업체(Alibaba Cloud, Tencent Cloud 등)가 그 뒤를 잇습니다. Hetzner 및 Leaseweb과 같은 다른 호스팅 제공업체도 상당한 비중을 차지합니다.
8. 보안 및 기타 관찰 사항
버전 정보: 보안상의 이유로 Ollama 버전에 대한 통계는 포함하지 않았습니다.
HTTP 노출 위험: 앞서 언급했듯이, 상당수의 Ollama 인스턴스가 TLS 암호화 없이 HTTP를 통해 노출되어 통신 내용(예: 모델과의 상호 작용)이 도청 또는 변조에 취약할 수 있습니다. 사용자는 리버스 프록시를 구성하고 HTTPS를 활성화하는 것이 좋습니다.
API 접근성: 본 보고서의 데이터는
/api/tags
인터페이스가 공개적으로 접근 가능한 Ollama 인스턴스를 기반으로 합니다. 실제 배포 수는 더 많을 수 있지만, 일부 인스턴스는 사설 네트워크에 배포되거나 방화벽에 의해 외부 접근이 제한될 수 있습니다.
9. 결론 및 간략한 검토
본 보고서는 전 세계적으로 공개된 99,412개의 Ollama 인스턴스(그들의 /api/tags
인터페이스를 통해) 데이터를 분석하여 다음의 주요 결론 및 관찰 사항을 도출했습니다:
1. 글로벌 배포 개요 및 지리적 분포:
Ollama는 대규모 모델을 로컬에서 실행하는 편리한 도구로서 전 세계적으로 널리 배포되었습니다. 본 분석은 99,412개의 공개적으로 접근 가능한 고유 IP를 식별했습니다.
높은 지리적 집중도: 미국과 중국은 Ollama 배포가 가장 집중된 두 국가/지역이며, 전체 접근 가능한 인스턴스 중 상당 부분을 차지합니다 (미국 29,195개, 중국 16,464개). 일본, 독일, 영국, 인도, 싱가포르와 같은 국가들도 상당한 배포 수를 보입니다.
도시별 핫스팟: 미국에서는 Ashburn, Portland, Columbus와 같은 도시가 배포를 주도하며, 중국에서는 Beijing, Hangzhou, Shanghai, Guangzhou와 같은 기술 발전 도시가 주요 배포 위치입니다. 이는 종종 기술 기업, 데이터 센터, 개발자 커뮤니티의 집중과 관련이 있습니다.
2. AI 모델 배포 트렌드:
인기 모델 태그:
llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
와 같은 일반적인 최신 태그가 가장 인기가 많습니다.llama3:8b-text-q4_K_S
와 같이 특정 최적화된 버전도 좋은 균형 때문에 선호됩니다.지배적인 모델 패밀리:
llama
패밀리가 절대적인 차이로 선두를 차지하며, 그 뒤를qwen2
가 잇습니다.nomic-bert
및bert
와 같은 임베딩 모델 패밀리의 높은 순위는 Ollama의 기본 동작과 관련이 있을 가능성이 높으며 주목할 만합니다.매개변수 크기 선호도: 7B-8B 매개변수 모델이 현재 주류입니다. 백만 단위 매개변수의 경량 모델과 10B 이상의 대형 모델도 각자의 시장을 가지고 있습니다. 미중 비교에서는 미국이 중형 모델을 더 많이 배포하는 반면, 중국은 소형 및 초대형 모델 탐색에 더 적극적임을 보여줍니다.
양자화 수준 선택: 4비트 양자화(특히
Q4_K_M
및Q4_0
)가 압도적인 선택입니다.F16
은 더 높은 충실도 옵션으로서 중요한 위치를 차지합니다.메타데이터 복잡성: 모델 메타데이터 분석(예: 모델 패밀리 필드 해석)은 때때로 해당 기록과 모델 이름 또는 일반적인 이해 사이에 복잡성을 드러내며, 오픈 소스 생태계의 다양한 메타데이터 관리를 보여줍니다.
3. 기술 인프라:
호스팅 환경: 상당수의 Ollama 인스턴스가 AWS, Alibaba Cloud, Tencent Cloud와 같은 주요 클라우드 서비스 제공업체 및 주요 국가 통신 사업자의 네트워크에 호스팅되어 있습니다.
서비스 포트: Ollama의 기본 포트
11434
가 가장 일반적으로 사용되지만, 상당수의 인스턴스가 표준 웹 포트를 통해서도 노출됩니다.
4. 객관적 평가:
Ollama의 인기: 데이터는 전 세계 개발자 및 AI 애호가들 사이에서 Ollama의 높은 채택률을 명확히 보여줍니다.
오픈 소스 생태계의 활력: 인기 모델의 다양성 및 다양한 매개변수 및 양자화 버전의 광범위한 사용은 오픈 소스 AI 모델 생태계의 활발한 발전을 반영합니다.
사용자 선호도의 균형: 모델 선택 시 사용자는 모델 능력, 운영 효율성 및 하드웨어 비용 사이에서 균형을 추구하는 경향이 있습니다.
보안 및 개방성: 상당수의 인스턴스가 모델 목록에 대한 공개 접근을 허용하며, 이는 커뮤니티에 편리하지만 보안 위험을 초래할 수도 있습니다.
5. 향후 전망:
보다 효율적이고 작은 모델의 출현 및 양자화 기술의 추가 발전으로 Ollama의 배포 장벽은 계속 낮아질 것으로 예상됩니다.
모델 메타데이터 및 커뮤니티 공유 모델의 표준화는 생태계의 투명성과 사용성을 향상시키는 데 중요합니다.
요약하자면, Ollama는 최첨단 대규모 언어 모델과 광범위한 개발자, 연구자, 심지어 일반 사용자를 연결하는 중요한 다리가 되고 있습니다. 이 데이터 분석은 현재의 글로벌 배포 상태와 사용자 선호도를 이해하는 데 귀중한 통찰을 제공합니다.
댓글
comments.comments (0)
Please login first
Sign in