
ABD-Çin Yapay Zeka Yarışına Yeni Bir Bakış Açısı: 2025 Ollama Dağıtım Karşılaştırması ve Küresel Yapay Zeka Model Trendleri İçgörüleri
Ollama, büyük dil modellerini (LLM'ler) yerel olarak çalıştırma, oluşturma ve paylaşma sürecini basitleştirmek için tasarlanmış popüler bir açık kaynaklı araçtır. Model ağırlıklarını, yapılandırmasını ve verilerini bir Modelfile tarafından tanımlanan bir pakette birleştirir ve bu modellerle etkileşim için bir API sağlar. Bu, geliştiricilerin ve araştırmacıların kişisel bilgisayarlarda veya sunucularda çeşitli gelişmiş yapay zeka modellerini kolayca dağıtmalarını ve denemelerini sağlar.
1. Giriş
Ollama, büyük dil modellerini (LLM'ler) yerel olarak çalıştırma, oluşturma ve paylaşma sürecini basitleştirmek için tasarlanmış popüler bir açık kaynaklı araçtır. Model ağırlıklarını, yapılandırmasını ve verilerini bir Modelfile tarafından tanımlanan bir pakette birleştirir ve bu modellerle etkileşim için bir API sağlar. Bu, geliştiricilerin ve araştırmacıların kişisel bilgisayarlarda veya sunucularda çeşitli gelişmiş yapay zeka modellerini kolayca dağıtmalarını ve denemelerini sağlar.
Bu rapor, dünya genelinde dağıtılmış 174.590 Ollama örneğinden elde edilen verileri analiz ederek dağıtım eğilimlerini, model tercihlerini, coğrafi dağılımı ve ağ özelliklerini ortaya koymayı amaçlamaktadır.
Not: Bölüm 5 ve Bölüm 7'deki veri istatistikleri 174.590 örneğin tamamından alınmıştır. Bölüm 6'daki veriler erişilebilir örneklerden alınmıştır. Güvenlik nedeniyle, Ollama sürümlerine ilişkin istatistikleri listelemedik.
Veri Tarihi: 24 Nisan 2025.
Rapor Kaynağı: Tenthe AI https://tenthe.com
Yazar: Ryan
2. Yönetici Özeti
Bu rapor, dünya genelinde halka açık Ollama örneklerinin tarama verileri ve API yoklamalarının analizine dayanmaktadır. Temel bulgular şunlardır:
Küresel olarak, Fofa aracılığıyla başlangıçta tanımlanan yaklaşık 174.590 kayıt (benzersiz 99.412 IP) arasında, erişilebilir API'lere sahip 41.021 Ollama örneği başarıyla yoklandı ve 24.038 benzersiz IP adresine dağıtıldı (yaklaşık %24,18 erişilebilirlik oranı).
Coğrafi olarak, Amerika Birleşik Devletleri ve Çin, en yüksek Ollama dağıtım sayısına sahip ülkelerdir. Bulut hizmeti sağlayıcıları, özellikle AWS, Alibaba Cloud ve Tencent Cloud, Ollama örnekleri için birincil barındırıcılardır.
Model dağıtımları çeşitlilik göstermektedir;
llama3
,deepseek-r1
,mistral
veqwen
serisi modeller yaygın olarak popülerdir. Bunlar arasındallama3:latest
vedeepseek-r1:latest
en yaygın dağıtılan iki model etiketidir.7B-8B parametreli modeller kullanıcılar için en iyi seçimdir, Q4_K_M ve Q4_0 gibi 4-bit nicemlenmiş modeller ise performans ve kaynak tüketimi arasındaki iyi dengeleri nedeniyle yaygın olarak benimsenmektedir.
Varsayılan
11434
portu en yaygın kullanılanıdır ve çoğu örnek, hizmetleri HTTP protokolü üzerinden sunar.
3. Veri Kaynakları ve Metodoloji
Bu raporun verileri temel olarak iki aşamadan gelmektedir:
İlk Tarama: Fofa gibi ağ alanı arama motorlarını kullanarak,
app="Ollama" && is_domain=false
koşuluyla, dünya genelinde dağıtılmış potansiyel Ollama örneklerini başlangıçta tanımlamak. Bu aşamada 174.590 kayıt bulundu ve tekilleştirmeden sonra 99.412 benzersiz IP içeriyordu.API Doğrulama ve Veri Zenginleştirme: Ollama hizmetlerinin erişilebilirliğini doğrulamak ve dağıtılan belirli yapay zeka modelleri hakkında bilgi edinmek için başlangıçta taranan IP adresleri için
ip:port/api/tags
API uç noktasını yoklamak. Bu aşamada, başarıyla yanıt veren 41.021 Ollama örneği doğrulandı (24.038 benzersiz IP'den, verilerollama
tablosunda saklandı).Son veriler
ollama
tablosunda saklanır.
Bu rapordaki analiz, temel olarak ollama
tablosundaki verilere dayanmaktadır; bu tablo, başarıyla yoklanan API'lerin kayıtlarını ve IP, port, coğrafi konum ve JSON yanıtı (model listesini içeren) vb. dahil olmak üzere ayrıntılı bilgilerini içerir.
4. Genel Dağıtım İstatistikleri
Fofa taramasından elde edilen ilk kayıt sayısı: 174.590
Fofa ilk taramasından elde edilen benzersiz IP sayısı: 99.412
/api/tags
adresine başarıyla erişen Ollama örneklerinin sayısı: 41.021 (ollama
tablosundastatus = 'success'
olan kayıtlardan)Karşılık gelen benzersiz IP adreslerinin sayısı: 24.038 (
ollama
tablosundastatus = 'success'
olan kayıtlardan)Erişilebilir IP'lerin başlangıçta tanımlanan IP'lere oranı: (24038 / 99412) * %100 ≈ %24,18
Bu, Fofa aracılığıyla tanımlanan tüm Ollama örnekleri arasında yaklaşık dörtte birinin /api/tags
arayüzünün halka açık olduğunu ve dağıtılan modelleri hakkında bilgi almamızı sağladığını göstermektedir.
5. Coğrafi Dağılım Analizi
5.1 En Çok Dağıtım Yapılan İlk 20 Ülke/Bölge
Aşağıdaki tablo, Ollama örneklerine sahip benzersiz IP sayısına göre sıralanmış ilk 20 ülkeyi/bölgeyi göstermektedir.
Sıra | Ülke/Bölge | Benzersiz IP Sayısı |
---|---|---|
1 | Amerika Birleşik Devletleri | 29195 |
2 | Çin | 16464 |
3 | Japonya | 5849 |
4 | Almanya | 5438 |
5 | Birleşik Krallık | 4014 |
6 | Hindistan | 3939 |
7 | Singapur | 3914 |
8 | Güney Kore | 3773 |
9 | İrlanda | 3636 |
10 | Fransa | 3599 |
11 | Avustralya | 3558 |
12 | Brezilya | 2909 |
13 | Kanada | 2763 |
14 | Güney Afrika | 2742 |
15 | İsveç | 2113 |
16 | Hong Kong ÖİB, Çin | 1277 |
17 | İsrail | 675 |
18 | Tayvan, Çin | 513 |
19 | Rusya | 475 |
20 | Finlandiya | 308 |

5.2 En Çok Küresel Şehir Dağıtımı İlk 20
Aşağıdaki tablo, Ollama örneklerine sahip benzersiz IP sayısına göre sıralanmış dünya çapındaki ilk 20 şehri göstermektedir.
Sıra | Şehir | Ülke/Bölge | Benzersiz IP Sayısı |
---|---|---|---|
1 | Ashburn | Amerika Birleşik Devletleri | 5808 |
2 | Portland | Amerika Birleşik Devletleri | 5130 |
3 | Singapur | Singapur | 3914 |
4 | Frankfurt am Main | Almanya | 3908 |
5 | Pekin | Çin | 3906 |
6 | Londra | Birleşik Krallık | 3685 |
7 | Columbus | Amerika Birleşik Devletleri | 3672 |
8 | Mumbai | Hindistan | 3637 |
9 | Dublin | İrlanda | 3631 |
10 | Tokyo | Japonya | 3620 |
11 | Sidney | Avustralya | 3487 |
12 | Paris | Fransa | 3175 |
13 | San Jose | Amerika Birleşik Devletleri | 2815 |
14 | Sao Paulo | Brezilya | 2753 |
15 | Cape Town | Güney Afrika | 2692 |
16 | Montreal | Kanada | 2535 |
17 | Seattle | Amerika Birleşik Devletleri | 2534 |
18 | Hangzhou | Çin | 2447 |
19 | Seul | Güney Kore | 2327 |
20 | Osaka | Japonya | 2184 |
5.3 En İyi 10 ABD Şehir Dağılımı
Sıra | Şehir | Benzersiz IP Sayısı |
---|---|---|
1 | Ashburn | 5808 |
2 | Portland | 5130 |
3 | Columbus | 3672 |
4 | San Jose | 2815 |
5 | Seattle | 2534 |
6 | Westlake Village | 1714 |
7 | Boardman | 855 |
8 | Florence | 776 |
9 | San Francisco | 753 |
10 | Boulder | 642 |

5.4 En İyi 10 Çin Anakarası Şehir Dağılımı
Hong Kong ve Tayvan'daki dağıtımlar, ülke/bölge istatistiklerine zaten dahil oldukları için İlk 10 şehir tablosunda yansıtılmamaktadır.
Sıra | Şehir | Ülke ( | Benzersiz IP Sayısı |
---|---|---|---|
1 | Pekin | Çin | 3906 |
2 | Hangzhou | Çin | 2447 |
3 | Şanghay | Çin | 1335 |
4 | Guangzhou | Çin | 1296 |
5 | Shenzhen | Çin | 768 |
6 | Chengdu | Çin | 469 |
7 | Nanjing | Çin | 329 |
8 | Chongqing | Çin | 259 |
9 | Suzhou | Çin | 257 |
10 | Wuhan | Çin | 249 |

5.5 ABD-Çin İlk 10 Şehir Dağıtım Karşılaştırması
ABD ve Çin'deki şehir düzeyinde Ollama dağıtımlarını daha sezgisel bir şekilde karşılaştırmak için aşağıdaki tablo, her iki ülkedeki ilk 10 şehir için benzersiz IP dağıtım sayılarını yan yana göstermektedir:
Sıra | ABD Şehri (İlk 10) | ABD Benzersiz IP Sayısı | Çin Şehri (İlk 10) | Çin Benzersiz IP Sayısı |
---|---|---|---|---|
1 | Ashburn | 5808 | Pekin | 3906 |
2 | Portland | 5130 | Hangzhou | 2447 |
3 | Columbus | 3672 | Şanghay | 1335 |
4 | San Jose | 2815 | Guangzhou | 1296 |
5 | Seattle | 2534 | Shenzhen | 768 |
6 | Westlake Village | 1714 | Chengdu | 469 |
7 | Boardman | 855 | Nanjing | 329 |
8 | Florence | 776 | Chongqing | 259 |
9 | San Francisco | 753 | Suzhou | 257 |
10 | Boulder | 642 | Wuhan | 249 |

Kısa Yorum:
Lider Şehir Hacmi: En iyi 3 ABD şehri (Ashburn, Portland, Columbus) her biri 3.000'den fazla benzersiz IP'ye sahip Ollama dağıtımına sahiptir. Çin'in en büyük şehri (Pekin) 3.000'den fazla dağıtıma ve ikinci şehri (Hangzhou) 2.000'den fazla dağıtıma sahiptir.
Teknoloji ve Ekonomi Merkezleri: Her iki ülkede listelenen şehirlerin çoğu, tanınmış teknoloji inovasyon merkezleri veya önemli ekonomik bölgelerdir.
Veri Merkezi Bölgeleri: Ashburn gibi ABD şehirlerinin dahil edilmesi, Ollama örneklerinin büyük ölçüde bulut sunucuları ve veri merkezleri içinde dağıtılmış olabileceğini de yansıtmaktadır.
Dağılım Farklılıkları: Genel olarak, ABD İlk 10 şehirlerindeki toplam IP sayısı, Çin'in İlk 10 şehirlerindekinden önemli ölçüde daha yüksektir. Ancak, her iki ülke de birkaç çekirdek şehrin Ollama dağıtımlarının büyük çoğunluğunu oluşturduğu bir model göstermektedir.
Bu şehir düzeyindeki karşılaştırma, bir geliştirici aracı olarak Ollama'nın tanıtım ve uygulamasının bölgesel teknolojik ekosistemler ve endüstriyel gelişimle yakından bağlantılı olduğunu daha da ortaya koymaktadır.
6. Model Analizi
6.1 Yapay Zeka Modelleri, Parametreler ve Nicemlemeye Kısa Bir Bakış
Ollama, çeşitli açık kaynaklı büyük dil modellerini destekler. Bu modeller tipik olarak aşağıdaki özelliklerle ayırt edilir:
6.1.1 Yaygın Model Aileleri
Mevcut açık kaynak topluluğu, her birinin kendine özgü özellikleri olan mükemmel LLM ailelerinde bir artış görmüştür:
Llama Serisi (Meta AI): Llama 2, Llama 3, Code Llama gibi. Güçlü genel yetenekleri ve kapsamlı topluluk desteğiyle bilinir, bu da çok sayıda ince ayarlı sürüme yol açar. Verilerimizde görülen
llama3.1
,hermes3
gibi modeller genellikle Llama mimarisine dayanır.Mistral Serisi (Mistral AI): Mistral 7B, Mixtral 8x7B gibi. Verimliliği ve yüksek performansı, özellikle MoE (Uzmanlar Karışımı) modelleriyle dikkat çekiyor.
Gemma Serisi (Google): Gemma 2B, Gemma 7B gibi. Google tarafından yayınlanan, teknolojisi daha güçlü Gemini modellerinden türetilen açık ağırlıklı modeller.
Phi Serisi (Microsoft): Phi-2, Phi-3 gibi. "SLM'lere (Küçük Dil Modelleri)" vurgu yaparak küçük boyutlu ancak yetenekli modellere odaklanır.
DeepSeek Serisi (DeepSeek AI): DeepSeek Coder, DeepSeek LLM gibi. Kodlama ve genel görevlerde başarılı olan Çin yapay zeka modelleri.
Qwen Serisi (Alibaba Tongyi Qianwen): Qwen1.5 gibi. Alibaba DAMO Akademisi tarafından başlatılan, birden çok dili ve görevi destekleyen bir model serisi.
Yi (01.AI), Command R (Cohere) gibi birçok başka mükemmel model bulunmaktadır.
Ollama, Modelfile
mekanizması aracılığıyla kullanıcıların bu temel modelleri veya ince ayarlı sürümlerini kolayca kullanmasına olanak tanır. Model adları genellikle aile:boyut-varyant-nicemleme
biçimini izler, örneğin, llama3:8b-instruct-q4_K_M
.
6.1.2 Model Parametreleri (Parametre Boyutu)
Model parametrelerinin sayısı (genellikle B - Milyar; veya M - Milyon) bir modelin ölçeğinin ve potansiyel yeteneğinin önemli bir göstergesidir. Yaygın parametre boyutları şunları içerir:
Küçük Modeller: < 7B (örneğin, 1.5B, 2B, 3B). Genellikle düşük kaynak tüketimiyle hızlı çalışır, belirli görevler veya kaynak kısıtlı ortamlar için uygundur.
Orta Modeller: 7B, 8B, 13B. Yetenek ve kaynak tüketimi arasında iyi bir denge sağlar, şu anda toplulukta en popüler boyutlardan biridir.
Büyük Modeller: 30B, 33B, 40B, 70B+. Genellikle daha yeteneklidir ancak aynı zamanda daha fazla hesaplama kaynağı (RAM, VRAM) ve daha uzun çıkarım süreleri gerektirir.
Verilerimizdeki parameter_size
alanı (örneğin, "8.0B", "7B", "134.52M") bunu gösterir.
6.1.3 Nicemleme Sürümleri (Nicemleme Seviyesi)
Nicemleme, model ağırlıklarının sayısal hassasiyetini düşürerek (örneğin, 16-bit kayan nokta FP16'dan 4-bit tamsayı INT4'e) model boyutunu azaltmak ve çıkarımı hızlandırmak için kullanılan bir tekniktir.
Yaygın Nicemleme Seviyeleri: Ollama ve GGUF formatı (Llama.cpp tarafından kullanılır)
Q2_K
,Q3_K_S
,Q3_K_M
,Q3_K_L
,Q4_0
,Q4_K_M
,Q5_K_M
,Q6_K
,Q8_0
gibi çeşitli nicemleme stratejilerini destekler.Sayı (örneğin, 2, 3, 4, 5, 6, 8) kabaca bit sayısını gösterir.
K
serisi nicemleme (örneğin,Q4_K_M
) llama.cpp'de tanıtılan geliştirilmiş nicemleme yöntemleridir, genellikle aynı bit sayısında daha iyi performans elde ederler._S
,_M
,_L
genellikle K-nicemlemelerinin farklı varyantlarını belirtir ve modelin farklı bölümlerini etkiler.F16
(FP16), 16-bit kayan noktayı temsil eder, genellikle nicemlenmemiş veya temel bir nicemleme sürümü olarak kabul edilir.F32
(FP32) tam hassasiyettir.
Ödünleşim: Daha yüksek nicemleme (daha düşük bit sayısı) daha küçük, daha hızlı modellerle sonuçlanır, ancak genellikle bir miktar performans kaybıyla birlikte gelir (model daha kötü performans gösterir). Kullanıcıların donanımlarına ve model kalitesi gereksinimlerine göre seçim yapması gerekir.
Verilerimizdeki quantization_level
alanı (örneğin, "Q4_K_M", "F16") bunu gösterir.
6.2 En Popüler Model Adları
Aşağıdaki tablo, benzersiz IP dağıtım sayısına göre sıralanmış En İyi 10 model etiketini, aileleri, parametre boyutları ve nicemleme seviyesi bilgileri dahil olmak üzere göstermektedir.
Sıra | Model Adı (model_name) | Benzersiz IP Dağıtımları | Toplam Dağıtım Örnekleri |
---|---|---|---|
1 |
| 12659 | 24628 |
2 |
| 12572 | 24578 |
3 |
| 11163 | 22638 |
4 |
| 9868 | 21007 |
5 |
| 9845 | 20980 |
6 |
| 4058 | 5016 |
7 |
| 3124 | 3928 |
8 |
| 2856 | 3372 |
9 |
| 2714 | 3321 |
10 |
| 2668 | 3391 |

(Not: Benzersiz IP Dağıtımları, bu model etiketinin en az bir örneğini dağıtmış olan benzersiz IP adreslerinin sayısını ifade eder. Toplam Dağıtım Örnekleri, bu model etiketinin tüm IP'lerdeki models
listesinde görünme toplam sayısını ifade eder. Bir IP, farklı yollarla veya kayıtlarla aynı model etiketine birden çok kez işaret edebilir veya bir IP, aynı temel modele ait farklı etiketlerin birden çok örneğini çalıştırabilir.)
İlk Gözlemler (Popüler Model Adları):
:latest
etiketine sahip modeller çok yaygındır, örneğinllama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
. Bu, birçok kullanıcının modellerin en son sürümünü doğrudan çekmeyi tercih ettiğini gösterir.Llama serisi modeller (örneğin,
llama3:latest
,llama3:8b-text-q4_K_S
,llama2:latest
,llama3.1:8b
) birden fazla yeri işgal ederek güçlü popülerliklerini göstermektedir.deepseek-r1:latest
(DeepSeek serisi) veqwen:latest
(Tongyi Qianwen serisi) gibi Çin yapay zeka modelleri de etkileyici bir performans sergileyerek üst sıralarda yer almaktadır.llama3:8b-text-q4_K_S
gibi belirli nicemlenmiş sürümler de ilk ona girerek kullanıcıların belirli performans/kaynak tüketimi dengelerine olan tercihini göstermektedir.smollm2:135m
veqwen2.5:1.5b
gibi küçük modeller de hafif modellere olan talebi karşılayarak önemli sayıda dağıtıma sahiptir.
6.3 En İyi Model Aileleri
Model ailesi (details.family
alanı), modelin temel mimarisini veya birincil teknolojik soyunu temsil eder. Aşağıda, veri analizimize göre daha yüksek sayıda dağıtıma sahip model aileleri bulunmaktadır:
Sıra | Model Ailesi (family) | Benzersiz IP Dağıtımları (Tahmini) | Toplam Dağıtım Örnekleri (Tahmini) |
---|---|---|---|
1 |
| ~20250 | ~103480 |
2 |
| ~17881 | ~61452 |
3 |
| ~1479 | ~1714 |
4 |
| ~1363 | ~2493 |
5 |
| ~1228 | ~2217 |
6 |
| ~943 | ~1455 |
7 |
| ~596 | ~750 |
8 |
| ~484 | ~761 |
9 |
| ~368 | ~732 |
10 |
| ~244 | ~680 |

(Not: Buradaki belirli değerler tahminidir ve daha önce sorgulanan En İyi 50 model ayrıntıları listesine göre özetlenmiştir ve kesin küresel istatistiklerden biraz farklılık gösterebilir, ancak eğilim temsilidir.)
İlk Gözlemler (Popüler Model Aileleri):
llama
ailesi mutlak bir hakim konuma sahiptir, bu da Llama serisi modellerin birçok modern açık kaynaklı LLM'nin temeli olması ve kendi yaygın uygulamalarıyla tutarlıdır. Geniş ekosistemi ve çok sayıda ince ayarlı sürümü onu en popüler seçenek haline getirir.İkinci en büyük aile olan
qwen2
(Tongyi Qianwen Qwen2 serisi), Çin'de ve hatta küresel olarak güçlü rekabet gücünü göstermektedir.nomic-bert
vebert
'in ortaya çıkışı dikkat çekicidir. Tipik olarak "büyük dil modelleri" (sohbet) olarak kabul edilmeseler de, metin gömme veya diğer doğal dil işleme temel modelleri olsalar da, yüksek dağıtım hacimleri Ollama'nın bu tür görevler için de yaygın olarak kullanıldığını göstermektedir. Ollama, belirli işlemleri gerçekleştirirken (gömme vektörleri oluşturma gibi) otomatik olarak varsayılan bir gömme modeli (örneğin,nomic-embed-text
) indirir, bu da muhtemelen bu ailelerin üst sıralarda yer almasının ana nedenidir.Google'ın
gemma
serisi (gemma3
,gemma
,gemma2
dahil) de iyi benimsenme oranları göstermektedir.deepseek2
vephi3
gibi diğer tanınmış model aileleri de ilk ona girmeyi başardı.mllama
, çeşitli Llama tabanlı hibrit, değiştirilmiş veya topluluk tarafından adlandırılmış modellerin bir koleksiyonunu temsil edebilir.
6.4 En İyi Orijinal Parametre Boyutu İstatistikleri
Model parametre boyutu (details.parameter_size
alanı) model ölçeğinin önemli bir göstergesidir. Ham verilerdeki parametre boyutlarının çeşitli gösterimi nedeniyle (örneğin, "8.0B", "7B", "134.52M"), bu orijinal dizeleri doğrudan sayıyoruz. Aşağıda, daha yüksek sayıda dağıtıma sahip parametre boyutu gösterimleri bulunmaktadır:
Sıra | Parametre Boyutu (Orijinal Dize) | Benzersiz IP Dağıtımları (Tahmini) | Toplam Dağıtım Örnekleri (Tahmini) |
---|---|---|---|
1 |
| ~14480 | ~52577 |
2 |
| ~14358 | ~28105 |
3 |
| ~11233 | ~22907 |
4 |
| ~9895 | ~21058 |
5 |
| ~4943 | ~11738 |
6 |
| ~4062 | ~5266 |
7 |
| ~2759 | ~3596 |
8 |
| ~2477 | ~3311 |
9 |
| ~2034 | ~2476 |
10 |
| ~1553 | ~2244 |
11 |
| ~1477 | ~1708 |
12 |
| ~1421 | ~2000 |
13 |
| ~1254 | ~2840 |
14 |
| ~1123 | ~2091 |
15 |
| ~943 | ~1194 |

(Not: Değerler, daha önce sorgulanan En İyi 50 model ayrıntıları listesinden parametre bilgilerinin bir özetine göre tahmin edilmiştir.)
İlk Gözlemler (Popüler Parametre Boyutları):
7B ila 8B ölçeğindeki modeller mutlak ana akımdır: "8.0B", "7.6B", "7.2B", "7B" dağıtımların büyük çoğunluğunu işgal etmektedir. Bu tipik olarak toplulukta Llama 2/3 7B/8B serisi, Mistral 7B ve bunların çeşitli ince ayarlı sürümleri gibi çok popüler modellere karşılık gelir. Performans ve kaynak tüketimi arasında iyi bir denge kurarlar.
4B ölçekli modeller de önemli bir konuma sahiptir: "4B"nin yüksek dağıtımı dikkat çekicidir.
Milyon parametre seviyesindeki (M) hafif modeller yaygındır: "134.52M" ve "137M"nin yüksek sıralaması muhtemelen gömme modellerinin (örneğin
nomic-embed-text
) veya çok küçük özel modellerin (örneğinsmollm
serisi) popülaritesiyle ilgilidir. Bu modeller küçük, hızlıdır ve kaynak kısıtlı veya gecikmeye duyarlı senaryolar için uygundur.1B-4B aralığındaki küçük modellere yönelik istikrarlı talep: "1.5B", "1.8B", "3.2B", "4.3B" gibi parametre boyutlarına sahip modeller de bir kullanıcı kesimi tarafından tercih edilmektedir.
10B üzerindeki büyük modeller: "13B", "12.2B", "32.8B", "14.8B" gibi, 7-8B seviyesi kadar çok sayıda benzersiz IP dağıtımına sahip olmasa da, yine de önemli bir dağıtım hacmine sahiptir, bu da daha yüksek donanım gereksinimlerine rağmen daha yetenekli modellere yönelik bir topluluk talebini göstermektedir.
6.5 En İyi Nicemleme Seviyesi İstatistikleri
Model nicemleme seviyesi (details.quantization_level
alanı), boyutu azaltmak ve çıkarımı hızlandırmak için model tarafından benimsenen ağırlık hassasiyetini yansıtır. Aşağıda, daha yüksek sayıda dağıtıma sahip nicemleme seviyeleri bulunmaktadır:
Sıra | Nicemleme Seviyesi (Orijinal Dize) | Benzersiz IP Dağıtımları (Tahmini) | Toplam Dağıtım Örnekleri (Tahmini) |
---|---|---|---|
1 |
| ~20966 | ~53688 |
2 |
| ~18385 | ~88653 |
3 |
| ~9860 | ~21028 |
4 |
| ~5793 | ~9837 |
5 |
| ~596 | ~1574 |
6 |
| ~266 | ~1318 |
7 |
| ~97 | ~283 |
8 |
| ~85 | ~100 |
9 |
| ~60 | ~178 |
10 |
| ~54 | ~140 |

(Not: Değerler, daha önce sorgulanan En İyi 50 model ayrıntıları listesinden nicemleme bilgilerinin bir özetine göre tahmin edilmiştir.)
İlk Gözlemler (Popüler Nicemleme Seviyeleri):
4-bit nicemleme baskın çözümdür:
Q4_K_M
,Q4_0
veQ4_K_S
, bu üç 4-bit nicemleme seviyesi, kesinlikle listelerin başında yer almaktadır. Bu, topluluğun model performansı, çıkarım hızı ve kaynak işgali (özellikle VRAM) arasında en iyi dengeyi sağlamak için tercih edilen çözüm olarak 4-bit nicemlemeyi yaygın olarak benimsediğini açıkça göstermektedir.F16
(16-bit kayan nokta) hala önemli bir yere sahiptir: Nicemlenmemiş (veya yalnızca temel olarak nicemlenmiş) bir sürüm olarak,F16
'nın yüksek dağıtımı, önemli sayıda kullanıcının en yüksek model doğruluğunu takip etmek için veya yeterli donanım kaynaklarına sahip oldukları için onu seçtiğini göstermektedir.Tamamlayıcı olarak
Q8_0
(8-bit nicemleme): 4-bit veF16
arasında bir seçenek sunar.unknown
değerlerinin görünümü: Bazı model meta verilerinde nicemleme seviyesi bilgilerinin eksik veya standart dışı olduğunu gösterir.
6.6 Yapay Zeka Hesaplama Gücünün Dağılımı (Model Parametre Boyutuna Göre): Çin vs. ABD
Farklı ölçeklerdeki modellerin büyük ülkelerde nasıl dağıtıldığını daha derinlemesine anlamak için Amerika Birleşik Devletleri ve Çin'deki Ollama örneklerinde dağıtılan modellerin parametre boyutlarını kategorize ettik ve saydık. Parametre boyutu genellikle model karmaşıklığının ve potansiyel yapay zeka hesaplama gücü talebinin önemli bir göstergesi olarak kabul edilir.
Parametre Ölçeği Sınıflandırma Standardı:
Küçük: < 1 Milyar parametre (< 1B)
Orta: 1 Milyar ila < 10 Milyar parametre (1B ila < 10B)
Büyük: 10 Milyar ila < 50 Milyar parametre (10B ila < 50B)
Çok Büyük: >= 50 Milyar parametre (>= 50B)
Aşağıdaki tablo, ABD ve Çin'de farklı parametre ölçeklerinde model dağıtan benzersiz IP sayısını göstermektedir:
Ülke | Parametre Ölçeği Kategorisi | Benzersiz IP Sayısı |
---|---|---|
Çin | Küçük (<1B) | 3313 |
Çin | Orta (1B ila <10B) | 4481 |
Çin | Büyük (10B ila <50B) | 1548 |
Çin | Çok Büyük (>=50B) | 280 |
Amerika Birleşik Devletleri | Küçük (<1B) | 1368 |
Amerika Birleşik Devletleri | Orta (1B ila <10B) | 6495 |
Amerika Birleşik Devletleri | Büyük (10B ila <50B) | 1301 |
Amerika Birleşik Devletleri | Çok Büyük (>=50B) | 58 |
--China-vs-USA.jpeg)
Veri İçgörüleri ve Analiz:
Orta ölçekli modeller ana akımdır, ancak farklı odak noktaları vardır:
Amerika Birleşik Devletleri: Orta ölçekli modellerin (1B-10B) dağıtımları ABD'de kesinlikle baskındır (6495 benzersiz IP).
Çin: Orta ölçekli modeller (4481 benzersiz IP) Çin'de de en çok dağıtılan türdür, ancak Çin'de küçük modellerin (<1B) dağıtımı (3313 benzersiz IP) çok önemlidir.
Küçük modellerde önemli fark: Çin'in küçük modelleri büyük ölçekte dağıtması, uç bilişim, mobil yapay zeka uygulamaları ve benzer senaryolara yönelik bir tercihi yansıtabilir.
Büyük ve çok büyük modellerin dağıtımı: Çin, büyük ve çok büyük modelleri keşfetmede (daha küçük bir tabandan olsa da) daha yüksek aktivite göstermektedir.
Genel hesaplama gücü yatırımına ilişkin çıkarımlar: ABD'nin orta ölçekli modellerdeki tabanı, pratik yapay zeka uygulamalarının yaygınlığını göstermektedir. Çin'in küçük modellerde bir avantajı vardır ve büyük modelleri aktif olarak keşfetmektedir.
Küresel eğilimler için çıkarımlar: Orta ölçekli modellerin küresel olarak popüler olması muhtemeldir. Farklı bölgeler, ekosistemlerine ve kaynak koşullarına bağlı olarak değişen model benimseme stratejilerine sahip olabilir.
Çin ve ABD'deki model parametre ölçeklerini bölümlere ayırarak, iki ülkedeki Ollama uygulamalarının farklı odak noktalarını ve gelişim potansiyellerini görebiliriz.
7. Ağ İçgörüleri
7.1 Port Kullanımı
11434
(varsayılan port): Ollama örneklerinin büyük çoğunluğu (30.722 benzersiz IP) varsayılan11434
portunda çalışır.Diğer yaygın portlar:
80
(1.619 benzersiz IP),8080
(1.571 benzersiz IP),443
(1.339 benzersiz IP) gibi portlar da kullanılır; bu, bazı örneklerin bir ters proxy arkasında dağıtıldığını veya kullanıcıların portu özelleştirdiğini gösterebilir.
7.2 Protokol Kullanımı
HTTP: Yaklaşık 65.506 benzersiz IP, HTTP protokolü üzerinden hizmet veren örneklere sahiptir.
HTTPS: Yaklaşık 43.765 benzersiz IP, HTTPS protokolü üzerinden hizmet veren örneklere sahiptir.
Çoğu örnek hala şifrelenmemiş HTTP üzerinden sunulmaktadır, bu da belirli güvenlik riskleri oluşturabilir. (Lütfen dikkat: Bir IP hem HTTP hem de HTTPS'yi destekleyebilir, bu nedenle buradaki IP sayılarının toplamı toplam benzersiz IP sayısını aşabilir)
7.3 Ana Barındırma Sağlayıcıları (AS Organizasyonu)
Ollama örnek barındırma, bulut hizmeti sağlayıcıları arasında oldukça yoğundur.
Sıra | AS Organizasyonu | Benzersiz IP Sayısı | Ana İlişkili Sağlayıcı |
---|---|---|---|
1 | AMAZON-02 | 53658 | AWS |
2 | AMAZON-AES | 5539 | AWS |
3 | Chinanet | 4964 | China Telecom |
4 | Hangzhou Alibaba Advertising Co.,Ltd. | 2647 | Alibaba Cloud |
5 | HENGTONG-IDC-LLC | 2391 | Hosting Sağlayıcısı |
6 | Shenzhen Tencent Computer Systems Company Limited | 1682 | Tencent Cloud |
7 | CHINA UNICOM China169 Backbone | 1606 | China Unicom |
8 | Hetzner Online GmbH | 972 | Hetzner |
9 | China Unicom Beijing Province Network | 746 | China Unicom (Pekin) |
10 | LEASEWEB-USA-LAX | 735 | Leaseweb |

AWS (AMAZON-02, AMAZON-AES) en büyük paya sahiptir, bunu büyük Çinli telekom operatörleri ve bulut hizmeti sağlayıcıları (Alibaba Cloud, Tencent Cloud gibi) izlemektedir. Hetzner ve Leaseweb gibi diğer barındırma sağlayıcılarının da önemli payları vardır.
8. Güvenlik ve Diğer Gözlemler
Sürüm Bilgileri: Güvenlik nedeniyle, Ollama sürümlerine ilişkin istatistikleri listelemedik.
HTTP Üzerinden Maruz Kalma Riski: Daha önce belirtildiği gibi, çok sayıda Ollama örneği TLS şifrelemesi olmadan HTTP üzerinden sunulmaktadır, bu da iletişim içeriğini (örneğin, modellerle etkileşimler) dinlemeye veya tahrifata karşı savunmasız hale getirebilir. Kullanıcıların bir ters proxy yapılandırması ve HTTPS'yi etkinleştirmesi önerilir.
API Erişilebilirliği: Bu rapordaki veriler,
/api/tags
arayüzü halka açık olan Ollama örneklerine dayanmaktadır. Gerçek dağıtım sayısı daha yüksek olabilir, ancak bazı örnekler özel ağlarda dağıtılmış olabilir veya harici erişimi güvenlik duvarları tarafından kısıtlanmış olabilir.
9. Sonuç ve Kısa Değerlendirme
Bu rapor, dünya genelinde halka açık 99.412 Ollama örneğinden (/api/tags
arayüzleri aracılığıyla) elde edilen verileri analiz ederek aşağıdaki ana sonuçları ve gözlemleri çıkarmaktadır:
1. Küresel Dağıtım Genel Bakışı ve Coğrafi Dağılım:
Büyük modelleri yerel olarak çalıştırmak için kullanışlı bir araç olan Ollama, dünya genelinde yaygın olarak dağıtılmıştır. Bu analiz, halka açık 99.412 benzersiz IP belirlemiştir.
Yüksek Coğrafi Yoğunlaşma: Amerika Birleşik Devletleri ve Çin, en yoğun Ollama dağıtımlarına sahip iki ülke/bölgedir ve toplam erişilebilir örneklerin önemli bir bölümünü oluşturmaktadır (ABD 29.195, Çin 16.464). Japonya, Almanya, İngiltere, Hindistan ve Singapur gibi ülkelerde de kayda değer dağıtım sayıları bulunmaktadır.
Şehir Sıcak Noktaları: ABD'de Ashburn, Portland ve Columbus gibi şehirler dağıtımlarda başı çekmektedir; Çin'de Pekin, Hangzhou, Şanghay ve Guangzhou gibi teknolojik olarak gelişmiş şehirler ana dağıtım yerleridir. Bu genellikle teknoloji şirketlerinin, veri merkezlerinin ve geliştirici topluluklarının yoğunlaşmasıyla ilgilidir.
2. Yapay Zeka Model Dağıtım Trendleri:
Popüler Model Etiketleri:
llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
gibi genel en son etiketler en popüler olanlardır.llama3:8b-text-q4_K_S
gibi özel olarak optimize edilmiş sürümler de iyi dengeleri nedeniyle tercih edilmektedir.Baskın Model Aileleri:
llama
ailesi mutlak bir farkla liderdir, onuqwen2
izlemektedir.nomic-bert
vebert
gibi gömme modeli ailelerinin yüksek sıralaması dikkat çekicidir ve muhtemelen Ollama'nın varsayılan davranışıyla ilgilidir.Parametre Boyutu Tercihleri: 7B-8B parametreli modeller şu anda ana akımdır. Milyon parametre düzeyindeki hafif modeller ve 10B üzerindeki büyük modellerin de kendi pazarları vardır. Bir ABD-Çin karşılaştırması, ABD'nin daha fazla orta ölçekli model dağıttığını, Çin'in ise küçük ve çok büyük modelleri keşfetmede daha aktif olduğunu göstermektedir.
Nicemleme Seviyesi Seçimleri: 4-bit nicemleme (özellikle
Q4_K_M
veQ4_0
) ezici bir çoğunlukla tercih edilmektedir. Daha yüksek doğruluklu bir seçenek olarakF16
da önemli bir konuma sahiptir.Metaveri Karmaşıklığı: Model meta verilerinin analizi (örneğin, model ailesi alanının yorumlanması) bazen kayıtları ile model adları veya genel anlayış arasındaki karmaşıklıkları ortaya çıkarmakta ve açık kaynak ekosistemindeki meta veri yönetiminin çeşitliliğini vurgulamaktadır.
3. Teknik Altyapı:
Barındırma Ortamları: Çok sayıda Ollama örneği, AWS, Alibaba Cloud, Tencent Cloud gibi büyük bulut hizmeti sağlayıcılarında ve büyük ulusal telekom operatörlerinin ağlarında barındırılmaktadır.
Hizmet Portları: Ollama'nın varsayılan portu
11434
en yaygın kullanılanıdır, ancak önemli sayıda örnek de standart web portları üzerinden sunulmaktadır.
4. Objektif Değerlendirme:
Ollama'nın Popülaritesi: Veriler, Ollama'nın dünya çapındaki geliştiriciler ve yapay zeka meraklıları arasında yüksek benimsenme oranını açıkça göstermektedir.
Açık Kaynak Ekosisteminin Canlılığı: Popüler modellerin çeşitliliği ve çeşitli parametre ve nicemleme sürümlerinin yaygın kullanımı, açık kaynak yapay zeka model ekosisteminin hızla geliştiğini yansıtmaktadır.
Kullanıcı Tercihlerindeki Denge: Model seçerken, kullanıcılar model yeteneği, operasyonel verimlilik ve donanım maliyetleri arasında bir denge arama eğilimindedir.
Güvenlik ve Açıklık: Çok sayıda örnek, model listelerine halka açık erişime izin vermektedir; bu, topluluk için uygun olsa da güvenlik riskleri de oluşturabilir.
5. Geleceğe Bakış:
Daha verimli, daha küçük modellerin ortaya çıkması ve nicemleme teknolojisindeki daha fazla ilerlemeyle, Ollama için dağıtım engelinin azalmaya devam etmesi beklenmektedir.
Model meta verilerinin standartlaştırılması ve topluluk tarafından paylaşılan modeller, ekosistemin şeffaflığını ve kullanılabilirliğini artırmak için hayati öneme sahiptir.
Özetle, Ollama, en son teknoloji ürünü büyük dil modellerini geniş bir geliştirici, araştırmacı ve hatta genel kullanıcı yelpazesiyle birleştiren önemli bir köprü haline gelmektedir. Bu veri analizi, mevcut küresel dağıtım durumunu ve kullanıcı tercihlerini anlamak için değerli bilgiler sunmaktadır.
Yorumlar
comments.comments (0)
Please login first
Sign in