Tenthe ai directory logo
ABD-Çin Yapay Zeka Yarışına Yeni Bir Bakış Açısı: 2025 Ollama Dağıtım Karşılaştırması ve Küresel Yapay Zeka Model Trendleri İçgörüleri

ABD-Çin Yapay Zeka Yarışına Yeni Bir Bakış Açısı: 2025 Ollama Dağıtım Karşılaştırması ve Küresel Yapay Zeka Model Trendleri İçgörüleri

Ryan@ryan
0 Görüntüleme0 Yorumlar

Ollama, büyük dil modellerini (LLM'ler) yerel olarak çalıştırma, oluşturma ve paylaşma sürecini basitleştirmek için tasarlanmış popüler bir açık kaynaklı araçtır. Model ağırlıklarını, yapılandırmasını ve verilerini bir Modelfile tarafından tanımlanan bir pakette birleştirir ve bu modellerle etkileşim için bir API sağlar. Bu, geliştiricilerin ve araştırmacıların kişisel bilgisayarlarda veya sunucularda çeşitli gelişmiş yapay zeka modellerini kolayca dağıtmalarını ve denemelerini sağlar.

1. Giriş

Ollama, büyük dil modellerini (LLM'ler) yerel olarak çalıştırma, oluşturma ve paylaşma sürecini basitleştirmek için tasarlanmış popüler bir açık kaynaklı araçtır. Model ağırlıklarını, yapılandırmasını ve verilerini bir Modelfile tarafından tanımlanan bir pakette birleştirir ve bu modellerle etkileşim için bir API sağlar. Bu, geliştiricilerin ve araştırmacıların kişisel bilgisayarlarda veya sunucularda çeşitli gelişmiş yapay zeka modellerini kolayca dağıtmalarını ve denemelerini sağlar.

Bu rapor, dünya genelinde dağıtılmış 174.590 Ollama örneğinden elde edilen verileri analiz ederek dağıtım eğilimlerini, model tercihlerini, coğrafi dağılımı ve ağ özelliklerini ortaya koymayı amaçlamaktadır.

Not: Bölüm 5 ve Bölüm 7'deki veri istatistikleri 174.590 örneğin tamamından alınmıştır. Bölüm 6'daki veriler erişilebilir örneklerden alınmıştır. Güvenlik nedeniyle, Ollama sürümlerine ilişkin istatistikleri listelemedik.

  • Veri Tarihi: 24 Nisan 2025.

  • Rapor Kaynağı: Tenthe AI https://tenthe.com

  • Yazar: Ryan

2. Yönetici Özeti

Bu rapor, dünya genelinde halka açık Ollama örneklerinin tarama verileri ve API yoklamalarının analizine dayanmaktadır. Temel bulgular şunlardır:

  • Küresel olarak, Fofa aracılığıyla başlangıçta tanımlanan yaklaşık 174.590 kayıt (benzersiz 99.412 IP) arasında, erişilebilir API'lere sahip 41.021 Ollama örneği başarıyla yoklandı ve 24.038 benzersiz IP adresine dağıtıldı (yaklaşık %24,18 erişilebilirlik oranı).

  • Coğrafi olarak, Amerika Birleşik Devletleri ve Çin, en yüksek Ollama dağıtım sayısına sahip ülkelerdir. Bulut hizmeti sağlayıcıları, özellikle AWS, Alibaba Cloud ve Tencent Cloud, Ollama örnekleri için birincil barındırıcılardır.

  • Model dağıtımları çeşitlilik göstermektedir; llama3, deepseek-r1, mistral ve qwen serisi modeller yaygın olarak popülerdir. Bunlar arasında llama3:latest ve deepseek-r1:latest en yaygın dağıtılan iki model etiketidir.

  • 7B-8B parametreli modeller kullanıcılar için en iyi seçimdir, Q4_K_M ve Q4_0 gibi 4-bit nicemlenmiş modeller ise performans ve kaynak tüketimi arasındaki iyi dengeleri nedeniyle yaygın olarak benimsenmektedir.

  • Varsayılan 11434 portu en yaygın kullanılanıdır ve çoğu örnek, hizmetleri HTTP protokolü üzerinden sunar.

3. Veri Kaynakları ve Metodoloji

Bu raporun verileri temel olarak iki aşamadan gelmektedir:

  1. İlk Tarama: Fofa gibi ağ alanı arama motorlarını kullanarak, app="Ollama" && is_domain=false koşuluyla, dünya genelinde dağıtılmış potansiyel Ollama örneklerini başlangıçta tanımlamak. Bu aşamada 174.590 kayıt bulundu ve tekilleştirmeden sonra 99.412 benzersiz IP içeriyordu.

  2. API Doğrulama ve Veri Zenginleştirme: Ollama hizmetlerinin erişilebilirliğini doğrulamak ve dağıtılan belirli yapay zeka modelleri hakkında bilgi edinmek için başlangıçta taranan IP adresleri için ip:port/api/tags API uç noktasını yoklamak. Bu aşamada, başarıyla yanıt veren 41.021 Ollama örneği doğrulandı (24.038 benzersiz IP'den, veriler ollama tablosunda saklandı).

  3. Son veriler ollama tablosunda saklanır.

Bu rapordaki analiz, temel olarak ollama tablosundaki verilere dayanmaktadır; bu tablo, başarıyla yoklanan API'lerin kayıtlarını ve IP, port, coğrafi konum ve JSON yanıtı (model listesini içeren) vb. dahil olmak üzere ayrıntılı bilgilerini içerir.

4. Genel Dağıtım İstatistikleri

  • Fofa taramasından elde edilen ilk kayıt sayısı: 174.590

  • Fofa ilk taramasından elde edilen benzersiz IP sayısı: 99.412

  • /api/tags adresine başarıyla erişen Ollama örneklerinin sayısı: 41.021 (ollama tablosunda status = 'success' olan kayıtlardan)

  • Karşılık gelen benzersiz IP adreslerinin sayısı: 24.038 (ollama tablosunda status = 'success' olan kayıtlardan)

  • Erişilebilir IP'lerin başlangıçta tanımlanan IP'lere oranı: (24038 / 99412) * %100 ≈ %24,18

Bu, Fofa aracılığıyla tanımlanan tüm Ollama örnekleri arasında yaklaşık dörtte birinin /api/tags arayüzünün halka açık olduğunu ve dağıtılan modelleri hakkında bilgi almamızı sağladığını göstermektedir.

5. Coğrafi Dağılım Analizi

5.1 En Çok Dağıtım Yapılan İlk 20 Ülke/Bölge

Aşağıdaki tablo, Ollama örneklerine sahip benzersiz IP sayısına göre sıralanmış ilk 20 ülkeyi/bölgeyi göstermektedir.

Sıra

Ülke/Bölge

Benzersiz IP Sayısı

1

Amerika Birleşik Devletleri

29195

2

Çin

16464

3

Japonya

5849

4

Almanya

5438

5

Birleşik Krallık

4014

6

Hindistan

3939

7

Singapur

3914

8

Güney Kore

3773

9

İrlanda

3636

10

Fransa

3599

11

Avustralya

3558

12

Brezilya

2909

13

Kanada

2763

14

Güney Afrika

2742

15

İsveç

2113

16

Hong Kong ÖİB, Çin

1277

17

İsrail

675

18

Tayvan, Çin

513

19

Rusya

475

20

Finlandiya

308

Ollama En Çok Dağıtım Yapılan İlk 20 Ülke/Bölge

5.2 En Çok Küresel Şehir Dağıtımı İlk 20

Aşağıdaki tablo, Ollama örneklerine sahip benzersiz IP sayısına göre sıralanmış dünya çapındaki ilk 20 şehri göstermektedir.

Sıra

Şehir

Ülke/Bölge

Benzersiz IP Sayısı

1

Ashburn

Amerika Birleşik Devletleri

5808

2

Portland

Amerika Birleşik Devletleri

5130

3

Singapur

Singapur

3914

4

Frankfurt am Main

Almanya

3908

5

Pekin

Çin

3906

6

Londra

Birleşik Krallık

3685

7

Columbus

Amerika Birleşik Devletleri

3672

8

Mumbai

Hindistan

3637

9

Dublin

İrlanda

3631

10

Tokyo

Japonya

3620

11

Sidney

Avustralya

3487

12

Paris

Fransa

3175

13

San Jose

Amerika Birleşik Devletleri

2815

14

Sao Paulo

Brezilya

2753

15

Cape Town

Güney Afrika

2692

16

Montreal

Kanada

2535

17

Seattle

Amerika Birleşik Devletleri

2534

18

Hangzhou

Çin

2447

19

Seul

Güney Kore

2327

20

Osaka

Japonya

2184

5.3 En İyi 10 ABD Şehir Dağılımı

Sıra

Şehir

Benzersiz IP Sayısı

1

Ashburn

5808

2

Portland

5130

3

Columbus

3672

4

San Jose

2815

5

Seattle

2534

6

Westlake Village

1714

7

Boardman

855

8

Florence

776

9

San Francisco

753

10

Boulder

642

Ollama En İyi 10 ABD Şehir Dağılımı

5.4 En İyi 10 Çin Anakarası Şehir Dağılımı

Hong Kong ve Tayvan'daki dağıtımlar, ülke/bölge istatistiklerine zaten dahil oldukları için İlk 10 şehir tablosunda yansıtılmamaktadır.

Sıra

Şehir

Ülke (country_name)

Benzersiz IP Sayısı

1

Pekin

Çin

3906

2

Hangzhou

Çin

2447

3

Şanghay

Çin

1335

4

Guangzhou

Çin

1296

5

Shenzhen

Çin

768

6

Chengdu

Çin

469

7

Nanjing

Çin

329

8

Chongqing

Çin

259

9

Suzhou

Çin

257

10

Wuhan

Çin

249

Ollama En Çok Küresel Şehir Dağıtımı İlk 20

5.5 ABD-Çin İlk 10 Şehir Dağıtım Karşılaştırması

ABD ve Çin'deki şehir düzeyinde Ollama dağıtımlarını daha sezgisel bir şekilde karşılaştırmak için aşağıdaki tablo, her iki ülkedeki ilk 10 şehir için benzersiz IP dağıtım sayılarını yan yana göstermektedir:

Sıra

ABD Şehri (İlk 10)

ABD Benzersiz IP Sayısı

Çin Şehri (İlk 10)

Çin Benzersiz IP Sayısı

1

Ashburn

5808

Pekin

3906

2

Portland

5130

Hangzhou

2447

3

Columbus

3672

Şanghay

1335

4

San Jose

2815

Guangzhou

1296

5

Seattle

2534

Shenzhen

768

6

Westlake Village

1714

Chengdu

469

7

Boardman

855

Nanjing

329

8

Florence

776

Chongqing

259

9

San Francisco

753

Suzhou

257

10

Boulder

642

Wuhan

249

Ollama ABD-Çin İlk 10 Şehir Dağıtım Karşılaştırması

Kısa Yorum:

  • Lider Şehir Hacmi: En iyi 3 ABD şehri (Ashburn, Portland, Columbus) her biri 3.000'den fazla benzersiz IP'ye sahip Ollama dağıtımına sahiptir. Çin'in en büyük şehri (Pekin) 3.000'den fazla dağıtıma ve ikinci şehri (Hangzhou) 2.000'den fazla dağıtıma sahiptir.

  • Teknoloji ve Ekonomi Merkezleri: Her iki ülkede listelenen şehirlerin çoğu, tanınmış teknoloji inovasyon merkezleri veya önemli ekonomik bölgelerdir.

  • Veri Merkezi Bölgeleri: Ashburn gibi ABD şehirlerinin dahil edilmesi, Ollama örneklerinin büyük ölçüde bulut sunucuları ve veri merkezleri içinde dağıtılmış olabileceğini de yansıtmaktadır.

  • Dağılım Farklılıkları: Genel olarak, ABD İlk 10 şehirlerindeki toplam IP sayısı, Çin'in İlk 10 şehirlerindekinden önemli ölçüde daha yüksektir. Ancak, her iki ülke de birkaç çekirdek şehrin Ollama dağıtımlarının büyük çoğunluğunu oluşturduğu bir model göstermektedir.

Bu şehir düzeyindeki karşılaştırma, bir geliştirici aracı olarak Ollama'nın tanıtım ve uygulamasının bölgesel teknolojik ekosistemler ve endüstriyel gelişimle yakından bağlantılı olduğunu daha da ortaya koymaktadır.

6. Model Analizi

6.1 Yapay Zeka Modelleri, Parametreler ve Nicemlemeye Kısa Bir Bakış

Ollama, çeşitli açık kaynaklı büyük dil modellerini destekler. Bu modeller tipik olarak aşağıdaki özelliklerle ayırt edilir:

6.1.1 Yaygın Model Aileleri

Mevcut açık kaynak topluluğu, her birinin kendine özgü özellikleri olan mükemmel LLM ailelerinde bir artış görmüştür:

  • Llama Serisi (Meta AI): Llama 2, Llama 3, Code Llama gibi. Güçlü genel yetenekleri ve kapsamlı topluluk desteğiyle bilinir, bu da çok sayıda ince ayarlı sürüme yol açar. Verilerimizde görülen llama3.1, hermes3 gibi modeller genellikle Llama mimarisine dayanır.

  • Mistral Serisi (Mistral AI): Mistral 7B, Mixtral 8x7B gibi. Verimliliği ve yüksek performansı, özellikle MoE (Uzmanlar Karışımı) modelleriyle dikkat çekiyor.

  • Gemma Serisi (Google): Gemma 2B, Gemma 7B gibi. Google tarafından yayınlanan, teknolojisi daha güçlü Gemini modellerinden türetilen açık ağırlıklı modeller.

  • Phi Serisi (Microsoft): Phi-2, Phi-3 gibi. "SLM'lere (Küçük Dil Modelleri)" vurgu yaparak küçük boyutlu ancak yetenekli modellere odaklanır.

  • DeepSeek Serisi (DeepSeek AI): DeepSeek Coder, DeepSeek LLM gibi. Kodlama ve genel görevlerde başarılı olan Çin yapay zeka modelleri.

  • Qwen Serisi (Alibaba Tongyi Qianwen): Qwen1.5 gibi. Alibaba DAMO Akademisi tarafından başlatılan, birden çok dili ve görevi destekleyen bir model serisi.

  • Yi (01.AI), Command R (Cohere) gibi birçok başka mükemmel model bulunmaktadır.

Ollama, Modelfile mekanizması aracılığıyla kullanıcıların bu temel modelleri veya ince ayarlı sürümlerini kolayca kullanmasına olanak tanır. Model adları genellikle aile:boyut-varyant-nicemleme biçimini izler, örneğin, llama3:8b-instruct-q4_K_M.

6.1.2 Model Parametreleri (Parametre Boyutu)

Model parametrelerinin sayısı (genellikle B - Milyar; veya M - Milyon) bir modelin ölçeğinin ve potansiyel yeteneğinin önemli bir göstergesidir. Yaygın parametre boyutları şunları içerir:

  • Küçük Modeller: < 7B (örneğin, 1.5B, 2B, 3B). Genellikle düşük kaynak tüketimiyle hızlı çalışır, belirli görevler veya kaynak kısıtlı ortamlar için uygundur.

  • Orta Modeller: 7B, 8B, 13B. Yetenek ve kaynak tüketimi arasında iyi bir denge sağlar, şu anda toplulukta en popüler boyutlardan biridir.

  • Büyük Modeller: 30B, 33B, 40B, 70B+. Genellikle daha yeteneklidir ancak aynı zamanda daha fazla hesaplama kaynağı (RAM, VRAM) ve daha uzun çıkarım süreleri gerektirir.

Verilerimizdeki parameter_size alanı (örneğin, "8.0B", "7B", "134.52M") bunu gösterir.

6.1.3 Nicemleme Sürümleri (Nicemleme Seviyesi)

Nicemleme, model ağırlıklarının sayısal hassasiyetini düşürerek (örneğin, 16-bit kayan nokta FP16'dan 4-bit tamsayı INT4'e) model boyutunu azaltmak ve çıkarımı hızlandırmak için kullanılan bir tekniktir.

  • Yaygın Nicemleme Seviyeleri: Ollama ve GGUF formatı (Llama.cpp tarafından kullanılır) Q2_K, Q3_K_S, Q3_K_M, Q3_K_L, Q4_0, Q4_K_M, Q5_K_M, Q6_K, Q8_0 gibi çeşitli nicemleme stratejilerini destekler.

    • Sayı (örneğin, 2, 3, 4, 5, 6, 8) kabaca bit sayısını gösterir.

    • K serisi nicemleme (örneğin, Q4_K_M) llama.cpp'de tanıtılan geliştirilmiş nicemleme yöntemleridir, genellikle aynı bit sayısında daha iyi performans elde ederler.

    • _S, _M, _L genellikle K-nicemlemelerinin farklı varyantlarını belirtir ve modelin farklı bölümlerini etkiler.

    • F16 (FP16), 16-bit kayan noktayı temsil eder, genellikle nicemlenmemiş veya temel bir nicemleme sürümü olarak kabul edilir. F32 (FP32) tam hassasiyettir.

  • Ödünleşim: Daha yüksek nicemleme (daha düşük bit sayısı) daha küçük, daha hızlı modellerle sonuçlanır, ancak genellikle bir miktar performans kaybıyla birlikte gelir (model daha kötü performans gösterir). Kullanıcıların donanımlarına ve model kalitesi gereksinimlerine göre seçim yapması gerekir.

Verilerimizdeki quantization_level alanı (örneğin, "Q4_K_M", "F16") bunu gösterir.

6.2 En Popüler Model Adları

Aşağıdaki tablo, benzersiz IP dağıtım sayısına göre sıralanmış En İyi 10 model etiketini, aileleri, parametre boyutları ve nicemleme seviyesi bilgileri dahil olmak üzere göstermektedir.

Sıra

Model Adı (model_name)

Benzersiz IP Dağıtımları

Toplam Dağıtım Örnekleri

1

llama3:latest

12659

24628

2

deepseek-r1:latest

12572

24578

3

mistral:latest

11163

22638

4

qwen:latest

9868

21007

5

llama3:8b-text-q4_K_S

9845

20980

6

smollm2:135m

4058

5016

7

llama2:latest

3124

3928

8

hermes3:8b

2856

3372

9

llama3.1:8b

2714

3321

10

qwen2.5:1.5b

2668

3391

Ollama En Popüler Model Adları

(Not: Benzersiz IP Dağıtımları, bu model etiketinin en az bir örneğini dağıtmış olan benzersiz IP adreslerinin sayısını ifade eder. Toplam Dağıtım Örnekleri, bu model etiketinin tüm IP'lerdeki models listesinde görünme toplam sayısını ifade eder. Bir IP, farklı yollarla veya kayıtlarla aynı model etiketine birden çok kez işaret edebilir veya bir IP, aynı temel modele ait farklı etiketlerin birden çok örneğini çalıştırabilir.)

İlk Gözlemler (Popüler Model Adları):

  • :latest etiketine sahip modeller çok yaygındır, örneğin llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest. Bu, birçok kullanıcının modellerin en son sürümünü doğrudan çekmeyi tercih ettiğini gösterir.

  • Llama serisi modeller (örneğin, llama3:latest, llama3:8b-text-q4_K_S, llama2:latest, llama3.1:8b) birden fazla yeri işgal ederek güçlü popülerliklerini göstermektedir.

  • deepseek-r1:latest (DeepSeek serisi) ve qwen:latest (Tongyi Qianwen serisi) gibi Çin yapay zeka modelleri de etkileyici bir performans sergileyerek üst sıralarda yer almaktadır.

  • llama3:8b-text-q4_K_S gibi belirli nicemlenmiş sürümler de ilk ona girerek kullanıcıların belirli performans/kaynak tüketimi dengelerine olan tercihini göstermektedir.

  • smollm2:135m ve qwen2.5:1.5b gibi küçük modeller de hafif modellere olan talebi karşılayarak önemli sayıda dağıtıma sahiptir.

6.3 En İyi Model Aileleri

Model ailesi (details.family alanı), modelin temel mimarisini veya birincil teknolojik soyunu temsil eder. Aşağıda, veri analizimize göre daha yüksek sayıda dağıtıma sahip model aileleri bulunmaktadır:

Sıra

Model Ailesi (family)

Benzersiz IP Dağıtımları (Tahmini)

Toplam Dağıtım Örnekleri (Tahmini)

1

llama

~20250

~103480

2

qwen2

~17881

~61452

3

nomic-bert

~1479

~1714

4

gemma3

~1363

~2493

5

bert

~1228

~2217

6

mllama

~943

~1455

7

gemma

~596

~750

8

deepseek2

~484

~761

9

phi3

~368

~732

10

gemma2

~244

~680

Ollama En İyi Model Aileleri

(Not: Buradaki belirli değerler tahminidir ve daha önce sorgulanan En İyi 50 model ayrıntıları listesine göre özetlenmiştir ve kesin küresel istatistiklerden biraz farklılık gösterebilir, ancak eğilim temsilidir.)

İlk Gözlemler (Popüler Model Aileleri):

  • llama ailesi mutlak bir hakim konuma sahiptir, bu da Llama serisi modellerin birçok modern açık kaynaklı LLM'nin temeli olması ve kendi yaygın uygulamalarıyla tutarlıdır. Geniş ekosistemi ve çok sayıda ince ayarlı sürümü onu en popüler seçenek haline getirir.

  • İkinci en büyük aile olan qwen2 (Tongyi Qianwen Qwen2 serisi), Çin'de ve hatta küresel olarak güçlü rekabet gücünü göstermektedir.

  • nomic-bert ve bert'in ortaya çıkışı dikkat çekicidir. Tipik olarak "büyük dil modelleri" (sohbet) olarak kabul edilmeseler de, metin gömme veya diğer doğal dil işleme temel modelleri olsalar da, yüksek dağıtım hacimleri Ollama'nın bu tür görevler için de yaygın olarak kullanıldığını göstermektedir. Ollama, belirli işlemleri gerçekleştirirken (gömme vektörleri oluşturma gibi) otomatik olarak varsayılan bir gömme modeli (örneğin, nomic-embed-text) indirir, bu da muhtemelen bu ailelerin üst sıralarda yer almasının ana nedenidir.

  • Google'ın gemma serisi (gemma3, gemma, gemma2 dahil) de iyi benimsenme oranları göstermektedir.

  • deepseek2 ve phi3 gibi diğer tanınmış model aileleri de ilk ona girmeyi başardı.

  • mllama, çeşitli Llama tabanlı hibrit, değiştirilmiş veya topluluk tarafından adlandırılmış modellerin bir koleksiyonunu temsil edebilir.

6.4 En İyi Orijinal Parametre Boyutu İstatistikleri

Model parametre boyutu (details.parameter_size alanı) model ölçeğinin önemli bir göstergesidir. Ham verilerdeki parametre boyutlarının çeşitli gösterimi nedeniyle (örneğin, "8.0B", "7B", "134.52M"), bu orijinal dizeleri doğrudan sayıyoruz. Aşağıda, daha yüksek sayıda dağıtıma sahip parametre boyutu gösterimleri bulunmaktadır:

Sıra

Parametre Boyutu (Orijinal Dize)

Benzersiz IP Dağıtımları (Tahmini)

Toplam Dağıtım Örnekleri (Tahmini)

1

8.0B

~14480

~52577

2

7.6B

~14358

~28105

3

7.2B

~11233

~22907

4

4B

~9895

~21058

5

7B

~4943

~11738

6

134.52M

~4062

~5266

7

1.5B

~2759

~3596

8

13B

~2477

~3311

9

1.8B

~2034

~2476

10

3.2B

~1553

~2244

11

137M

~1477

~1708

12

12.2B

~1421

~2000

13

32.8B

~1254

~2840

14

14.8B

~1123

~2091

15

4.3B

~943

~1194

Ollama En İyi Orijinal Parametre Boyutu İstatistikleri

(Not: Değerler, daha önce sorgulanan En İyi 50 model ayrıntıları listesinden parametre bilgilerinin bir özetine göre tahmin edilmiştir.)

İlk Gözlemler (Popüler Parametre Boyutları):

  • 7B ila 8B ölçeğindeki modeller mutlak ana akımdır: "8.0B", "7.6B", "7.2B", "7B" dağıtımların büyük çoğunluğunu işgal etmektedir. Bu tipik olarak toplulukta Llama 2/3 7B/8B serisi, Mistral 7B ve bunların çeşitli ince ayarlı sürümleri gibi çok popüler modellere karşılık gelir. Performans ve kaynak tüketimi arasında iyi bir denge kurarlar.

  • 4B ölçekli modeller de önemli bir konuma sahiptir: "4B"nin yüksek dağıtımı dikkat çekicidir.

  • Milyon parametre seviyesindeki (M) hafif modeller yaygındır: "134.52M" ve "137M"nin yüksek sıralaması muhtemelen gömme modellerinin (örneğin nomic-embed-text) veya çok küçük özel modellerin (örneğin smollm serisi) popülaritesiyle ilgilidir. Bu modeller küçük, hızlıdır ve kaynak kısıtlı veya gecikmeye duyarlı senaryolar için uygundur.

  • 1B-4B aralığındaki küçük modellere yönelik istikrarlı talep: "1.5B", "1.8B", "3.2B", "4.3B" gibi parametre boyutlarına sahip modeller de bir kullanıcı kesimi tarafından tercih edilmektedir.

  • 10B üzerindeki büyük modeller: "13B", "12.2B", "32.8B", "14.8B" gibi, 7-8B seviyesi kadar çok sayıda benzersiz IP dağıtımına sahip olmasa da, yine de önemli bir dağıtım hacmine sahiptir, bu da daha yüksek donanım gereksinimlerine rağmen daha yetenekli modellere yönelik bir topluluk talebini göstermektedir.

6.5 En İyi Nicemleme Seviyesi İstatistikleri

Model nicemleme seviyesi (details.quantization_level alanı), boyutu azaltmak ve çıkarımı hızlandırmak için model tarafından benimsenen ağırlık hassasiyetini yansıtır. Aşağıda, daha yüksek sayıda dağıtıma sahip nicemleme seviyeleri bulunmaktadır:

Sıra

Nicemleme Seviyesi (Orijinal Dize)

Benzersiz IP Dağıtımları (Tahmini)

Toplam Dağıtım Örnekleri (Tahmini)

1

Q4_K_M

~20966

~53688

2

Q4_0

~18385

~88653

3

Q4_K_S

~9860

~21028

4

F16

~5793

~9837

5

Q8_0

~596

~1574

6

unknown

~266

~1318

7

Q5_K_M

~97

~283

8

F32

~85

~100

9

Q6_K

~60

~178

10

Q2_K

~54

~140

Ollama En İyi Nicemleme Seviyesi İstatistikleri

(Not: Değerler, daha önce sorgulanan En İyi 50 model ayrıntıları listesinden nicemleme bilgilerinin bir özetine göre tahmin edilmiştir.)

İlk Gözlemler (Popüler Nicemleme Seviyeleri):

  • 4-bit nicemleme baskın çözümdür: Q4_K_M, Q4_0 ve Q4_K_S, bu üç 4-bit nicemleme seviyesi, kesinlikle listelerin başında yer almaktadır. Bu, topluluğun model performansı, çıkarım hızı ve kaynak işgali (özellikle VRAM) arasında en iyi dengeyi sağlamak için tercih edilen çözüm olarak 4-bit nicemlemeyi yaygın olarak benimsediğini açıkça göstermektedir.

  • F16 (16-bit kayan nokta) hala önemli bir yere sahiptir: Nicemlenmemiş (veya yalnızca temel olarak nicemlenmiş) bir sürüm olarak, F16'nın yüksek dağıtımı, önemli sayıda kullanıcının en yüksek model doğruluğunu takip etmek için veya yeterli donanım kaynaklarına sahip oldukları için onu seçtiğini göstermektedir.

  • Tamamlayıcı olarak Q8_0 (8-bit nicemleme): 4-bit ve F16 arasında bir seçenek sunar.

  • unknown değerlerinin görünümü: Bazı model meta verilerinde nicemleme seviyesi bilgilerinin eksik veya standart dışı olduğunu gösterir.

6.6 Yapay Zeka Hesaplama Gücünün Dağılımı (Model Parametre Boyutuna Göre): Çin vs. ABD

Farklı ölçeklerdeki modellerin büyük ülkelerde nasıl dağıtıldığını daha derinlemesine anlamak için Amerika Birleşik Devletleri ve Çin'deki Ollama örneklerinde dağıtılan modellerin parametre boyutlarını kategorize ettik ve saydık. Parametre boyutu genellikle model karmaşıklığının ve potansiyel yapay zeka hesaplama gücü talebinin önemli bir göstergesi olarak kabul edilir.

Parametre Ölçeği Sınıflandırma Standardı:

  • Küçük: < 1 Milyar parametre (< 1B)

  • Orta: 1 Milyar ila < 10 Milyar parametre (1B ila < 10B)

  • Büyük: 10 Milyar ila < 50 Milyar parametre (10B ila < 50B)

  • Çok Büyük: >= 50 Milyar parametre (>= 50B)

Aşağıdaki tablo, ABD ve Çin'de farklı parametre ölçeklerinde model dağıtan benzersiz IP sayısını göstermektedir:

Ülke

Parametre Ölçeği Kategorisi

Benzersiz IP Sayısı

Çin

Küçük (<1B)

3313

Çin

Orta (1B ila <10B)

4481

Çin

Büyük (10B ila <50B)

1548

Çin

Çok Büyük (>=50B)

280

Amerika Birleşik Devletleri

Küçük (<1B)

1368

Amerika Birleşik Devletleri

Orta (1B ila <10B)

6495

Amerika Birleşik Devletleri

Büyük (10B ila <50B)

1301

Amerika Birleşik Devletleri

Çok Büyük (>=50B)

58

Aşağıdaki tablo, ABD ve Çin'de farklı parametre ölçeklerinde model dağıtan benzersiz IP sayısını göstermektedir

Veri İçgörüleri ve Analiz:

  1. Orta ölçekli modeller ana akımdır, ancak farklı odak noktaları vardır:

    • Amerika Birleşik Devletleri: Orta ölçekli modellerin (1B-10B) dağıtımları ABD'de kesinlikle baskındır (6495 benzersiz IP).

    • Çin: Orta ölçekli modeller (4481 benzersiz IP) Çin'de de en çok dağıtılan türdür, ancak Çin'de küçük modellerin (<1B) dağıtımı (3313 benzersiz IP) çok önemlidir.

  2. Küçük modellerde önemli fark: Çin'in küçük modelleri büyük ölçekte dağıtması, uç bilişim, mobil yapay zeka uygulamaları ve benzer senaryolara yönelik bir tercihi yansıtabilir.

  3. Büyük ve çok büyük modellerin dağıtımı: Çin, büyük ve çok büyük modelleri keşfetmede (daha küçük bir tabandan olsa da) daha yüksek aktivite göstermektedir.

  4. Genel hesaplama gücü yatırımına ilişkin çıkarımlar: ABD'nin orta ölçekli modellerdeki tabanı, pratik yapay zeka uygulamalarının yaygınlığını göstermektedir. Çin'in küçük modellerde bir avantajı vardır ve büyük modelleri aktif olarak keşfetmektedir.

  5. Küresel eğilimler için çıkarımlar: Orta ölçekli modellerin küresel olarak popüler olması muhtemeldir. Farklı bölgeler, ekosistemlerine ve kaynak koşullarına bağlı olarak değişen model benimseme stratejilerine sahip olabilir.

Çin ve ABD'deki model parametre ölçeklerini bölümlere ayırarak, iki ülkedeki Ollama uygulamalarının farklı odak noktalarını ve gelişim potansiyellerini görebiliriz.

7. Ağ İçgörüleri

7.1 Port Kullanımı

  • 11434 (varsayılan port): Ollama örneklerinin büyük çoğunluğu (30.722 benzersiz IP) varsayılan 11434 portunda çalışır.

  • Diğer yaygın portlar: 80 (1.619 benzersiz IP), 8080 (1.571 benzersiz IP), 443 (1.339 benzersiz IP) gibi portlar da kullanılır; bu, bazı örneklerin bir ters proxy arkasında dağıtıldığını veya kullanıcıların portu özelleştirdiğini gösterebilir.

7.2 Protokol Kullanımı

  • HTTP: Yaklaşık 65.506 benzersiz IP, HTTP protokolü üzerinden hizmet veren örneklere sahiptir.

  • HTTPS: Yaklaşık 43.765 benzersiz IP, HTTPS protokolü üzerinden hizmet veren örneklere sahiptir.

Çoğu örnek hala şifrelenmemiş HTTP üzerinden sunulmaktadır, bu da belirli güvenlik riskleri oluşturabilir. (Lütfen dikkat: Bir IP hem HTTP hem de HTTPS'yi destekleyebilir, bu nedenle buradaki IP sayılarının toplamı toplam benzersiz IP sayısını aşabilir)

7.3 Ana Barındırma Sağlayıcıları (AS Organizasyonu)

Ollama örnek barındırma, bulut hizmeti sağlayıcıları arasında oldukça yoğundur.

Sıra

AS Organizasyonu

Benzersiz IP Sayısı

Ana İlişkili Sağlayıcı

1

AMAZON-02

53658

AWS

2

AMAZON-AES

5539

AWS

3

Chinanet

4964

China Telecom

4

Hangzhou Alibaba Advertising Co.,Ltd.

2647

Alibaba Cloud

5

HENGTONG-IDC-LLC

2391

Hosting Sağlayıcısı

6

Shenzhen Tencent Computer Systems Company Limited

1682

Tencent Cloud

7

CHINA UNICOM China169 Backbone

1606

China Unicom

8

Hetzner Online GmbH

972

Hetzner

9

China Unicom Beijing Province Network

746

China Unicom (Pekin)

10

LEASEWEB-USA-LAX

735

Leaseweb

Ollama örnek barındırma, bulut hizmeti sağlayıcıları arasında oldukça yoğundur

AWS (AMAZON-02, AMAZON-AES) en büyük paya sahiptir, bunu büyük Çinli telekom operatörleri ve bulut hizmeti sağlayıcıları (Alibaba Cloud, Tencent Cloud gibi) izlemektedir. Hetzner ve Leaseweb gibi diğer barındırma sağlayıcılarının da önemli payları vardır.

8. Güvenlik ve Diğer Gözlemler

  • Sürüm Bilgileri: Güvenlik nedeniyle, Ollama sürümlerine ilişkin istatistikleri listelemedik.

  • HTTP Üzerinden Maruz Kalma Riski: Daha önce belirtildiği gibi, çok sayıda Ollama örneği TLS şifrelemesi olmadan HTTP üzerinden sunulmaktadır, bu da iletişim içeriğini (örneğin, modellerle etkileşimler) dinlemeye veya tahrifata karşı savunmasız hale getirebilir. Kullanıcıların bir ters proxy yapılandırması ve HTTPS'yi etkinleştirmesi önerilir.

  • API Erişilebilirliği: Bu rapordaki veriler, /api/tags arayüzü halka açık olan Ollama örneklerine dayanmaktadır. Gerçek dağıtım sayısı daha yüksek olabilir, ancak bazı örnekler özel ağlarda dağıtılmış olabilir veya harici erişimi güvenlik duvarları tarafından kısıtlanmış olabilir.

9. Sonuç ve Kısa Değerlendirme

Bu rapor, dünya genelinde halka açık 99.412 Ollama örneğinden (/api/tags arayüzleri aracılığıyla) elde edilen verileri analiz ederek aşağıdaki ana sonuçları ve gözlemleri çıkarmaktadır:

1. Küresel Dağıtım Genel Bakışı ve Coğrafi Dağılım:

  • Büyük modelleri yerel olarak çalıştırmak için kullanışlı bir araç olan Ollama, dünya genelinde yaygın olarak dağıtılmıştır. Bu analiz, halka açık 99.412 benzersiz IP belirlemiştir.

  • Yüksek Coğrafi Yoğunlaşma: Amerika Birleşik Devletleri ve Çin, en yoğun Ollama dağıtımlarına sahip iki ülke/bölgedir ve toplam erişilebilir örneklerin önemli bir bölümünü oluşturmaktadır (ABD 29.195, Çin 16.464). Japonya, Almanya, İngiltere, Hindistan ve Singapur gibi ülkelerde de kayda değer dağıtım sayıları bulunmaktadır.

  • Şehir Sıcak Noktaları: ABD'de Ashburn, Portland ve Columbus gibi şehirler dağıtımlarda başı çekmektedir; Çin'de Pekin, Hangzhou, Şanghay ve Guangzhou gibi teknolojik olarak gelişmiş şehirler ana dağıtım yerleridir. Bu genellikle teknoloji şirketlerinin, veri merkezlerinin ve geliştirici topluluklarının yoğunlaşmasıyla ilgilidir.

2. Yapay Zeka Model Dağıtım Trendleri:

  • Popüler Model Etiketleri: llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest gibi genel en son etiketler en popüler olanlardır. llama3:8b-text-q4_K_S gibi özel olarak optimize edilmiş sürümler de iyi dengeleri nedeniyle tercih edilmektedir.

  • Baskın Model Aileleri: llama ailesi mutlak bir farkla liderdir, onu qwen2 izlemektedir. nomic-bert ve bert gibi gömme modeli ailelerinin yüksek sıralaması dikkat çekicidir ve muhtemelen Ollama'nın varsayılan davranışıyla ilgilidir.

  • Parametre Boyutu Tercihleri: 7B-8B parametreli modeller şu anda ana akımdır. Milyon parametre düzeyindeki hafif modeller ve 10B üzerindeki büyük modellerin de kendi pazarları vardır. Bir ABD-Çin karşılaştırması, ABD'nin daha fazla orta ölçekli model dağıttığını, Çin'in ise küçük ve çok büyük modelleri keşfetmede daha aktif olduğunu göstermektedir.

  • Nicemleme Seviyesi Seçimleri: 4-bit nicemleme (özellikle Q4_K_M ve Q4_0) ezici bir çoğunlukla tercih edilmektedir. Daha yüksek doğruluklu bir seçenek olarak F16 da önemli bir konuma sahiptir.

  • Metaveri Karmaşıklığı: Model meta verilerinin analizi (örneğin, model ailesi alanının yorumlanması) bazen kayıtları ile model adları veya genel anlayış arasındaki karmaşıklıkları ortaya çıkarmakta ve açık kaynak ekosistemindeki meta veri yönetiminin çeşitliliğini vurgulamaktadır.

3. Teknik Altyapı:

  • Barındırma Ortamları: Çok sayıda Ollama örneği, AWS, Alibaba Cloud, Tencent Cloud gibi büyük bulut hizmeti sağlayıcılarında ve büyük ulusal telekom operatörlerinin ağlarında barındırılmaktadır.

  • Hizmet Portları: Ollama'nın varsayılan portu 11434 en yaygın kullanılanıdır, ancak önemli sayıda örnek de standart web portları üzerinden sunulmaktadır.

4. Objektif Değerlendirme:

  • Ollama'nın Popülaritesi: Veriler, Ollama'nın dünya çapındaki geliştiriciler ve yapay zeka meraklıları arasında yüksek benimsenme oranını açıkça göstermektedir.

  • Açık Kaynak Ekosisteminin Canlılığı: Popüler modellerin çeşitliliği ve çeşitli parametre ve nicemleme sürümlerinin yaygın kullanımı, açık kaynak yapay zeka model ekosisteminin hızla geliştiğini yansıtmaktadır.

  • Kullanıcı Tercihlerindeki Denge: Model seçerken, kullanıcılar model yeteneği, operasyonel verimlilik ve donanım maliyetleri arasında bir denge arama eğilimindedir.

  • Güvenlik ve Açıklık: Çok sayıda örnek, model listelerine halka açık erişime izin vermektedir; bu, topluluk için uygun olsa da güvenlik riskleri de oluşturabilir.

5. Geleceğe Bakış:

  • Daha verimli, daha küçük modellerin ortaya çıkması ve nicemleme teknolojisindeki daha fazla ilerlemeyle, Ollama için dağıtım engelinin azalmaya devam etmesi beklenmektedir.

  • Model meta verilerinin standartlaştırılması ve topluluk tarafından paylaşılan modeller, ekosistemin şeffaflığını ve kullanılabilirliğini artırmak için hayati öneme sahiptir.

Özetle, Ollama, en son teknoloji ürünü büyük dil modellerini geniş bir geliştirici, araştırmacı ve hatta genel kullanıcı yelpazesiyle birleştiren önemli bir köprü haline gelmektedir. Bu veri analizi, mevcut küresel dağıtım durumunu ve kullanıcı tercihlerini anlamak için değerli bilgiler sunmaktadır.

Yorumlar

comments.comments (0)

Please login first

Sign in