Tenthe ai directory logo
Perspektif Baharu Mengenai Perlumbaan AI AS-China: Perbandingan Penggunaan Ollama 2025 dan Wawasan Trend Model AI Global

Perspektif Baharu Mengenai Perlumbaan AI AS-China: Perbandingan Penggunaan Ollama 2025 dan Wawasan Trend Model AI Global

Ryan@ryan
0 Paparan0 Komen

Ollama ialah alat sumber terbuka yang popular direka untuk memudahkan proses menjalankan, mencipta dan berkongsi model bahasa besar (LLM) secara tempatan. Ia menggabungkan berat model, konfigurasi dan data ke dalam satu pakej yang ditakrifkan oleh Modelfile, dan menyediakan API untuk berinteraksi dengan model-model ini. Ini membolehkan pembangun dan penyelidik untuk menggunakan dan bereksperimen dengan pelbagai model AI lanjutan dengan mudah pada komputer peribadi atau pelayan.

1. Pengenalan

Ollama ialah alat sumber terbuka yang popular direka untuk memudahkan proses menjalankan, mencipta dan berkongsi model bahasa besar (LLM) secara tempatan. Ia menggabungkan berat model, konfigurasi dan data ke dalam satu pakej yang ditakrifkan oleh Modelfile, dan menyediakan API untuk berinteraksi dengan model-model ini. Ini membolehkan pembangun dan penyelidik untuk menggunakan dan bereksperimen dengan pelbagai model AI lanjutan dengan mudah pada komputer peribadi atau pelayan.

Laporan ini bertujuan untuk mendedahkan trend penggunaan, keutamaan model, taburan geografi dan ciri-ciri rangkaian dengan menganalisis data daripada 174,590 instans Ollama yang digunakan di seluruh dunia.

Nota: Statistik data dalam Bab 5 dan Bab 7 diperoleh daripada kesemua 174,590 instans. Data dalam Bab 6 diperoleh daripada instans yang boleh diakses. Atas sebab keselamatan, kami tidak menyenaraikan statistik mengenai versi Ollama.

  • Data sehingga: 24 April 2025.

  • Sumber Laporan: Tenthe AI https://tenthe.com

  • Pengarang: Ryan

2. Ringkasan Eksekutif

Laporan ini berdasarkan analisis data imbasan dan siasatan API bagi instans Ollama yang tersedia secara umum di seluruh dunia. Penemuan utama termasuk:

  • Secara global, daripada kira-kira 174,590 rekod yang pada mulanya dikenal pasti melalui Fofa (99,412 IP unik), 41,021 instans Ollama dengan API yang boleh diakses berjaya disiasat, diedarkan merentasi 24,038 alamat IP unik (kadar kebolehcapaian kira-kira 24.18%).

  • Secara geografi, Amerika Syarikat dan China adalah negara dengan jumlah penggunaan Ollama tertinggi. Penyedia perkhidmatan awan, terutamanya AWS, Alibaba Cloud dan Tencent Cloud, adalah hos utama untuk instans Ollama.

  • Penggunaan model menunjukkan kepelbagaian, dengan model siri llama3, deepseek-r1, mistral, dan qwen menjadi sangat popular. Antaranya, llama3:latest dan deepseek-r1:latest adalah dua tag model yang paling banyak digunakan.

  • Model dengan parameter 7B-8B adalah pilihan utama pengguna, manakala model terkuantisasi 4-bit seperti Q4_K_M dan Q4_0 diguna pakai secara meluas kerana keseimbangan yang baik antara prestasi dan penggunaan sumber.

  • Port lalai 11434 adalah yang paling biasa digunakan, dan kebanyakan instans mendedahkan perkhidmatan melalui protokol HTTP.

3. Sumber Data dan Metodologi

Data untuk laporan ini terutamanya datang dari dua peringkat:

  1. Imbasan Awal: Menggunakan enjin carian ruang rangkaian seperti Fofa, dengan syarat app="Ollama" && is_domain=false, untuk mengenal pasti secara awal instans Ollama yang berpotensi digunakan di seluruh dunia. Peringkat ini menemui 174,590 rekod, melibatkan 99,412 IP unik selepas penyahduplikasian.

  2. Pengesahan API dan Pengayaan Data: Menyiasat titik akhir API ip:port/api/tags untuk alamat IP yang diimbas pada mulanya untuk mengesahkan kebolehcapaian perkhidmatan Ollama dan mendapatkan maklumat tentang model AI khusus yang digunakan. Peringkat ini mengesahkan 41,021 instans Ollama yang berjaya memberi respons (daripada 24,038 IP unik, dengan data disimpan dalam jadual ollama).

  3. Data akhir disimpan dalam jadual ollama.

Analisis dalam laporan ini terutamanya berdasarkan data daripada jadual ollama, yang mengandungi rekod API yang berjaya disiasat dan maklumat terperincinya, termasuk IP, port, lokasi geografi, dan respons JSON (mengandungi senarai model), dsb.

4. Statistik Penggunaan Keseluruhan

  • Bilangan rekod awal daripada imbasan Fofa: 174,590

  • Bilangan IP unik daripada imbasan awal Fofa: 99,412

  • Bilangan instans Ollama yang berjaya mengakses /api/tags: 41,021 (daripada rekod di mana status = 'success' dalam jadual ollama)

  • Bilangan alamat IP unik yang sepadan: 24,038 (daripada rekod di mana status = 'success' dalam jadual ollama)

  • Nisbah IP yang boleh diakses kepada IP yang dikenal pasti pada mulanya: (24038 / 99412) * 100% ≈ 24.18%

Ini menunjukkan bahawa di kalangan semua instans Ollama yang dikenal pasti melalui Fofa, kira-kira satu perempat mempunyai antara muka /api/tags mereka yang boleh diakses secara umum, membolehkan kami mendapatkan maklumat tentang model yang mereka gunakan.

5. Analisis Taburan Geografi

5.1 20 Negara/Rantau Penggunaan Teratas

Jadual di bawah menunjukkan 20 negara/rantau teratas yang disenaraikan mengikut bilangan IP unik dengan instans Ollama.

Pangkat

Negara/Rantau

Bilangan IP Unik

1

Amerika Syarikat

29195

2

China

16464

3

Jepun

5849

4

Jerman

5438

5

United Kingdom

4014

6

India

3939

7

Singapura

3914

8

Korea Selatan

3773

9

Ireland

3636

10

Perancis

3599

11

Australia

3558

12

Brazil

2909

13

Kanada

2763

14

Afrika Selatan

2742

15

Sweden

2113

16

Hong Kong SAR, China

1277

17

Israel

675

18

Taiwan, China

513

19

Rusia

475

20

Finland

308

20 Negara/Rantau Penggunaan Ollama Teratas

5.2 20 Penggunaan Bandar Global Teratas

Jadual di bawah menunjukkan 20 bandar teratas di seluruh dunia yang disenaraikan mengikut bilangan IP unik dengan instans Ollama.

Pangkat

Bandar

Negara/Rantau

Bilangan IP Unik

1

Ashburn

Amerika Syarikat

5808

2

Portland

Amerika Syarikat

5130

3

Singapura

Singapura

3914

4

Frankfurt am Main

Jerman

3908

5

Beijing

China

3906

6

London

United Kingdom

3685

7

Columbus

Amerika Syarikat

3672

8

Mumbai

India

3637

9

Dublin

Ireland

3631

10

Tokyo

Jepun

3620

11

Sydney

Australia

3487

12

Paris

Perancis

3175

13

San Jose

Amerika Syarikat

2815

14

Sao Paulo

Brazil

2753

15

Cape Town

Afrika Selatan

2692

16

Montreal

Kanada

2535

17

Seattle

Amerika Syarikat

2534

18

Hangzhou

China

2447

19

Seoul

Korea Selatan

2327

20

Osaka

Jepun

2184

5.3 Taburan 10 Bandar Teratas AS

Pangkat

Bandar

Bilangan IP Unik

1

Ashburn

5808

2

Portland

5130

3

Columbus

3672

4

San Jose

2815

5

Seattle

2534

6

Westlake Village

1714

7

Boardman

855

8

Florence

776

9

San Francisco

753

10

Boulder

642

Taburan 10 Bandar Teratas AS Ollama

5.4 Taburan 10 Bandar Teratas Tanah Besar China

Penggunaan di Hong Kong dan Taiwan tidak ditunjukkan dalam jadual 10 bandar teratas kerana ia sudah termasuk dalam statistik negara/rantau.

Pangkat

Bandar

Negara (country_name)

Bilangan IP Unik

1

Beijing

China

3906

2

Hangzhou

China

2447

3

Shanghai

China

1335

4

Guangzhou

China

1296

5

Shenzhen

China

768

6

Chengdu

China

469

7

Nanjing

China

329

8

Chongqing

China

259

9

Suzhou

China

257

10

Wuhan

China

249

20 Penggunaan Bandar Global Teratas Ollama

5.5 Perbandingan Penggunaan 10 Bandar Teratas AS-China

Untuk membandingkan penggunaan Ollama di peringkat bandar di AS dan China dengan lebih intuitif, jadual di bawah menyandingkan kiraan penggunaan IP unik untuk 10 bandar teratas di kedua-dua negara:

Pangkat

Bandar AS (10 Teratas)

Bilangan IP Unik AS

Bandar China (10 Teratas)

Bilangan IP Unik China

1

Ashburn

5808

Beijing

3906

2

Portland

5130

Hangzhou

2447

3

Columbus

3672

Shanghai

1335

4

San Jose

2815

Guangzhou

1296

5

Seattle

2534

Shenzhen

768

6

Westlake Village

1714

Chengdu

469

7

Boardman

855

Nanjing

329

8

Florence

776

Chongqing

259

9

San Francisco

753

Suzhou

257

10

Boulder

642

Wuhan

249

Perbandingan Penggunaan 10 Bandar Teratas AS-China Ollama

Ulasan Ringkas:

  • Jumlah Bandar Utama: 3 bandar teratas AS (Ashburn, Portland, Columbus) masing-masing mempunyai lebih 3,000 IP unik dengan penggunaan Ollama. Bandar teratas China (Beijing) mempunyai lebih 3,000 penggunaan, dan bandar kedua (Hangzhou) mempunyai lebih 2,000.

  • Hab Teknologi dan Ekonomi: Banyak bandar yang disenaraikan di kedua-dua negara adalah pusat inovasi teknologi yang terkenal atau rantau ekonomi penting.

  • Rantau Pusat Data: Kemasukan bandar-bandar AS seperti Ashburn juga mencerminkan bahawa instans Ollama mungkin sebahagian besarnya digunakan dalam pelayan awan dan pusat data.

  • Perbezaan Taburan: Secara keseluruhan, jumlah IP di 10 bandar teratas AS jauh lebih tinggi daripada di 10 bandar teratas China. Walau bagaimanapun, kedua-dua negara menunjukkan corak di mana beberapa bandar teras menyumbang sebahagian besar penggunaan Ollama.

Perbandingan peringkat bandar ini seterusnya mendedahkan bahawa promosi dan aplikasi Ollama, sebagai alat pembangun, berkait rapat dengan ekosistem teknologi serantau dan pembangunan perindustrian.

6. Analisis Model

6.1 Gambaran Ringkas Model AI, Parameter dan Kuantisasi

Ollama menyokong pelbagai model bahasa besar sumber terbuka. Model-model ini biasanya dibezakan oleh ciri-ciri berikut:

6.1.1 Keluarga Model Biasa

Komuniti sumber terbuka semasa telah menyaksikan lonjakan keluarga LLM yang cemerlang, masing-masing dengan ciri-cirinya sendiri:

  • Siri Llama (Meta AI): Seperti Llama 2, Llama 3, Code Llama. Dikenali dengan keupayaan amnya yang berkuasa dan sokongan komuniti yang luas, membawa kepada banyak versi yang ditala halus. Model seperti llama3.1, hermes3 yang dilihat dalam data kami sering berdasarkan seni bina Llama.

  • Siri Mistral (Mistral AI): Seperti Mistral 7B, Mixtral 8x7B. Mendapat perhatian kerana kecekapan dan prestasi tinggi, terutamanya model MoE (Mixture of Experts) nya.

  • Siri Gemma (Google): Seperti Gemma 2B, Gemma 7B. Model berat terbuka yang dikeluarkan oleh Google, dengan teknologi yang diperoleh daripada model Gemini mereka yang lebih berkuasa.

  • Siri Phi (Microsoft): Seperti Phi-2, Phi-3. Memberi tumpuan kepada model bersaiz kecil namun berkebolehan, menekankan "SLM (Model Bahasa Kecil)".

  • Siri DeepSeek (DeepSeek AI): Seperti DeepSeek Coder, DeepSeek LLM. Model AI China yang cemerlang dalam pengekodan dan tugas am.

  • Siri Qwen (Alibaba Tongyi Qianwen): Seperti Qwen1.5. Siri model yang dilancarkan oleh Alibaba DAMO Academy, menyokong pelbagai bahasa dan tugas.

  • Terdapat banyak model cemerlang lain, seperti Yi (01.AI), Command R (Cohere), dsb.

Ollama, melalui mekanisme Modelfilenya, membolehkan pengguna menggunakan model asas ini atau versi yang ditala halus dengan mudah. Nama model sering mengikuti format keluarga:saiz-varian-kuantisasi, contohnya, llama3:8b-instruct-q4_K_M.

6.1.2 Parameter Model (Saiz Parameter)

Bilangan parameter model (biasanya dalam B - Bilion; atau M - Juta) adalah penunjuk penting skala model dan keupayaan berpotensi. Saiz parameter biasa termasuk:

  • Model Kecil: < 7B (cth., 1.5B, 2B, 3B). Biasanya berjalan pantas dengan penggunaan sumber yang rendah, sesuai untuk tugas tertentu atau persekitaran yang terhad sumber.

  • Model Sederhana: 7B, 8B, 13B. Mencapai keseimbangan yang baik antara keupayaan dan penggunaan sumber, kini salah satu saiz paling popular dalam komuniti.

  • Model Besar: 30B, 33B, 40B, 70B+. Umumnya lebih berkebolehan tetapi juga memerlukan lebih banyak sumber pengkomputeran (RAM, VRAM) dan masa inferens yang lebih lama.

Medan parameter_size dalam data kami (cth., "8.0B", "7B", "134.52M") menunjukkan ini.

6.1.3 Versi Kuantisasi (Tahap Kuantisasi)

Kuantisasi ialah teknik untuk mengurangkan saiz model dan mempercepatkan inferens dengan menurunkan ketepatan berangka bagi berat model (cth., daripada titik apungan 16-bit FP16 kepada integer 4-bit INT4).

  • Tahap Kuantisasi Biasa: Ollama dan format GGUF (digunakan oleh Llama.cpp) menyokong pelbagai strategi kuantisasi, seperti Q2_K, Q3_K_S, Q3_K_M, Q3_K_L, Q4_0, Q4_K_M, Q5_K_M, Q6_K, Q8_0, dsb.

    • Nombor (cth., 2, 3, 4, 5, 6, 8) secara kasar menunjukkan bilangan bit.

    • Kuantisasi siri K (cth., Q4_K_M) adalah kaedah kuantisasi yang dipertingkatkan yang diperkenalkan dalam llama.cpp, secara amnya mencapai prestasi yang lebih baik pada kiraan bit yang sama.

    • _S, _M, _L biasanya menandakan varian K-kuant yang berbeza, mempengaruhi bahagian model yang berbeza.

    • F16 (FP16) mewakili titik apungan 16-bit, sering dianggap tidak terkuantisasi atau versi kuantisasi asas. F32 (FP32) ialah ketepatan penuh.

  • Tolak Ansur: Kuantisasi yang lebih tinggi (kiraan bit yang lebih rendah) menghasilkan model yang lebih kecil dan lebih pantas, tetapi biasanya datang dengan sedikit kehilangan prestasi (model berprestasi lebih teruk). Pengguna perlu memilih berdasarkan perkakasan dan keperluan kualiti model mereka.

Medan quantization_level dalam data kami (cth., "Q4_K_M", "F16") menunjukkan ini.

6.2 Nama Model Popular Teratas

Jadual di bawah menunjukkan 10 tag model Teratas yang disenaraikan mengikut bilangan penggunaan IP unik, termasuk maklumat keluarga, saiz parameter dan tahap kuantisasinya.

Pangkat

Nama Model (model_name)

Penggunaan IP Unik

Jumlah Instans Penggunaan

1

llama3:latest

12659

24628

2

deepseek-r1:latest

12572

24578

3

mistral:latest

11163

22638

4

qwen:latest

9868

21007

5

llama3:8b-text-q4_K_S

9845

20980

6

smollm2:135m

4058

5016

7

llama2:latest

3124

3928

8

hermes3:8b

2856

3372

9

llama3.1:8b

2714

3321

10

qwen2.5:1.5b

2668

3391

Nama Model Popular Teratas Ollama

(Nota: Penggunaan IP Unik merujuk kepada bilangan alamat IP unik yang telah menggunakan sekurang-kurangnya satu instans tag model ini. Jumlah Instans Penggunaan merujuk kepada jumlah keseluruhan tag model ini muncul dalam senarai models merentasi semua IP. Satu IP mungkin merujuk kepada tag model yang sama beberapa kali melalui cara atau rekod yang berbeza, atau satu IP mungkin menjalankan beberapa instans tag berbeza yang tergolong dalam model asas yang sama.)

Pemerhatian Awal (Nama Model Popular):

  • Model dengan tag :latest sangat biasa, seperti llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest. Ini menunjukkan ramai pengguna lebih suka menarik versi terkini model secara terus.

  • Model siri Llama (cth., llama3:latest, llama3:8b-text-q4_K_S, llama2:latest, llama3.1:8b) menduduki pelbagai tempat, menunjukkan populariti mereka yang kukuh.

  • Model AI China seperti deepseek-r1:latest (siri DeepSeek) dan qwen:latest (siri Tongyi Qianwen) juga menunjukkan prestasi yang mengagumkan, menduduki tempat tinggi.

  • Versi terkuantisasi khusus seperti llama3:8b-text-q4_K_S juga berjaya masuk ke sepuluh teratas, menunjukkan keutamaan pengguna untuk keseimbangan prestasi/penggunaan sumber tertentu.

  • Model kecil seperti smollm2:135m dan qwen2.5:1.5b juga mempunyai bilangan penggunaan yang besar, memenuhi permintaan untuk model ringan.

6.3 Keluarga Model Teratas

Keluarga model (medan details.family) mewakili seni bina asas atau keturunan teknologi utama model tersebut. Di bawah adalah keluarga model dengan bilangan penggunaan yang lebih tinggi berdasarkan analisis data kami:

Pangkat

Keluarga Model (family)

Penggunaan IP Unik (Anggaran)

Jumlah Instans Penggunaan (Anggaran)

1

llama

~20250

~103480

2

qwen2

~17881

~61452

3

nomic-bert

~1479

~1714

4

gemma3

~1363

~2493

5

bert

~1228

~2217

6

mllama

~943

~1455

7

gemma

~596

~750

8

deepseek2

~484

~761

9

phi3

~368

~732

10

gemma2

~244

~680

Keluarga Model Teratas Ollama

(Nota: Nilai khusus di sini adalah anggaran dan diringkaskan berdasarkan senarai butiran 50 model teratas yang ditanya sebelum ini dan mungkin sedikit berbeza daripada statistik global yang tepat, tetapi trendnya adalah wakil.)

Pemerhatian Awal (Keluarga Model Popular):

  • Keluarga llama memegang kedudukan dominan mutlak, selaras dengan model siri Llama yang menjadi asas bagi banyak LLM sumber terbuka moden dan aplikasi meluas mereka sendiri. Ekosistemnya yang luas dan banyak versi yang ditala halus menjadikannya pilihan paling popular.

  • qwen2 (siri Tongyi Qianwen Qwen2), sebagai keluarga kedua terbesar, menunjukkan daya saingnya yang kuat di China dan bahkan di peringkat global.

  • Kemunculan nomic-bert dan bert adalah penting. Walaupun ia biasanya tidak dianggap sebagai "model bahasa besar" (perbualan), tetapi lebih kepada model pembenaman teks atau model asas pemprosesan bahasa semula jadi yang lain, jumlah penggunaan yang tinggi menunjukkan bahawa Ollama juga digunakan secara meluas untuk tugas sedemikian. Ollama secara automatik memuat turun model pembenaman lalai (cth., nomic-embed-text) semasa melakukan operasi tertentu (seperti menjana vektor pembenaman), yang mungkin menjadi sebab utama keluarga ini menduduki tempat tinggi.

  • Siri gemma Google (termasuk gemma3, gemma, gemma2) juga menunjukkan kadar penggunaan yang baik.

  • Keluarga model terkenal lain seperti deepseek2 dan phi3 juga berjaya masuk ke sepuluh teratas.

  • mllama mungkin mewakili koleksi pelbagai model hibrid, diubah suai, atau dinamakan komuniti berasaskan Llama.

6.4 Statistik Saiz Parameter Asal Teratas

Saiz parameter model (medan details.parameter_size) adalah penunjuk penting skala model. Oleh kerana perwakilan saiz parameter yang pelbagai dalam data mentah (cth., "8.0B", "7B", "134.52M"), kami secara langsung mengira rentetan asal ini. Di bawah adalah perwakilan saiz parameter dengan bilangan penggunaan yang lebih tinggi:

Pangkat

Saiz Parameter (Rentetan Asal)

Penggunaan IP Unik (Anggaran)

Jumlah Instans Penggunaan (Anggaran)

1

8.0B

~14480

~52577

2

7.6B

~14358

~28105

3

7.2B

~11233

~22907

4

4B

~9895

~21058

5

7B

~4943

~11738

6

134.52M

~4062

~5266

7

1.5B

~2759

~3596

8

13B

~2477

~3311

9

1.8B

~2034

~2476

10

3.2B

~1553

~2244

11

137M

~1477

~1708

12

12.2B

~1421

~2000

13

32.8B

~1254

~2840

14

14.8B

~1123

~2091

15

4.3B

~943

~1194

Statistik Saiz Parameter Asal Teratas Ollama

(Nota: Nilai adalah anggaran berdasarkan ringkasan maklumat parameter daripada senarai butiran 50 model teratas yang ditanya sebelum ini.)

Pemerhatian Awal (Saiz Parameter Popular):

  • Model dalam skala 7B hingga 8B adalah arus perdana mutlak: "8.0B", "7.6B", "7.2B", "7B" menduduki sebahagian besar penggunaan. Ini biasanya sepadan dengan model yang sangat popular dalam komuniti, seperti siri Llama 2/3 7B/8B, Mistral 7B, dan pelbagai versi yang ditala halus. Mereka mencapai keseimbangan yang baik antara prestasi dan penggunaan sumber.

  • Model skala 4B juga memegang kedudukan penting: Penggunaan tinggi "4B" adalah penting.

  • Model ringan tahap juta-parameter (M) meluas: Kedudukan tinggi "134.52M" dan "137M" mungkin berkaitan dengan populariti model pembenaman (seperti nomic-embed-text) atau model khusus yang sangat kecil (seperti siri smollm). Model-model ini kecil, pantas, dan sesuai untuk senario yang terhad sumber atau sensitif latensi.

  • Permintaan stabil untuk model kecil dalam julat 1B-4B: Model dengan saiz parameter seperti "1.5B", "1.8B", "3.2B", "4.3B" juga digemari oleh sebahagian pengguna.

  • Model besar melebihi 10B: Seperti "13B", "12.2B", "32.8B", "14.8B", walaupun tidak mempunyai sebanyak penggunaan IP unik seperti tahap 7-8B, masih mempunyai jumlah penggunaan yang besar, menunjukkan permintaan komuniti untuk model yang lebih berkebolehan, walaupun keperluan perkakasan mereka lebih tinggi.

6.5 Statistik Tahap Kuantisasi Teratas

Tahap kuantisasi model (medan details.quantization_level) mencerminkan ketepatan berat yang diguna pakai oleh model untuk mengurangkan saiz dan mempercepatkan inferens. Di bawah adalah tahap kuantisasi dengan bilangan penggunaan yang lebih tinggi:

Pangkat

Tahap Kuantisasi (Rentetan Asal)

Penggunaan IP Unik (Anggaran)

Jumlah Instans Penggunaan (Anggaran)

1

Q4_K_M

~20966

~53688

2

Q4_0

~18385

~88653

3

Q4_K_S

~9860

~21028

4

F16

~5793

~9837

5

Q8_0

~596

~1574

6

unknown

~266

~1318

7

Q5_K_M

~97

~283

8

F32

~85

~100

9

Q6_K

~60

~178

10

Q2_K

~54

~140

Statistik Tahap Kuantisasi Teratas Ollama

(Nota: Nilai adalah anggaran berdasarkan ringkasan maklumat kuantisasi daripada senarai butiran 50 model teratas yang ditanya sebelum ini.)

Pemerhatian Awal (Tahap Kuantisasi Popular):

  • Kuantisasi 4-bit adalah penyelesaian dominan: Q4_K_M, Q4_0, dan Q4_K_S, ketiga-tiga tahap kuantisasi 4-bit ini, mendahului carta secara mutlak. Ini jelas menunjukkan bahawa komuniti secara meluas menggunakan kuantisasi 4-bit sebagai penyelesaian pilihan untuk mencapai keseimbangan terbaik antara prestasi model, kelajuan inferens, dan penggunaan sumber (terutamanya VRAM).

  • F16 (titik apungan 16-bit) masih memegang tempat yang penting: Sebagai versi yang tidak terkuantisasi (atau hanya terkuantisasi secara asas), penggunaan tinggi F16 menunjukkan bahawa sebilangan besar pengguna memilihnya untuk mengejar kesetiaan model tertinggi atau kerana mereka mempunyai sumber perkakasan yang mencukupi.

  • Q8_0 (kuantisasi 8-bit) sebagai tambahan: Menyediakan pilihan antara 4-bit dan F16.

  • Kemunculan nilai unknown: Menunjukkan bahawa maklumat tahap kuantisasi hilang atau tidak standard dalam beberapa metadata model.

6.6 Taburan Kuasa Pengkomputeran AI (mengikut Saiz Parameter Model): China lwn. AS

Untuk mendapatkan pemahaman yang lebih mendalam tentang bagaimana model berskala berbeza digunakan di negara-negara utama, kami mengkategorikan dan mengira saiz parameter model yang digunakan pada instans Ollama di Amerika Syarikat dan China. Saiz parameter sering dianggap sebagai penunjuk penting kerumitan model dan potensi permintaan kuasa pengkomputeran AI.

Standard Klasifikasi Skala Parameter:

  • Kecil: < 1 Bilion parameter (< 1B)

  • Sederhana: 1 Bilion hingga < 10 Bilion parameter (1B hingga < 10B)

  • Besar: 10 Bilion hingga < 50 Bilion parameter (10B hingga < 50B)

  • Sangat Besar: >= 50 Bilion parameter (>= 50B)

Jadual di bawah menunjukkan bilangan IP unik yang menggunakan model berskala parameter berbeza di AS dan China:

Negara

Kategori Skala Parameter

Bilangan IP Unik

China

Kecil (<1B)

3313

China

Sederhana (1B hingga <10B)

4481

China

Besar (10B hingga <50B)

1548

China

Sangat Besar (>=50B)

280

Amerika Syarikat

Kecil (<1B)

1368

Amerika Syarikat

Sederhana (1B hingga <10B)

6495

Amerika Syarikat

Besar (10B hingga <50B)

1301

Amerika Syarikat

Sangat Besar (>=50B)

58

Jadual di bawah menunjukkan bilangan IP unik yang menggunakan model berskala parameter berbeza di AS dan China

Wawasan dan Analisis Data:

  1. Model bersaiz sederhana adalah arus perdana, tetapi dengan fokus yang berbeza:

    • Amerika Syarikat: Penggunaan model bersaiz sederhana (1B-10B) adalah dominan secara mutlak di AS (6495 IP unik).

    • China: Model bersaiz sederhana (4481 IP unik) juga merupakan jenis yang paling banyak digunakan di China, tetapi penggunaan model kecil (<1B) di China (3313 IP unik) sangat besar.

  2. Perbezaan ketara dalam model kecil: Penggunaan model kecil secara besar-besaran di China mungkin mencerminkan keutamaan untuk pengkomputeran pinggir, aplikasi AI mudah alih, dan senario serupa.

  3. Penggunaan model besar dan sangat besar: China menunjukkan aktiviti yang lebih tinggi dalam meneroka model besar dan sangat besar (walaupun dari pangkalan yang lebih kecil).

  4. Implikasi terhadap pelaburan kuasa pengkomputeran keseluruhan: Pangkalan AS dalam model bersaiz sederhana menunjukkan kelaziman aplikasi AI praktikal. China mempunyai kelebihan dalam model kecil dan secara aktif meneroka model besar.

  5. Implikasi untuk trend global: Model bersaiz sederhana mungkin popular di peringkat global. Rantau yang berbeza mungkin mempunyai strategi penggunaan model yang berbeza-beza berdasarkan ekosistem dan keadaan sumber mereka.

Dengan mensegmentasikan skala parameter model di China dan AS, kita dapat melihat fokus dan potensi pembangunan aplikasi Ollama yang berbeza di kedua-dua negara.

7. Wawasan Rangkaian

7.1 Penggunaan Port

  • 11434 (port lalai): Sebahagian besar (30,722 IP unik) instans Ollama berjalan pada port lalai 11434.

  • Port biasa lain: Port seperti 80 (1,619 IP unik), 8080 (1,571 IP unik), 443 (1,339 IP unik), dsb., juga digunakan, yang mungkin menunjukkan bahawa beberapa instans digunakan di belakang proksi terbalik atau pengguna telah menyesuaikan port.

7.2 Penggunaan Protokol

  • HTTP: Kira-kira 65,506 IP unik mempunyai instans yang menyediakan perkhidmatan melalui protokol HTTP.

  • HTTPS: Kira-kira 43,765 IP unik mempunyai instans yang menyediakan perkhidmatan melalui protokol HTTPS.

Kebanyakan instans masih terdedah melalui HTTP yang tidak disulitkan, yang boleh menimbulkan risiko keselamatan tertentu. (Sila ambil perhatian: Satu IP mungkin menyokong kedua-dua HTTP dan HTTPS, jadi jumlah kiraan IP di sini mungkin melebihi jumlah IP unik)

7.3 Penyedia Hos Utama (Organisasi AS)

Pengehosan instans Ollama sangat tertumpu di kalangan penyedia perkhidmatan awan.

Pangkat

Organisasi AS

Bilangan IP Unik

Penyedia Utama Berkaitan

1

AMAZON-02

53658

AWS

2

AMAZON-AES

5539

AWS

3

Chinanet

4964

China Telecom

4

Hangzhou Alibaba Advertising Co.,Ltd.

2647

Alibaba Cloud

5

HENGTONG-IDC-LLC

2391

Penyedia Hos

6

Shenzhen Tencent Computer Systems Company Limited

1682

Tencent Cloud

7

CHINA UNICOM China169 Backbone

1606

China Unicom

8

Hetzner Online GmbH

972

Hetzner

9

China Unicom Beijing Province Network

746

China Unicom (Beijing)

10

LEASEWEB-USA-LAX

735

Leaseweb

Pengehosan instans Ollama sangat tertumpu di kalangan penyedia perkhidmatan awan

AWS (AMAZON-02, AMAZON-AES) memegang bahagian terbesar, diikuti oleh pengendali telekomunikasi utama China dan penyedia perkhidmatan awan (seperti Alibaba Cloud, Tencent Cloud). Penyedia hos lain seperti Hetzner dan Leaseweb juga mempunyai bahagian yang signifikan.

8. Keselamatan dan Pemerhatian Lain

  • Maklumat Versi: Atas sebab keselamatan, kami tidak menyenaraikan statistik mengenai versi Ollama.

  • Risiko Pendedahan HTTP: Seperti yang dinyatakan sebelum ini, sebilangan besar instans Ollama terdedah melalui HTTP tanpa penyulitan TLS, yang boleh menjadikan kandungan komunikasi (cth., interaksi dengan model) terdedah kepada pengintipan atau pengubahan. Pengguna dinasihatkan untuk mengkonfigurasi proksi terbalik dan mendayakan HTTPS.

  • Kebolehcapaian API: Data dalam laporan ini berdasarkan instans Ollama yang antara muka /api/tagsnya boleh diakses secara umum. Bilangan penggunaan sebenar mungkin lebih tinggi, tetapi beberapa instans mungkin digunakan dalam rangkaian peribadi atau akses luaran dihadkan oleh tembok api.

9. Kesimpulan dan Ulasan Ringkas

Laporan ini, dengan menganalisis data daripada 99,412 instans Ollama yang boleh diakses secara umum di seluruh dunia (melalui antara muka /api/tags mereka), membuat kesimpulan dan pemerhatian utama berikut:

1. Gambaran Keseluruhan Penggunaan Global dan Taburan Geografi:

  • Ollama, sebagai alat yang mudah untuk menjalankan model besar secara tempatan, telah digunakan secara meluas di seluruh dunia. Analisis ini mengenal pasti 99,412 IP unik yang boleh diakses secara umum.

  • Kepekatan Geografi Tinggi: Amerika Syarikat dan China adalah dua negara/rantau dengan penggunaan Ollama yang paling tertumpu, secara kolektif menyumbang sebahagian besar daripada jumlah instans yang boleh diakses (AS 29,195, China 16,464). Negara-negara seperti Jepun, Jerman, UK, India dan Singapura juga mempunyai bilangan penggunaan yang ketara.

  • Titik Panas Bandar: Di AS, bandar-bandar seperti Ashburn, Portland dan Columbus mendahului dalam penggunaan; di China, bandar-bandar maju teknologi seperti Beijing, Hangzhou, Shanghai dan Guangzhou adalah lokasi penggunaan utama. Ini sering berkaitan dengan penumpuan syarikat teknologi, pusat data dan komuniti pembangun.

2. Trend Penggunaan Model AI:

  • Tag Model Popular: Tag terkini umum seperti llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest adalah yang paling popular. Versi yang dioptimumkan secara khusus seperti llama3:8b-text-q4_K_S juga digemari kerana keseimbangan yang baik.

  • Keluarga Model Dominan: Keluarga llama mendahului dengan margin mutlak, diikuti oleh qwen2. Kedudukan tinggi keluarga model pembenaman seperti nomic-bert dan bert adalah penting, mungkin berkaitan dengan tingkah laku lalai Ollama.

  • Keutamaan Saiz Parameter: Model dengan parameter 7B-8B kini menjadi arus perdana. Model ringan pada tahap juta-parameter dan model besar melebihi 10B juga mempunyai pasaran masing-masing. Perbandingan AS-China menunjukkan AS menggunakan lebih banyak model bersaiz sederhana, manakala China lebih aktif dalam meneroka model kecil dan sangat besar.

  • Pilihan Tahap Kuantisasi: Kuantisasi 4-bit (terutamanya Q4_K_M dan Q4_0) adalah pilihan yang sangat dominan. F16, sebagai pilihan kesetiaan yang lebih tinggi, juga memegang kedudukan penting.

  • Kerumitan Metadata: Analisis metadata model (cth., mentafsir medan keluarga model) kadangkala mendedahkan kerumitan antara rekodnya dan nama model atau pemahaman umum, menonjolkan kepelbagaian pengurusan metadata dalam ekosistem sumber terbuka.

3. Infrastruktur Teknikal:

  • Persekitaran Pengehosan: Sebilangan besar instans Ollama dihoskan pada penyedia perkhidmatan awan utama seperti AWS, Alibaba Cloud, Tencent Cloud, serta dalam rangkaian pengendali telekomunikasi utama negara.

  • Port Perkhidmatan: Port lalai Ollama 11434 adalah yang paling biasa digunakan, tetapi sebilangan besar instans juga terdedah melalui port web standard.

4. Penilaian Objektif:

  • Populariti Ollama: Data jelas menunjukkan kadar penggunaan Ollama yang tinggi di kalangan pembangun dan peminat AI di seluruh dunia.

  • Kegetaran Ekosistem Sumber Terbuka: Kepelbagaian model popular dan penggunaan meluas pelbagai versi parameter dan kuantisasi mencerminkan perkembangan pesat ekosistem model AI sumber terbuka.

  • Keseimbangan dalam Keutamaan Pengguna: Apabila memilih model, pengguna cenderung mencari keseimbangan antara keupayaan model, kecekapan operasi dan kos perkakasan.

  • Keselamatan dan Keterbukaan: Sebilangan besar instans membenarkan akses awam ke senarai model mereka, yang, walaupun mudah untuk komuniti, mungkin juga menimbulkan risiko keselamatan.

5. Tinjauan Masa Depan:

  • Dengan kemunculan model yang lebih cekap dan lebih kecil serta kemajuan lanjut dalam teknologi kuantisasi, halangan penggunaan untuk Ollama dijangka akan terus berkurangan.

  • Penyeragaman metadata model dan model kongsi komuniti adalah penting untuk meningkatkan ketelusan dan kebolehgunaan ekosistem.

Ringkasnya, Ollama menjadi jambatan penting yang menghubungkan model bahasa besar yang canggih dengan pelbagai pembangun, penyelidik, dan juga pengguna umum. Analisis data ini memberikan wawasan berharga untuk memahami status penggunaan global semasa dan keutamaan pengguna.

Komen

comments.comments (0)

Please login first

Sign in