
Perspektif Baharu Mengenai Perlumbaan AI AS-China: Perbandingan Penggunaan Ollama 2025 dan Wawasan Trend Model AI Global
Ollama ialah alat sumber terbuka yang popular direka untuk memudahkan proses menjalankan, mencipta dan berkongsi model bahasa besar (LLM) secara tempatan. Ia menggabungkan berat model, konfigurasi dan data ke dalam satu pakej yang ditakrifkan oleh Modelfile, dan menyediakan API untuk berinteraksi dengan model-model ini. Ini membolehkan pembangun dan penyelidik untuk menggunakan dan bereksperimen dengan pelbagai model AI lanjutan dengan mudah pada komputer peribadi atau pelayan.
1. Pengenalan
Ollama ialah alat sumber terbuka yang popular direka untuk memudahkan proses menjalankan, mencipta dan berkongsi model bahasa besar (LLM) secara tempatan. Ia menggabungkan berat model, konfigurasi dan data ke dalam satu pakej yang ditakrifkan oleh Modelfile, dan menyediakan API untuk berinteraksi dengan model-model ini. Ini membolehkan pembangun dan penyelidik untuk menggunakan dan bereksperimen dengan pelbagai model AI lanjutan dengan mudah pada komputer peribadi atau pelayan.
Laporan ini bertujuan untuk mendedahkan trend penggunaan, keutamaan model, taburan geografi dan ciri-ciri rangkaian dengan menganalisis data daripada 174,590 instans Ollama yang digunakan di seluruh dunia.
Nota: Statistik data dalam Bab 5 dan Bab 7 diperoleh daripada kesemua 174,590 instans. Data dalam Bab 6 diperoleh daripada instans yang boleh diakses. Atas sebab keselamatan, kami tidak menyenaraikan statistik mengenai versi Ollama.
Data sehingga: 24 April 2025.
Sumber Laporan: Tenthe AI https://tenthe.com
Pengarang: Ryan
2. Ringkasan Eksekutif
Laporan ini berdasarkan analisis data imbasan dan siasatan API bagi instans Ollama yang tersedia secara umum di seluruh dunia. Penemuan utama termasuk:
Secara global, daripada kira-kira 174,590 rekod yang pada mulanya dikenal pasti melalui Fofa (99,412 IP unik), 41,021 instans Ollama dengan API yang boleh diakses berjaya disiasat, diedarkan merentasi 24,038 alamat IP unik (kadar kebolehcapaian kira-kira 24.18%).
Secara geografi, Amerika Syarikat dan China adalah negara dengan jumlah penggunaan Ollama tertinggi. Penyedia perkhidmatan awan, terutamanya AWS, Alibaba Cloud dan Tencent Cloud, adalah hos utama untuk instans Ollama.
Penggunaan model menunjukkan kepelbagaian, dengan model siri
llama3
,deepseek-r1
,mistral
, danqwen
menjadi sangat popular. Antaranya,llama3:latest
dandeepseek-r1:latest
adalah dua tag model yang paling banyak digunakan.Model dengan parameter 7B-8B adalah pilihan utama pengguna, manakala model terkuantisasi 4-bit seperti Q4_K_M dan Q4_0 diguna pakai secara meluas kerana keseimbangan yang baik antara prestasi dan penggunaan sumber.
Port lalai
11434
adalah yang paling biasa digunakan, dan kebanyakan instans mendedahkan perkhidmatan melalui protokol HTTP.
3. Sumber Data dan Metodologi
Data untuk laporan ini terutamanya datang dari dua peringkat:
Imbasan Awal: Menggunakan enjin carian ruang rangkaian seperti Fofa, dengan syarat
app="Ollama" && is_domain=false
, untuk mengenal pasti secara awal instans Ollama yang berpotensi digunakan di seluruh dunia. Peringkat ini menemui 174,590 rekod, melibatkan 99,412 IP unik selepas penyahduplikasian.Pengesahan API dan Pengayaan Data: Menyiasat titik akhir API
ip:port/api/tags
untuk alamat IP yang diimbas pada mulanya untuk mengesahkan kebolehcapaian perkhidmatan Ollama dan mendapatkan maklumat tentang model AI khusus yang digunakan. Peringkat ini mengesahkan 41,021 instans Ollama yang berjaya memberi respons (daripada 24,038 IP unik, dengan data disimpan dalam jadualollama
).Data akhir disimpan dalam jadual
ollama
.
Analisis dalam laporan ini terutamanya berdasarkan data daripada jadual ollama
, yang mengandungi rekod API yang berjaya disiasat dan maklumat terperincinya, termasuk IP, port, lokasi geografi, dan respons JSON (mengandungi senarai model), dsb.
4. Statistik Penggunaan Keseluruhan
Bilangan rekod awal daripada imbasan Fofa: 174,590
Bilangan IP unik daripada imbasan awal Fofa: 99,412
Bilangan instans Ollama yang berjaya mengakses
/api/tags
: 41,021 (daripada rekod di manastatus = 'success'
dalam jadualollama
)Bilangan alamat IP unik yang sepadan: 24,038 (daripada rekod di mana
status = 'success'
dalam jadualollama
)Nisbah IP yang boleh diakses kepada IP yang dikenal pasti pada mulanya: (24038 / 99412) * 100% ≈ 24.18%
Ini menunjukkan bahawa di kalangan semua instans Ollama yang dikenal pasti melalui Fofa, kira-kira satu perempat mempunyai antara muka /api/tags
mereka yang boleh diakses secara umum, membolehkan kami mendapatkan maklumat tentang model yang mereka gunakan.
5. Analisis Taburan Geografi
5.1 20 Negara/Rantau Penggunaan Teratas
Jadual di bawah menunjukkan 20 negara/rantau teratas yang disenaraikan mengikut bilangan IP unik dengan instans Ollama.
Pangkat | Negara/Rantau | Bilangan IP Unik |
---|---|---|
1 | Amerika Syarikat | 29195 |
2 | China | 16464 |
3 | Jepun | 5849 |
4 | Jerman | 5438 |
5 | United Kingdom | 4014 |
6 | India | 3939 |
7 | Singapura | 3914 |
8 | Korea Selatan | 3773 |
9 | Ireland | 3636 |
10 | Perancis | 3599 |
11 | Australia | 3558 |
12 | Brazil | 2909 |
13 | Kanada | 2763 |
14 | Afrika Selatan | 2742 |
15 | Sweden | 2113 |
16 | Hong Kong SAR, China | 1277 |
17 | Israel | 675 |
18 | Taiwan, China | 513 |
19 | Rusia | 475 |
20 | Finland | 308 |

5.2 20 Penggunaan Bandar Global Teratas
Jadual di bawah menunjukkan 20 bandar teratas di seluruh dunia yang disenaraikan mengikut bilangan IP unik dengan instans Ollama.
Pangkat | Bandar | Negara/Rantau | Bilangan IP Unik |
---|---|---|---|
1 | Ashburn | Amerika Syarikat | 5808 |
2 | Portland | Amerika Syarikat | 5130 |
3 | Singapura | Singapura | 3914 |
4 | Frankfurt am Main | Jerman | 3908 |
5 | Beijing | China | 3906 |
6 | London | United Kingdom | 3685 |
7 | Columbus | Amerika Syarikat | 3672 |
8 | Mumbai | India | 3637 |
9 | Dublin | Ireland | 3631 |
10 | Tokyo | Jepun | 3620 |
11 | Sydney | Australia | 3487 |
12 | Paris | Perancis | 3175 |
13 | San Jose | Amerika Syarikat | 2815 |
14 | Sao Paulo | Brazil | 2753 |
15 | Cape Town | Afrika Selatan | 2692 |
16 | Montreal | Kanada | 2535 |
17 | Seattle | Amerika Syarikat | 2534 |
18 | Hangzhou | China | 2447 |
19 | Seoul | Korea Selatan | 2327 |
20 | Osaka | Jepun | 2184 |
5.3 Taburan 10 Bandar Teratas AS
Pangkat | Bandar | Bilangan IP Unik |
---|---|---|
1 | Ashburn | 5808 |
2 | Portland | 5130 |
3 | Columbus | 3672 |
4 | San Jose | 2815 |
5 | Seattle | 2534 |
6 | Westlake Village | 1714 |
7 | Boardman | 855 |
8 | Florence | 776 |
9 | San Francisco | 753 |
10 | Boulder | 642 |

5.4 Taburan 10 Bandar Teratas Tanah Besar China
Penggunaan di Hong Kong dan Taiwan tidak ditunjukkan dalam jadual 10 bandar teratas kerana ia sudah termasuk dalam statistik negara/rantau.
Pangkat | Bandar | Negara ( | Bilangan IP Unik |
---|---|---|---|
1 | Beijing | China | 3906 |
2 | Hangzhou | China | 2447 |
3 | Shanghai | China | 1335 |
4 | Guangzhou | China | 1296 |
5 | Shenzhen | China | 768 |
6 | Chengdu | China | 469 |
7 | Nanjing | China | 329 |
8 | Chongqing | China | 259 |
9 | Suzhou | China | 257 |
10 | Wuhan | China | 249 |

5.5 Perbandingan Penggunaan 10 Bandar Teratas AS-China
Untuk membandingkan penggunaan Ollama di peringkat bandar di AS dan China dengan lebih intuitif, jadual di bawah menyandingkan kiraan penggunaan IP unik untuk 10 bandar teratas di kedua-dua negara:
Pangkat | Bandar AS (10 Teratas) | Bilangan IP Unik AS | Bandar China (10 Teratas) | Bilangan IP Unik China |
---|---|---|---|---|
1 | Ashburn | 5808 | Beijing | 3906 |
2 | Portland | 5130 | Hangzhou | 2447 |
3 | Columbus | 3672 | Shanghai | 1335 |
4 | San Jose | 2815 | Guangzhou | 1296 |
5 | Seattle | 2534 | Shenzhen | 768 |
6 | Westlake Village | 1714 | Chengdu | 469 |
7 | Boardman | 855 | Nanjing | 329 |
8 | Florence | 776 | Chongqing | 259 |
9 | San Francisco | 753 | Suzhou | 257 |
10 | Boulder | 642 | Wuhan | 249 |

Ulasan Ringkas:
Jumlah Bandar Utama: 3 bandar teratas AS (Ashburn, Portland, Columbus) masing-masing mempunyai lebih 3,000 IP unik dengan penggunaan Ollama. Bandar teratas China (Beijing) mempunyai lebih 3,000 penggunaan, dan bandar kedua (Hangzhou) mempunyai lebih 2,000.
Hab Teknologi dan Ekonomi: Banyak bandar yang disenaraikan di kedua-dua negara adalah pusat inovasi teknologi yang terkenal atau rantau ekonomi penting.
Rantau Pusat Data: Kemasukan bandar-bandar AS seperti Ashburn juga mencerminkan bahawa instans Ollama mungkin sebahagian besarnya digunakan dalam pelayan awan dan pusat data.
Perbezaan Taburan: Secara keseluruhan, jumlah IP di 10 bandar teratas AS jauh lebih tinggi daripada di 10 bandar teratas China. Walau bagaimanapun, kedua-dua negara menunjukkan corak di mana beberapa bandar teras menyumbang sebahagian besar penggunaan Ollama.
Perbandingan peringkat bandar ini seterusnya mendedahkan bahawa promosi dan aplikasi Ollama, sebagai alat pembangun, berkait rapat dengan ekosistem teknologi serantau dan pembangunan perindustrian.
6. Analisis Model
6.1 Gambaran Ringkas Model AI, Parameter dan Kuantisasi
Ollama menyokong pelbagai model bahasa besar sumber terbuka. Model-model ini biasanya dibezakan oleh ciri-ciri berikut:
6.1.1 Keluarga Model Biasa
Komuniti sumber terbuka semasa telah menyaksikan lonjakan keluarga LLM yang cemerlang, masing-masing dengan ciri-cirinya sendiri:
Siri Llama (Meta AI): Seperti Llama 2, Llama 3, Code Llama. Dikenali dengan keupayaan amnya yang berkuasa dan sokongan komuniti yang luas, membawa kepada banyak versi yang ditala halus. Model seperti
llama3.1
,hermes3
yang dilihat dalam data kami sering berdasarkan seni bina Llama.Siri Mistral (Mistral AI): Seperti Mistral 7B, Mixtral 8x7B. Mendapat perhatian kerana kecekapan dan prestasi tinggi, terutamanya model MoE (Mixture of Experts) nya.
Siri Gemma (Google): Seperti Gemma 2B, Gemma 7B. Model berat terbuka yang dikeluarkan oleh Google, dengan teknologi yang diperoleh daripada model Gemini mereka yang lebih berkuasa.
Siri Phi (Microsoft): Seperti Phi-2, Phi-3. Memberi tumpuan kepada model bersaiz kecil namun berkebolehan, menekankan "SLM (Model Bahasa Kecil)".
Siri DeepSeek (DeepSeek AI): Seperti DeepSeek Coder, DeepSeek LLM. Model AI China yang cemerlang dalam pengekodan dan tugas am.
Siri Qwen (Alibaba Tongyi Qianwen): Seperti Qwen1.5. Siri model yang dilancarkan oleh Alibaba DAMO Academy, menyokong pelbagai bahasa dan tugas.
Terdapat banyak model cemerlang lain, seperti Yi (01.AI), Command R (Cohere), dsb.
Ollama, melalui mekanisme Modelfile
nya, membolehkan pengguna menggunakan model asas ini atau versi yang ditala halus dengan mudah. Nama model sering mengikuti format keluarga:saiz-varian-kuantisasi
, contohnya, llama3:8b-instruct-q4_K_M
.
6.1.2 Parameter Model (Saiz Parameter)
Bilangan parameter model (biasanya dalam B - Bilion; atau M - Juta) adalah penunjuk penting skala model dan keupayaan berpotensi. Saiz parameter biasa termasuk:
Model Kecil: < 7B (cth., 1.5B, 2B, 3B). Biasanya berjalan pantas dengan penggunaan sumber yang rendah, sesuai untuk tugas tertentu atau persekitaran yang terhad sumber.
Model Sederhana: 7B, 8B, 13B. Mencapai keseimbangan yang baik antara keupayaan dan penggunaan sumber, kini salah satu saiz paling popular dalam komuniti.
Model Besar: 30B, 33B, 40B, 70B+. Umumnya lebih berkebolehan tetapi juga memerlukan lebih banyak sumber pengkomputeran (RAM, VRAM) dan masa inferens yang lebih lama.
Medan parameter_size
dalam data kami (cth., "8.0B", "7B", "134.52M") menunjukkan ini.
6.1.3 Versi Kuantisasi (Tahap Kuantisasi)
Kuantisasi ialah teknik untuk mengurangkan saiz model dan mempercepatkan inferens dengan menurunkan ketepatan berangka bagi berat model (cth., daripada titik apungan 16-bit FP16 kepada integer 4-bit INT4).
Tahap Kuantisasi Biasa: Ollama dan format GGUF (digunakan oleh Llama.cpp) menyokong pelbagai strategi kuantisasi, seperti
Q2_K
,Q3_K_S
,Q3_K_M
,Q3_K_L
,Q4_0
,Q4_K_M
,Q5_K_M
,Q6_K
,Q8_0
, dsb.Nombor (cth., 2, 3, 4, 5, 6, 8) secara kasar menunjukkan bilangan bit.
Kuantisasi siri
K
(cth.,Q4_K_M
) adalah kaedah kuantisasi yang dipertingkatkan yang diperkenalkan dalam llama.cpp, secara amnya mencapai prestasi yang lebih baik pada kiraan bit yang sama._S
,_M
,_L
biasanya menandakan varian K-kuant yang berbeza, mempengaruhi bahagian model yang berbeza.F16
(FP16) mewakili titik apungan 16-bit, sering dianggap tidak terkuantisasi atau versi kuantisasi asas.F32
(FP32) ialah ketepatan penuh.
Tolak Ansur: Kuantisasi yang lebih tinggi (kiraan bit yang lebih rendah) menghasilkan model yang lebih kecil dan lebih pantas, tetapi biasanya datang dengan sedikit kehilangan prestasi (model berprestasi lebih teruk). Pengguna perlu memilih berdasarkan perkakasan dan keperluan kualiti model mereka.
Medan quantization_level
dalam data kami (cth., "Q4_K_M", "F16") menunjukkan ini.
6.2 Nama Model Popular Teratas
Jadual di bawah menunjukkan 10 tag model Teratas yang disenaraikan mengikut bilangan penggunaan IP unik, termasuk maklumat keluarga, saiz parameter dan tahap kuantisasinya.
Pangkat | Nama Model (model_name) | Penggunaan IP Unik | Jumlah Instans Penggunaan |
---|---|---|---|
1 |
| 12659 | 24628 |
2 |
| 12572 | 24578 |
3 |
| 11163 | 22638 |
4 |
| 9868 | 21007 |
5 |
| 9845 | 20980 |
6 |
| 4058 | 5016 |
7 |
| 3124 | 3928 |
8 |
| 2856 | 3372 |
9 |
| 2714 | 3321 |
10 |
| 2668 | 3391 |

(Nota: Penggunaan IP Unik merujuk kepada bilangan alamat IP unik yang telah menggunakan sekurang-kurangnya satu instans tag model ini. Jumlah Instans Penggunaan merujuk kepada jumlah keseluruhan tag model ini muncul dalam senarai models
merentasi semua IP. Satu IP mungkin merujuk kepada tag model yang sama beberapa kali melalui cara atau rekod yang berbeza, atau satu IP mungkin menjalankan beberapa instans tag berbeza yang tergolong dalam model asas yang sama.)
Pemerhatian Awal (Nama Model Popular):
Model dengan tag
:latest
sangat biasa, sepertillama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
. Ini menunjukkan ramai pengguna lebih suka menarik versi terkini model secara terus.Model siri Llama (cth.,
llama3:latest
,llama3:8b-text-q4_K_S
,llama2:latest
,llama3.1:8b
) menduduki pelbagai tempat, menunjukkan populariti mereka yang kukuh.Model AI China seperti
deepseek-r1:latest
(siri DeepSeek) danqwen:latest
(siri Tongyi Qianwen) juga menunjukkan prestasi yang mengagumkan, menduduki tempat tinggi.Versi terkuantisasi khusus seperti
llama3:8b-text-q4_K_S
juga berjaya masuk ke sepuluh teratas, menunjukkan keutamaan pengguna untuk keseimbangan prestasi/penggunaan sumber tertentu.Model kecil seperti
smollm2:135m
danqwen2.5:1.5b
juga mempunyai bilangan penggunaan yang besar, memenuhi permintaan untuk model ringan.
6.3 Keluarga Model Teratas
Keluarga model (medan details.family
) mewakili seni bina asas atau keturunan teknologi utama model tersebut. Di bawah adalah keluarga model dengan bilangan penggunaan yang lebih tinggi berdasarkan analisis data kami:
Pangkat | Keluarga Model (family) | Penggunaan IP Unik (Anggaran) | Jumlah Instans Penggunaan (Anggaran) |
---|---|---|---|
1 |
| ~20250 | ~103480 |
2 |
| ~17881 | ~61452 |
3 |
| ~1479 | ~1714 |
4 |
| ~1363 | ~2493 |
5 |
| ~1228 | ~2217 |
6 |
| ~943 | ~1455 |
7 |
| ~596 | ~750 |
8 |
| ~484 | ~761 |
9 |
| ~368 | ~732 |
10 |
| ~244 | ~680 |

(Nota: Nilai khusus di sini adalah anggaran dan diringkaskan berdasarkan senarai butiran 50 model teratas yang ditanya sebelum ini dan mungkin sedikit berbeza daripada statistik global yang tepat, tetapi trendnya adalah wakil.)
Pemerhatian Awal (Keluarga Model Popular):
Keluarga
llama
memegang kedudukan dominan mutlak, selaras dengan model siri Llama yang menjadi asas bagi banyak LLM sumber terbuka moden dan aplikasi meluas mereka sendiri. Ekosistemnya yang luas dan banyak versi yang ditala halus menjadikannya pilihan paling popular.qwen2
(siri Tongyi Qianwen Qwen2), sebagai keluarga kedua terbesar, menunjukkan daya saingnya yang kuat di China dan bahkan di peringkat global.Kemunculan
nomic-bert
danbert
adalah penting. Walaupun ia biasanya tidak dianggap sebagai "model bahasa besar" (perbualan), tetapi lebih kepada model pembenaman teks atau model asas pemprosesan bahasa semula jadi yang lain, jumlah penggunaan yang tinggi menunjukkan bahawa Ollama juga digunakan secara meluas untuk tugas sedemikian. Ollama secara automatik memuat turun model pembenaman lalai (cth.,nomic-embed-text
) semasa melakukan operasi tertentu (seperti menjana vektor pembenaman), yang mungkin menjadi sebab utama keluarga ini menduduki tempat tinggi.Siri
gemma
Google (termasukgemma3
,gemma
,gemma2
) juga menunjukkan kadar penggunaan yang baik.Keluarga model terkenal lain seperti
deepseek2
danphi3
juga berjaya masuk ke sepuluh teratas.mllama
mungkin mewakili koleksi pelbagai model hibrid, diubah suai, atau dinamakan komuniti berasaskan Llama.
6.4 Statistik Saiz Parameter Asal Teratas
Saiz parameter model (medan details.parameter_size
) adalah penunjuk penting skala model. Oleh kerana perwakilan saiz parameter yang pelbagai dalam data mentah (cth., "8.0B", "7B", "134.52M"), kami secara langsung mengira rentetan asal ini. Di bawah adalah perwakilan saiz parameter dengan bilangan penggunaan yang lebih tinggi:
Pangkat | Saiz Parameter (Rentetan Asal) | Penggunaan IP Unik (Anggaran) | Jumlah Instans Penggunaan (Anggaran) |
---|---|---|---|
1 |
| ~14480 | ~52577 |
2 |
| ~14358 | ~28105 |
3 |
| ~11233 | ~22907 |
4 |
| ~9895 | ~21058 |
5 |
| ~4943 | ~11738 |
6 |
| ~4062 | ~5266 |
7 |
| ~2759 | ~3596 |
8 |
| ~2477 | ~3311 |
9 |
| ~2034 | ~2476 |
10 |
| ~1553 | ~2244 |
11 |
| ~1477 | ~1708 |
12 |
| ~1421 | ~2000 |
13 |
| ~1254 | ~2840 |
14 |
| ~1123 | ~2091 |
15 |
| ~943 | ~1194 |

(Nota: Nilai adalah anggaran berdasarkan ringkasan maklumat parameter daripada senarai butiran 50 model teratas yang ditanya sebelum ini.)
Pemerhatian Awal (Saiz Parameter Popular):
Model dalam skala 7B hingga 8B adalah arus perdana mutlak: "8.0B", "7.6B", "7.2B", "7B" menduduki sebahagian besar penggunaan. Ini biasanya sepadan dengan model yang sangat popular dalam komuniti, seperti siri Llama 2/3 7B/8B, Mistral 7B, dan pelbagai versi yang ditala halus. Mereka mencapai keseimbangan yang baik antara prestasi dan penggunaan sumber.
Model skala 4B juga memegang kedudukan penting: Penggunaan tinggi "4B" adalah penting.
Model ringan tahap juta-parameter (M) meluas: Kedudukan tinggi "134.52M" dan "137M" mungkin berkaitan dengan populariti model pembenaman (seperti
nomic-embed-text
) atau model khusus yang sangat kecil (seperti sirismollm
). Model-model ini kecil, pantas, dan sesuai untuk senario yang terhad sumber atau sensitif latensi.Permintaan stabil untuk model kecil dalam julat 1B-4B: Model dengan saiz parameter seperti "1.5B", "1.8B", "3.2B", "4.3B" juga digemari oleh sebahagian pengguna.
Model besar melebihi 10B: Seperti "13B", "12.2B", "32.8B", "14.8B", walaupun tidak mempunyai sebanyak penggunaan IP unik seperti tahap 7-8B, masih mempunyai jumlah penggunaan yang besar, menunjukkan permintaan komuniti untuk model yang lebih berkebolehan, walaupun keperluan perkakasan mereka lebih tinggi.
6.5 Statistik Tahap Kuantisasi Teratas
Tahap kuantisasi model (medan details.quantization_level
) mencerminkan ketepatan berat yang diguna pakai oleh model untuk mengurangkan saiz dan mempercepatkan inferens. Di bawah adalah tahap kuantisasi dengan bilangan penggunaan yang lebih tinggi:
Pangkat | Tahap Kuantisasi (Rentetan Asal) | Penggunaan IP Unik (Anggaran) | Jumlah Instans Penggunaan (Anggaran) |
---|---|---|---|
1 |
| ~20966 | ~53688 |
2 |
| ~18385 | ~88653 |
3 |
| ~9860 | ~21028 |
4 |
| ~5793 | ~9837 |
5 |
| ~596 | ~1574 |
6 |
| ~266 | ~1318 |
7 |
| ~97 | ~283 |
8 |
| ~85 | ~100 |
9 |
| ~60 | ~178 |
10 |
| ~54 | ~140 |

(Nota: Nilai adalah anggaran berdasarkan ringkasan maklumat kuantisasi daripada senarai butiran 50 model teratas yang ditanya sebelum ini.)
Pemerhatian Awal (Tahap Kuantisasi Popular):
Kuantisasi 4-bit adalah penyelesaian dominan:
Q4_K_M
,Q4_0
, danQ4_K_S
, ketiga-tiga tahap kuantisasi 4-bit ini, mendahului carta secara mutlak. Ini jelas menunjukkan bahawa komuniti secara meluas menggunakan kuantisasi 4-bit sebagai penyelesaian pilihan untuk mencapai keseimbangan terbaik antara prestasi model, kelajuan inferens, dan penggunaan sumber (terutamanya VRAM).F16
(titik apungan 16-bit) masih memegang tempat yang penting: Sebagai versi yang tidak terkuantisasi (atau hanya terkuantisasi secara asas), penggunaan tinggiF16
menunjukkan bahawa sebilangan besar pengguna memilihnya untuk mengejar kesetiaan model tertinggi atau kerana mereka mempunyai sumber perkakasan yang mencukupi.Q8_0
(kuantisasi 8-bit) sebagai tambahan: Menyediakan pilihan antara 4-bit danF16
.Kemunculan nilai
unknown
: Menunjukkan bahawa maklumat tahap kuantisasi hilang atau tidak standard dalam beberapa metadata model.
6.6 Taburan Kuasa Pengkomputeran AI (mengikut Saiz Parameter Model): China lwn. AS
Untuk mendapatkan pemahaman yang lebih mendalam tentang bagaimana model berskala berbeza digunakan di negara-negara utama, kami mengkategorikan dan mengira saiz parameter model yang digunakan pada instans Ollama di Amerika Syarikat dan China. Saiz parameter sering dianggap sebagai penunjuk penting kerumitan model dan potensi permintaan kuasa pengkomputeran AI.
Standard Klasifikasi Skala Parameter:
Kecil: < 1 Bilion parameter (< 1B)
Sederhana: 1 Bilion hingga < 10 Bilion parameter (1B hingga < 10B)
Besar: 10 Bilion hingga < 50 Bilion parameter (10B hingga < 50B)
Sangat Besar: >= 50 Bilion parameter (>= 50B)
Jadual di bawah menunjukkan bilangan IP unik yang menggunakan model berskala parameter berbeza di AS dan China:
Negara | Kategori Skala Parameter | Bilangan IP Unik |
---|---|---|
China | Kecil (<1B) | 3313 |
China | Sederhana (1B hingga <10B) | 4481 |
China | Besar (10B hingga <50B) | 1548 |
China | Sangat Besar (>=50B) | 280 |
Amerika Syarikat | Kecil (<1B) | 1368 |
Amerika Syarikat | Sederhana (1B hingga <10B) | 6495 |
Amerika Syarikat | Besar (10B hingga <50B) | 1301 |
Amerika Syarikat | Sangat Besar (>=50B) | 58 |
--China-vs-USA.jpeg)
Wawasan dan Analisis Data:
Model bersaiz sederhana adalah arus perdana, tetapi dengan fokus yang berbeza:
Amerika Syarikat: Penggunaan model bersaiz sederhana (1B-10B) adalah dominan secara mutlak di AS (6495 IP unik).
China: Model bersaiz sederhana (4481 IP unik) juga merupakan jenis yang paling banyak digunakan di China, tetapi penggunaan model kecil (<1B) di China (3313 IP unik) sangat besar.
Perbezaan ketara dalam model kecil: Penggunaan model kecil secara besar-besaran di China mungkin mencerminkan keutamaan untuk pengkomputeran pinggir, aplikasi AI mudah alih, dan senario serupa.
Penggunaan model besar dan sangat besar: China menunjukkan aktiviti yang lebih tinggi dalam meneroka model besar dan sangat besar (walaupun dari pangkalan yang lebih kecil).
Implikasi terhadap pelaburan kuasa pengkomputeran keseluruhan: Pangkalan AS dalam model bersaiz sederhana menunjukkan kelaziman aplikasi AI praktikal. China mempunyai kelebihan dalam model kecil dan secara aktif meneroka model besar.
Implikasi untuk trend global: Model bersaiz sederhana mungkin popular di peringkat global. Rantau yang berbeza mungkin mempunyai strategi penggunaan model yang berbeza-beza berdasarkan ekosistem dan keadaan sumber mereka.
Dengan mensegmentasikan skala parameter model di China dan AS, kita dapat melihat fokus dan potensi pembangunan aplikasi Ollama yang berbeza di kedua-dua negara.
7. Wawasan Rangkaian
7.1 Penggunaan Port
11434
(port lalai): Sebahagian besar (30,722 IP unik) instans Ollama berjalan pada port lalai11434
.Port biasa lain: Port seperti
80
(1,619 IP unik),8080
(1,571 IP unik),443
(1,339 IP unik), dsb., juga digunakan, yang mungkin menunjukkan bahawa beberapa instans digunakan di belakang proksi terbalik atau pengguna telah menyesuaikan port.
7.2 Penggunaan Protokol
HTTP: Kira-kira 65,506 IP unik mempunyai instans yang menyediakan perkhidmatan melalui protokol HTTP.
HTTPS: Kira-kira 43,765 IP unik mempunyai instans yang menyediakan perkhidmatan melalui protokol HTTPS.
Kebanyakan instans masih terdedah melalui HTTP yang tidak disulitkan, yang boleh menimbulkan risiko keselamatan tertentu. (Sila ambil perhatian: Satu IP mungkin menyokong kedua-dua HTTP dan HTTPS, jadi jumlah kiraan IP di sini mungkin melebihi jumlah IP unik)
7.3 Penyedia Hos Utama (Organisasi AS)
Pengehosan instans Ollama sangat tertumpu di kalangan penyedia perkhidmatan awan.
Pangkat | Organisasi AS | Bilangan IP Unik | Penyedia Utama Berkaitan |
---|---|---|---|
1 | AMAZON-02 | 53658 | AWS |
2 | AMAZON-AES | 5539 | AWS |
3 | Chinanet | 4964 | China Telecom |
4 | Hangzhou Alibaba Advertising Co.,Ltd. | 2647 | Alibaba Cloud |
5 | HENGTONG-IDC-LLC | 2391 | Penyedia Hos |
6 | Shenzhen Tencent Computer Systems Company Limited | 1682 | Tencent Cloud |
7 | CHINA UNICOM China169 Backbone | 1606 | China Unicom |
8 | Hetzner Online GmbH | 972 | Hetzner |
9 | China Unicom Beijing Province Network | 746 | China Unicom (Beijing) |
10 | LEASEWEB-USA-LAX | 735 | Leaseweb |

AWS (AMAZON-02, AMAZON-AES) memegang bahagian terbesar, diikuti oleh pengendali telekomunikasi utama China dan penyedia perkhidmatan awan (seperti Alibaba Cloud, Tencent Cloud). Penyedia hos lain seperti Hetzner dan Leaseweb juga mempunyai bahagian yang signifikan.
8. Keselamatan dan Pemerhatian Lain
Maklumat Versi: Atas sebab keselamatan, kami tidak menyenaraikan statistik mengenai versi Ollama.
Risiko Pendedahan HTTP: Seperti yang dinyatakan sebelum ini, sebilangan besar instans Ollama terdedah melalui HTTP tanpa penyulitan TLS, yang boleh menjadikan kandungan komunikasi (cth., interaksi dengan model) terdedah kepada pengintipan atau pengubahan. Pengguna dinasihatkan untuk mengkonfigurasi proksi terbalik dan mendayakan HTTPS.
Kebolehcapaian API: Data dalam laporan ini berdasarkan instans Ollama yang antara muka
/api/tags
nya boleh diakses secara umum. Bilangan penggunaan sebenar mungkin lebih tinggi, tetapi beberapa instans mungkin digunakan dalam rangkaian peribadi atau akses luaran dihadkan oleh tembok api.
9. Kesimpulan dan Ulasan Ringkas
Laporan ini, dengan menganalisis data daripada 99,412 instans Ollama yang boleh diakses secara umum di seluruh dunia (melalui antara muka /api/tags
mereka), membuat kesimpulan dan pemerhatian utama berikut:
1. Gambaran Keseluruhan Penggunaan Global dan Taburan Geografi:
Ollama, sebagai alat yang mudah untuk menjalankan model besar secara tempatan, telah digunakan secara meluas di seluruh dunia. Analisis ini mengenal pasti 99,412 IP unik yang boleh diakses secara umum.
Kepekatan Geografi Tinggi: Amerika Syarikat dan China adalah dua negara/rantau dengan penggunaan Ollama yang paling tertumpu, secara kolektif menyumbang sebahagian besar daripada jumlah instans yang boleh diakses (AS 29,195, China 16,464). Negara-negara seperti Jepun, Jerman, UK, India dan Singapura juga mempunyai bilangan penggunaan yang ketara.
Titik Panas Bandar: Di AS, bandar-bandar seperti Ashburn, Portland dan Columbus mendahului dalam penggunaan; di China, bandar-bandar maju teknologi seperti Beijing, Hangzhou, Shanghai dan Guangzhou adalah lokasi penggunaan utama. Ini sering berkaitan dengan penumpuan syarikat teknologi, pusat data dan komuniti pembangun.
2. Trend Penggunaan Model AI:
Tag Model Popular: Tag terkini umum seperti
llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
adalah yang paling popular. Versi yang dioptimumkan secara khusus sepertillama3:8b-text-q4_K_S
juga digemari kerana keseimbangan yang baik.Keluarga Model Dominan: Keluarga
llama
mendahului dengan margin mutlak, diikuti olehqwen2
. Kedudukan tinggi keluarga model pembenaman sepertinomic-bert
danbert
adalah penting, mungkin berkaitan dengan tingkah laku lalai Ollama.Keutamaan Saiz Parameter: Model dengan parameter 7B-8B kini menjadi arus perdana. Model ringan pada tahap juta-parameter dan model besar melebihi 10B juga mempunyai pasaran masing-masing. Perbandingan AS-China menunjukkan AS menggunakan lebih banyak model bersaiz sederhana, manakala China lebih aktif dalam meneroka model kecil dan sangat besar.
Pilihan Tahap Kuantisasi: Kuantisasi 4-bit (terutamanya
Q4_K_M
danQ4_0
) adalah pilihan yang sangat dominan.F16
, sebagai pilihan kesetiaan yang lebih tinggi, juga memegang kedudukan penting.Kerumitan Metadata: Analisis metadata model (cth., mentafsir medan keluarga model) kadangkala mendedahkan kerumitan antara rekodnya dan nama model atau pemahaman umum, menonjolkan kepelbagaian pengurusan metadata dalam ekosistem sumber terbuka.
3. Infrastruktur Teknikal:
Persekitaran Pengehosan: Sebilangan besar instans Ollama dihoskan pada penyedia perkhidmatan awan utama seperti AWS, Alibaba Cloud, Tencent Cloud, serta dalam rangkaian pengendali telekomunikasi utama negara.
Port Perkhidmatan: Port lalai Ollama
11434
adalah yang paling biasa digunakan, tetapi sebilangan besar instans juga terdedah melalui port web standard.
4. Penilaian Objektif:
Populariti Ollama: Data jelas menunjukkan kadar penggunaan Ollama yang tinggi di kalangan pembangun dan peminat AI di seluruh dunia.
Kegetaran Ekosistem Sumber Terbuka: Kepelbagaian model popular dan penggunaan meluas pelbagai versi parameter dan kuantisasi mencerminkan perkembangan pesat ekosistem model AI sumber terbuka.
Keseimbangan dalam Keutamaan Pengguna: Apabila memilih model, pengguna cenderung mencari keseimbangan antara keupayaan model, kecekapan operasi dan kos perkakasan.
Keselamatan dan Keterbukaan: Sebilangan besar instans membenarkan akses awam ke senarai model mereka, yang, walaupun mudah untuk komuniti, mungkin juga menimbulkan risiko keselamatan.
5. Tinjauan Masa Depan:
Dengan kemunculan model yang lebih cekap dan lebih kecil serta kemajuan lanjut dalam teknologi kuantisasi, halangan penggunaan untuk Ollama dijangka akan terus berkurangan.
Penyeragaman metadata model dan model kongsi komuniti adalah penting untuk meningkatkan ketelusan dan kebolehgunaan ekosistem.
Ringkasnya, Ollama menjadi jambatan penting yang menghubungkan model bahasa besar yang canggih dengan pelbagai pembangun, penyelidik, dan juga pengguna umum. Analisis data ini memberikan wawasan berharga untuk memahami status penggunaan global semasa dan keutamaan pengguna.
Komen
comments.comments (0)
Please login first
Sign in