
มุมมองใหม่ต่อการแข่งขันด้าน AI ระหว่างสหรัฐฯ และจีน: การเปรียบเทียบการใช้งาน Ollama ในปี 2025 และข้อมูลเชิงลึกเกี่ยวกับแนวโน้มโมเดล AI ทั่วโลก
Ollama เป็นเครื่องมือโอเพนซอร์สยอดนิยมที่ออกแบบมาเพื่อลดความซับซ้อนของกระบวนการเรียกใช้ สร้าง และแบ่งปันโมเดลภาษาขนาดใหญ่ (LLM) ภายในเครื่อง โดยจะรวมน้ำหนักโมเดล การกำหนดค่า และข้อมูลไว้ในแพ็คเกจที่กำหนดโดย Modelfile และมี API สำหรับการโต้ตอบกับโมเดลเหล่านี้ ซึ่งช่วยให้นักพัฒนาและนักวิจัยสามารถปรับใช้และทดลองกับโมเดล AI ขั้นสูงต่างๆ บนคอมพิวเตอร์ส่วนบุคคลหรือเซิร์ฟเวอร์ได้อย่างง่ายดาย
1. บทนำ
Ollama เป็นเครื่องมือโอเพนซอร์สยอดนิยมที่ออกแบบมาเพื่อลดความซับซ้อนของกระบวนการเรียกใช้ สร้าง และแบ่งปันโมเดลภาษาขนาดใหญ่ (LLM) ภายในเครื่อง โดยจะรวมน้ำหนักโมเดล การกำหนดค่า และข้อมูลไว้ในแพ็คเกจที่กำหนดโดย Modelfile และมี API สำหรับการโต้ตอบกับโมเดลเหล่านี้ ซึ่งช่วยให้นักพัฒนาและนักวิจัยสามารถปรับใช้และทดลองกับโมเดล AI ขั้นสูงต่างๆ บนคอมพิวเตอร์ส่วนบุคคลหรือเซิร์ฟเวอร์ได้อย่างง่ายดาย
รายงานนี้มีวัตถุประสงค์เพื่อเปิดเผยแนวโน้มการปรับใช้ ความพึงพอใจในโมเดล การกระจายทางภูมิศาสตร์ และลักษณะเครือข่าย โดยการวิเคราะห์ข้อมูลจากอินสแตนซ์ Ollama จำนวน 174,590 รายการที่ปรับใช้ทั่วโลก
หมายเหตุ: สถิติข้อมูลในบทที่ 5 และบทที่ 7 มาจากอินสแตนซ์ทั้งหมด 174,590 รายการ ข้อมูลในบทที่ 6 มาจากอินสแตนซ์ที่เข้าถึงได้ ด้วยเหตุผลด้านความปลอดภัย เราไม่ได้ระบุสถิติเกี่ยวกับเวอร์ชันของ Ollama
ข้อมูล ณ วันที่: 24 เมษายน 2025
แหล่งที่มาของรายงาน: Tenthe AI https://tenthe.com
ผู้เขียน: Ryan
2. บทสรุปสำหรับผู้บริหาร
รายงานนี้อ้างอิงจากการวิเคราะห์ข้อมูลการสแกนและการตรวจสอบ API ของอินสแตนซ์ Ollama ที่เปิดเผยต่อสาธารณะทั่วโลก ข้อค้นพบที่สำคัญ ได้แก่:
ทั่วโลก จากบันทึกประมาณ 174,590 รายการที่ระบุในเบื้องต้นผ่าน Fofa (IP ที่ไม่ซ้ำกัน 99,412 รายการ) อินสแตนซ์ Ollama จำนวน 41,021 รายการที่มี API ที่เข้าถึงได้ ได้รับการตรวจสอบสำเร็จ กระจายอยู่บนที่อยู่ IP ที่ไม่ซ้ำกัน 24,038 รายการ (อัตราการเข้าถึงประมาณ 24.18%)
ในทางภูมิศาสตร์ สหรัฐอเมริกาและจีนเป็นประเทศที่มีการใช้งาน Ollama มากที่สุด ผู้ให้บริการคลาวด์ โดยเฉพาะ AWS, Alibaba Cloud และ Tencent Cloud เป็นโฮสต์หลักสำหรับอินสแตนซ์ Ollama
การปรับใช้โมเดลแสดงให้เห็นถึงความหลากหลาย โดยโมเดลซีรีส์
llama3
,deepseek-r1
,mistral
และqwen
ได้รับความนิยมอย่างกว้างขวาง ในจำนวนนี้llama3:latest
และdeepseek-r1:latest
เป็นแท็กโมเดลสองแบบที่มีการปรับใช้กันอย่างแพร่หลายมากที่สุดโมเดลที่มีพารามิเตอร์ 7B-8B เป็นตัวเลือกอันดับต้น ๆ สำหรับผู้ใช้ ในขณะที่โมเดลที่ผ่านการควอนไทซ์แบบ 4 บิต เช่น Q4_K_M และ Q4_0 ได้รับการนำไปใช้อย่างกว้างขวางเนื่องจากความสมดุลที่ดีระหว่างประสิทธิภาพและการใช้ทรัพยากร
พอร์ตเริ่มต้น
11434
เป็นพอร์ตที่ใช้บ่อยที่สุด และอินสแตนซ์ส่วนใหญ่เปิดเผยบริการผ่านโปรโตคอล HTTP
3. แหล่งข้อมูลและระเบียบวิธีวิจัย
ข้อมูลสำหรับรายงานนี้ส่วนใหญ่มาจากสองขั้นตอน:
การสแกนเบื้องต้น: การใช้เครื่องมือค้นหาพื้นที่เครือข่าย เช่น Fofa ด้วยเงื่อนไข
app="Ollama" && is_domain=false
เพื่อระบุอินสแตนซ์ Ollama ที่อาจมีการปรับใช้ทั่วโลกในเบื้องต้น ขั้นตอนนี้พบ 174,590 รายการ ซึ่งเกี่ยวข้องกับ IP ที่ไม่ซ้ำกัน 99,412 รายการหลังจากการขจัดข้อมูลซ้ำซ้อนการตรวจสอบ API และการเพิ่มคุณค่าข้อมูล: การตรวจสอบปลายทาง API
ip:port/api/tags
สำหรับที่อยู่ IP ที่สแกนในเบื้องต้นเพื่อยืนยันความสามารถในการเข้าถึงบริการ Ollama และรับข้อมูลเกี่ยวกับโมเดล AI เฉพาะที่ปรับใช้ ขั้นตอนนี้ยืนยันอินสแตนซ์ Ollama ที่ตอบสนองสำเร็จจำนวน 41,021 รายการ (จาก IP ที่ไม่ซ้ำกัน 24,038 รายการ โดยข้อมูลถูกจัดเก็บไว้ในตารางollama
)ข้อมูลสุดท้ายถูกจัดเก็บไว้ในตาราง
ollama
การวิเคราะห์ในรายงานนี้อ้างอิงข้อมูลจากตาราง ollama
เป็นหลัก ซึ่งมีบันทึกของ API ที่ตรวจสอบสำเร็จและข้อมูลโดยละเอียด รวมถึง IP, พอร์ต, ที่ตั้งทางภูมิศาสตร์ และการตอบสนอง JSON (ที่มีรายการโมเดล) เป็นต้น
4. สถิติการใช้งานโดยรวม
จำนวนบันทึกเริ่มต้นจากการสแกน Fofa: 174,590
จำนวน IP ที่ไม่ซ้ำกันจากการสแกน Fofa เบื้องต้น: 99,412
จำนวนอินสแตนซ์ Ollama ที่เข้าถึง
/api/tags
สำเร็จ: 41,021 (จากบันทึกที่status = 'success'
ในตารางollama
)จำนวนที่อยู่ IP ที่ไม่ซ้ำกันที่สอดคล้องกัน: 24,038 (จากบันทึกที่
status = 'success'
ในตารางollama
)อัตราส่วนของ IP ที่เข้าถึงได้ต่อ IP ที่ระบุในเบื้องต้น: (24038 / 99412) * 100% ≈ 24.18%
สิ่งนี้บ่งชี้ว่าในบรรดาอินสแตนซ์ Ollama ทั้งหมดที่ระบุผ่าน Fofa ประมาณหนึ่งในสี่มีอินเทอร์เฟซ /api/tags
ที่เข้าถึงได้แบบสาธารณะ ซึ่งช่วยให้เราสามารถดึงข้อมูลเกี่ยวกับโมเดลที่ปรับใช้ได้
5. การวิเคราะห์การกระจายทางภูมิศาสตร์
5.1 20 อันดับประเทศ/ภูมิภาคที่มีการใช้งานสูงสุด
ตารางด้านล่างแสดง 20 อันดับประเทศ/ภูมิภาคที่จัดอันดับตามจำนวน IP ที่ไม่ซ้ำกันซึ่งมีอินสแตนซ์ Ollama
อันดับ | ประเทศ/ภูมิภาค | จำนวน IP ที่ไม่ซ้ำกัน |
---|---|---|
1 | สหรัฐอเมริกา | 29195 |
2 | จีน | 16464 |
3 | ญี่ปุ่น | 5849 |
4 | เยอรมนี | 5438 |
5 | สหราชอาณาจักร | 4014 |
6 | อินเดีย | 3939 |
7 | สิงคโปร์ | 3914 |
8 | เกาหลีใต้ | 3773 |
9 | ไอร์แลนด์ | 3636 |
10 | ฝรั่งเศส | 3599 |
11 | ออสเตรเลีย | 3558 |
12 | บราซิล | 2909 |
13 | แคนาดา | 2763 |
14 | แอฟริกาใต้ | 2742 |
15 | สวีเดน | 2113 |
16 | ฮ่องกง เขตบริหารพิเศษของจีน | 1277 |
17 | อิสราเอล | 675 |
18 | ไต้หวัน, จีน | 513 |
19 | รัสเซีย | 475 |
20 | ฟินแลนด์ | 308 |

5.2 20 อันดับเมืองทั่วโลกที่มีการใช้งานสูงสุด
ตารางด้านล่างแสดง 20 อันดับเมืองทั่วโลกที่จัดอันดับตามจำนวน IP ที่ไม่ซ้ำกันซึ่งมีอินสแตนซ์ Ollama
อันดับ | เมือง | ประเทศ/ภูมิภาค | จำนวน IP ที่ไม่ซ้ำกัน |
---|---|---|---|
1 | แอชเบิร์น | สหรัฐอเมริกา | 5808 |
2 | พอร์ตแลนด์ | สหรัฐอเมริกา | 5130 |
3 | สิงคโปร์ | สิงคโปร์ | 3914 |
4 | แฟรงก์เฟิร์ต อัม ไมน์ | เยอรมนี | 3908 |
5 | ปักกิ่ง | จีน | 3906 |
6 | ลอนดอน | สหราชอาณาจักร | 3685 |
7 | โคลัมบัส | สหรัฐอเมริกา | 3672 |
8 | มุมไบ | อินเดีย | 3637 |
9 | ดับลิน | ไอร์แลนด์ | 3631 |
10 | โตเกียว | ญี่ปุ่น | 3620 |
11 | ซิดนีย์ | ออสเตรเลีย | 3487 |
12 | ปารีส | ฝรั่งเศส | 3175 |
13 | ซานโฮเซ | สหรัฐอเมริกา | 2815 |
14 | เซาเปาลู | บราซิล | 2753 |
15 | เคปทาวน์ | แอฟริกาใต้ | 2692 |
16 | มอนทรีออล | แคนาดา | 2535 |
17 | ซีแอตเทิล | สหรัฐอเมริกา | 2534 |
18 | หางโจว | จีน | 2447 |
19 | โซล | เกาหลีใต้ | 2327 |
20 | โอซาก้า | ญี่ปุ่น | 2184 |
5.3 10 อันดับเมืองในสหรัฐอเมริกาที่มีการกระจายการใช้งานสูงสุด
อันดับ | เมือง | จำนวน IP ที่ไม่ซ้ำกัน |
---|---|---|
1 | แอชเบิร์น | 5808 |
2 | พอร์ตแลนด์ | 5130 |
3 | โคลัมบัส | 3672 |
4 | ซานโฮเซ | 2815 |
5 | ซีแอตเทิล | 2534 |
6 | เวสต์เลควิลเลจ | 1714 |
7 | บอร์ดแมน | 855 |
8 | ฟลอเรนซ์ | 776 |
9 | ซานฟรานซิสโก | 753 |
10 | โบลเดอร์ | 642 |

5.4 10 อันดับเมืองในจีนแผ่นดินใหญ่ที่มีการกระจายการใช้งานสูงสุด
การใช้งานในฮ่องกงและไต้หวันไม่ได้แสดงอยู่ในตาราง 10 อันดับเมือง เนื่องจากได้รวมอยู่ในสถิติประเทศ/ภูมิภาคแล้ว
อันดับ | เมือง | ประเทศ ( | จำนวน IP ที่ไม่ซ้ำกัน |
---|---|---|---|
1 | ปักกิ่ง | จีน | 3906 |
2 | หางโจว | จีน | 2447 |
3 | เซี่ยงไฮ้ | จีน | 1335 |
4 | กว่างโจว | จีน | 1296 |
5 | เซินเจิ้น | จีน | 768 |
6 | เฉิงตู | จีน | 469 |
7 | หนานจิง | จีน | 329 |
8 | ฉงชิ่ง | จีน | 259 |
9 | ซูโจว | จีน | 257 |
10 | อู่ฮั่น | จีน | 249 |

5.5 การเปรียบเทียบการใช้งานใน 10 อันดับเมืองระหว่างสหรัฐฯ และจีน
เพื่อให้สามารถเปรียบเทียบการใช้งาน Ollama ในระดับเมืองระหว่างสหรัฐฯ และจีนได้อย่างเป็นรูปธรรมยิ่งขึ้น ตารางด้านล่างนี้จะแสดงจำนวนการใช้งาน IP ที่ไม่ซ้ำกันสำหรับ 10 อันดับเมืองแรกในทั้งสองประเทศเคียงข้างกัน:
อันดับ | เมืองในสหรัฐฯ (10 อันดับแรก) | จำนวน IP ที่ไม่ซ้ำกันในสหรัฐฯ | เมืองในจีน (10 อันดับแรก) | จำนวน IP ที่ไม่ซ้ำกันในจีน |
---|---|---|---|---|
1 | แอชเบิร์น | 5808 | ปักกิ่ง | 3906 |
2 | พอร์ตแลนด์ | 5130 | หางโจว | 2447 |
3 | โคลัมบัส | 3672 | เซี่ยงไฮ้ | 1335 |
4 | ซานโฮเซ | 2815 | กว่างโจว | 1296 |
5 | ซีแอตเทิล | 2534 | เซินเจิ้น | 768 |
6 | เวสต์เลควิลเลจ | 1714 | เฉิงตู | 469 |
7 | บอร์ดแมน | 855 | หนานจิง | 329 |
8 | ฟลอเรนซ์ | 776 | ฉงชิ่ง | 259 |
9 | ซานฟรานซิสโก | 753 | ซูโจว | 257 |
10 | โบลเดอร์ | 642 | อู่ฮั่น | 249 |

บทวิจารณ์สั้น ๆ:
ปริมาณในเมืองชั้นนำ: 3 เมืองชั้นนำของสหรัฐฯ (แอชเบิร์น, พอร์ตแลนด์, โคลัมบัส) แต่ละเมืองมี IP ที่ไม่ซ้ำกันมากกว่า 3,000 รายการที่มีการใช้งาน Ollama เมืองชั้นนำของจีน (ปักกิ่ง) มีการใช้งานมากกว่า 3,000 รายการ และเมืองอันดับสอง (หางโจว) มีมากกว่า 2,000 รายการ
ศูนย์กลางเทคโนโลยีและเศรษฐกิจ: เมืองหลายแห่งที่ระบุไว้ในทั้งสองประเทศเป็นศูนย์กลางนวัตกรรมทางเทคโนโลยีที่มีชื่อเสียงหรือภูมิภาคเศรษฐกิจที่สำคัญ
ภูมิภาคศูนย์ข้อมูล: การรวมเมืองในสหรัฐฯ เช่น แอชเบิร์น ยังสะท้อนให้เห็นว่าอินสแตนซ์ Ollama อาจมีการปรับใช้ส่วนใหญ่ภายในเซิร์ฟเวอร์คลาวด์และศูนย์ข้อมูล
ความแตกต่างในการกระจาย: โดยรวมแล้ว จำนวน IP ทั้งหมดใน 10 อันดับเมืองของสหรัฐฯ สูงกว่าใน 10 อันดับเมืองของจีนอย่างมีนัยสำคัญ อย่างไรก็ตาม ทั้งสองประเทศแสดงรูปแบบที่เมืองหลักไม่กี่แห่งคิดเป็นสัดส่วนส่วนใหญ่ของการใช้งาน Ollama
การเปรียบเทียบระดับเมืองนี้ยังเผยให้เห็นอีกว่าการส่งเสริมและการประยุกต์ใช้ Ollama ในฐานะเครื่องมือสำหรับนักพัฒนา มีความเชื่อมโยงอย่างใกล้ชิดกับระบบนิเวศทางเทคโนโลยีระดับภูมิภาคและการพัฒนาอุตสาหกรรม
6. การวิเคราะห์โมเดล
6.1 ภาพรวมโดยย่อของโมเดล AI พารามิเตอร์ และการควอนไทซ์
Ollama รองรับโมเดลภาษาขนาดใหญ่โอเพนซอร์สที่หลากหลาย โมเดลเหล่านี้มักจะมีความแตกต่างกันตามคุณสมบัติดังต่อไปนี้:
6.1.1 ตระกูลโมเดลทั่วไป
ชุมชนโอเพนซอร์สในปัจจุบันได้เห็นการเพิ่มขึ้นของตระกูล LLM ที่ยอดเยี่ยมมากมาย ซึ่งแต่ละตระกูลก็มีลักษณะเฉพาะของตัวเอง:
ซีรีส์ Llama (Meta AI): เช่น Llama 2, Llama 3, Code Llama เป็นที่รู้จักในด้านความสามารถทั่วไปที่ทรงพลังและการสนับสนุนจากชุมชนอย่างกว้างขวาง ส่งผลให้มีเวอร์ชันที่ปรับแต่งอย่างละเอียดมากมาย โมเดลเช่น
llama3.1
,hermes3
ที่พบในข้อมูลของเรามักจะใช้สถาปัตยกรรม Llamaซีรีส์ Mistral (Mistral AI): เช่น Mistral 7B, Mixtral 8x7B ได้รับความสนใจในด้านประสิทธิภาพและสมรรถนะสูง โดยเฉพาะอย่างยิ่งโมเดล MoE (Mixture of Experts)
ซีรีส์ Gemma (Google): เช่น Gemma 2B, Gemma 7B โมเดลน้ำหนักเปิดที่เผยแพร่โดย Google พร้อมเทคโนโลยีที่ได้มาจากโมเดล Gemini ที่ทรงพลังกว่า
ซีรีส์ Phi (Microsoft): เช่น Phi-2, Phi-3 เน้นโมเดลขนาดเล็กแต่มีความสามารถสูง โดยเน้น "SLM (Small Language Models)"
ซีรีส์ DeepSeek (DeepSeek AI): เช่น DeepSeek Coder, DeepSeek LLM โมเดล AI ของจีนที่ยอดเยี่ยมในด้านการเขียนโค้ดและงานทั่วไป
ซีรีส์ Qwen (Alibaba Tongyi Qianwen): เช่น Qwen1.5 ซีรีส์โมเดลที่เปิดตัวโดย Alibaba DAMO Academy รองรับหลายภาษาและหลายงาน
ยังมีโมเดลที่ยอดเยี่ยมอื่นๆ อีกมากมาย เช่น Yi (01.AI), Command R (Cohere) เป็นต้น
Ollama ผ่านกลไก Modelfile
ช่วยให้ผู้ใช้สามารถใช้โมเดลพื้นฐานเหล่านี้หรือเวอร์ชันที่ปรับแต่งอย่างละเอียดได้อย่างง่ายดาย ชื่อโมเดลมักจะเป็นไปตามรูปแบบ ตระกูล:ขนาด-รูปแบบย่อย-การควอนไทซ์
ตัวอย่างเช่น llama3:8b-instruct-q4_K_M
6.1.2 พารามิเตอร์โมเดล (ขนาดพารามิเตอร์)
จำนวนพารามิเตอร์ของโมเดล (โดยปกติจะเป็นหน่วย B - พันล้าน หรือ M - ล้าน) เป็นตัวบ่งชี้ที่สำคัญของขนาดและความสามารถที่เป็นไปได้ของโมเดล ขนาดพารามิเตอร์ทั่วไป ได้แก่:
โมเดลขนาดเล็ก: < 7B (เช่น 1.5B, 2B, 3B) โดยปกติจะทำงานเร็วและใช้ทรัพยากรน้อย เหมาะสำหรับงานเฉพาะหรือสภาพแวดล้อมที่จำกัดทรัพยากร
โมเดลขนาดกลาง: 7B, 8B, 13B สร้างความสมดุลที่ดีระหว่างความสามารถและการใช้ทรัพยากร ปัจจุบันเป็นหนึ่งในขนาดที่ได้รับความนิยมมากที่สุดในชุมชน
โมเดลขนาดใหญ่: 30B, 33B, 40B, 70B+ โดยทั่วไปมีความสามารถมากกว่า แต่ก็ต้องการทรัพยากรการคำนวณที่มากขึ้น (RAM, VRAM) และเวลาในการอนุมานที่นานขึ้น
ฟิลด์ parameter_size
ในข้อมูลของเรา (เช่น "8.0B", "7B", "134.52M") บ่งชี้สิ่งนี้
6.1.3 เวอร์ชันการควอนไทซ์ (ระดับการควอนไทซ์)
การควอนไทซ์เป็นเทคนิคในการลดขนาดโมเดลและเร่งการอนุมานโดยการลดความแม่นยำของตัวเลขของน้ำหนักโมเดล (เช่น จากจุดลอยตัว 16 บิต FP16 เป็นจำนวนเต็ม 4 บิต INT4)
ระดับการควอนไทซ์ทั่วไป: Ollama และรูปแบบ GGUF (ใช้โดย Llama.cpp) รองรับกลยุทธ์การควอนไทซ์ต่างๆ เช่น
Q2_K
,Q3_K_S
,Q3_K_M
,Q3_K_L
,Q4_0
,Q4_K_M
,Q5_K_M
,Q6_K
,Q8_0
เป็นต้นตัวเลข (เช่น 2, 3, 4, 5, 6, 8) แสดงจำนวนบิตโดยประมาณ
การควอนไทซ์ซีรีส์
K
(เช่นQ4_K_M
) เป็นวิธีการควอนไทซ์ที่ได้รับการปรับปรุงซึ่งนำมาใช้ใน llama.cpp โดยทั่วไปจะให้ประสิทธิภาพที่ดีกว่าที่จำนวนบิตเท่ากัน_S
,_M
,_L
มักจะแสดงถึงรูปแบบย่อยต่างๆ ของ K-quants ซึ่งส่งผลต่อส่วนต่างๆ ของโมเดลF16
(FP16) แสดงถึงจุดลอยตัว 16 บิต ซึ่งมักจะถือว่าเป็นเวอร์ชันที่ไม่ผ่านการควอนไทซ์หรือเวอร์ชันการควอนไทซ์พื้นฐานF32
(FP32) คือความแม่นยำเต็มรูปแบบ
ข้อดีข้อเสีย: การควอนไทซ์ที่สูงขึ้น (จำนวนบิตน้อยลง) ส่งผลให้โมเดลมีขนาดเล็กลงและเร็วขึ้น แต่โดยปกติแล้วจะมาพร้อมกับการสูญเสียประสิทธิภาพบางส่วน (โมเดลทำงานได้แย่ลง) ผู้ใช้จำเป็นต้องเลือกตามฮาร์ดแวร์และข้อกำหนดด้านคุณภาพของโมเดล
ฟิลด์ quantization_level
ในข้อมูลของเรา (เช่น "Q4_K_M", "F16") บ่งชี้สิ่งนี้
6.2 ชื่อโมเดลยอดนิยมสูงสุด
ตารางด้านล่างแสดงแท็กโมเดล 10 อันดับแรกที่จัดอันดับตามจำนวนการใช้งาน IP ที่ไม่ซ้ำกัน รวมถึงข้อมูลตระกูล ขนาดพารามิเตอร์ และระดับการควอนไทซ์
อันดับ | ชื่อโมเดล (model_name) | การใช้งาน IP ที่ไม่ซ้ำกัน | จำนวนอินสแตนซ์การใช้งานทั้งหมด |
---|---|---|---|
1 |
| 12659 | 24628 |
2 |
| 12572 | 24578 |
3 |
| 11163 | 22638 |
4 |
| 9868 | 21007 |
5 |
| 9845 | 20980 |
6 |
| 4058 | 5016 |
7 |
| 3124 | 3928 |
8 |
| 2856 | 3372 |
9 |
| 2714 | 3321 |
10 |
| 2668 | 3391 |

(หมายเหตุ: การใช้งาน IP ที่ไม่ซ้ำกัน หมายถึงจำนวนที่อยู่ IP ที่ไม่ซ้ำกันซึ่งมีการปรับใช้แท็กโมเดลนี้อย่างน้อยหนึ่งอินสแตนซ์ จำนวนอินสแตนซ์การใช้งานทั้งหมด หมายถึงจำนวนครั้งทั้งหมดที่แท็กโมเดลนี้ปรากฏในรายการ models
ในทุก IP IP อาจชี้ไปที่แท็กโมเดลเดียวกันหลายครั้งผ่านวิธีการหรือบันทึกที่แตกต่างกัน หรือ IP อาจเรียกใช้อินสแตนซ์หลายรายการของแท็กที่แตกต่างกันซึ่งเป็นของโมเดลพื้นฐานเดียวกัน)
ข้อสังเกตเบื้องต้น (ชื่อโมเดลยอดนิยม):
โมเดลที่มีแท็ก
:latest
เป็นเรื่องปกติมาก เช่นllama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
สิ่งนี้บ่งชี้ว่าผู้ใช้จำนวนมากต้องการดึงเวอร์ชันล่าสุดของโมเดลโดยตรงโมเดลซีรีส์ Llama (เช่น
llama3:latest
,llama3:8b-text-q4_K_S
,llama2:latest
,llama3.1:8b
) ครองหลายตำแหน่ง แสดงให้เห็นถึงความนิยมอย่างมากโมเดล AI ของจีน เช่น
deepseek-r1:latest
(ซีรีส์ DeepSeek) และqwen:latest
(ซีรีส์ Tongyi Qianwen) ก็ทำผลงานได้อย่างน่าประทับใจเช่นกัน โดยอยู่ในอันดับสูงเวอร์ชันควอนไทซ์เฉพาะ เช่น
llama3:8b-text-q4_K_S
ก็ติดสิบอันดับแรกเช่นกัน ซึ่งบ่งชี้ถึงความพึงพอใจของผู้ใช้ในความสมดุลระหว่างประสิทธิภาพ/การใช้ทรัพยากรที่เฉพาะเจาะจงโมเดลขนาดเล็ก เช่น
smollm2:135m
และqwen2.5:1.5b
ก็มีการใช้งานจำนวนมากเช่นกัน ตอบสนองความต้องการโมเดลน้ำหนักเบา
6.3 ตระกูลโมเดลยอดนิยมสูงสุด
ตระกูลโมเดล (ฟิลด์ details.family
) แสดงถึงสถาปัตยกรรมพื้นฐานหรือสายเลือดทางเทคโนโลยีหลักของโมเดล ด้านล่างนี้คือตระกูลโมเดลที่มีจำนวนการใช้งานสูงกว่าตามการวิเคราะห์ข้อมูลของเรา:
อันดับ | ตระกูลโมเดล (family) | การใช้งาน IP ที่ไม่ซ้ำกัน (โดยประมาณ) | จำนวนอินสแตนซ์การใช้งานทั้งหมด (โดยประมาณ) |
---|---|---|---|
1 |
| ~20250 | ~103480 |
2 |
| ~17881 | ~61452 |
3 |
| ~1479 | ~1714 |
4 |
| ~1363 | ~2493 |
5 |
| ~1228 | ~2217 |
6 |
| ~943 | ~1455 |
7 |
| ~596 | ~750 |
8 |
| ~484 | ~761 |
9 |
| ~368 | ~732 |
10 |
| ~244 | ~680 |

(หมายเหตุ: ค่าเฉพาะที่นี่เป็นค่าโดยประมาณและสรุปตามรายการรายละเอียดโมเดล 50 อันดับแรกที่สอบถามก่อนหน้านี้ และอาจแตกต่างจากสถิติทั่วโลกที่แม่นยำเล็กน้อย แต่แนวโน้มนี้สามารถใช้เป็นตัวแทนได้)
ข้อสังเกตเบื้องต้น (ตระกูลโมเดลยอดนิยม):
ตระกูล
llama
ครองตำแหน่งที่โดดเด่นอย่างแท้จริง ซึ่งสอดคล้องกับโมเดลซีรีส์ Llama ที่เป็นรากฐานสำหรับ LLM โอเพนซอร์สสมัยใหม่จำนวนมากและการประยุกต์ใช้งานที่กว้างขวางของตนเอง ระบบนิเวศที่กว้างใหญ่และเวอร์ชันที่ปรับแต่งอย่างละเอียดจำนวนมากทำให้เป็นตัวเลือกที่ได้รับความนิยมมากที่สุดqwen2
(ซีรีส์ Tongyi Qianwen Qwen2) ในฐานะตระกูลที่ใหญ่เป็นอันดับสอง แสดงให้เห็นถึงความสามารถในการแข่งขันที่แข็งแกร่งในจีนและแม้กระทั่งทั่วโลกการปรากฏตัวของ
nomic-bert
และbert
เป็นสิ่งที่น่าสังเกต แม้ว่าโดยทั่วไปจะไม่ถือว่าเป็น "โมเดลภาษาขนาดใหญ่" (เชิงสนทนา) แต่เป็นโมเดลการฝังข้อความหรือโมเดลพื้นฐานการประมวลผลภาษาธรรมชาติอื่นๆ ปริมาณการใช้งานที่สูงแสดงให้เห็นว่า Ollama ก็ถูกนำมาใช้อย่างกว้างขวางสำหรับงานดังกล่าวเช่นกัน Ollama จะดาวน์โหลดโมเดลการฝังเริ่มต้นโดยอัตโนมัติ (เช่นnomic-embed-text
) เมื่อดำเนินการบางอย่าง (เช่น การสร้างเวกเตอร์การฝัง) ซึ่งน่าจะเป็นเหตุผลหลักที่ทำให้ตระกูลเหล่านี้อยู่ในอันดับสูงซีรีส์
gemma
ของ Google (รวมถึงgemma3
,gemma
,gemma2
) ก็แสดงอัตราการนำไปใช้ที่เหมาะสมเช่นกันตระกูลโมเดลที่เป็นที่รู้จักอื่นๆ เช่น
deepseek2
และphi3
ก็ติดสิบอันดับแรกเช่นกันmllama
อาจหมายถึงชุดของโมเดลไฮบริดที่ใช้ Llama ดัดแปลง หรือโมเดลที่ตั้งชื่อโดยชุมชน
6.4 สถิติขนาดพารามิเตอร์ดั้งเดิมยอดนิยมสูงสุด
ขนาดพารามิเตอร์ของโมเดล (ฟิลด์ details.parameter_size
) เป็นตัวบ่งชี้ที่สำคัญของขนาดโมเดล เนื่องจากการแสดงขนาดพารามิเตอร์ที่หลากหลายในข้อมูลดิบ (เช่น "8.0B", "7B", "134.52M") เราจึงนับสตริงดั้งเดิมเหล่านี้โดยตรง ด้านล่างนี้คือการแสดงขนาดพารามิเตอร์ที่มีจำนวนการใช้งานสูงกว่า:
อันดับ | ขนาดพารามิเตอร์ (สตริงดั้งเดิม) | การใช้งาน IP ที่ไม่ซ้ำกัน (โดยประมาณ) | จำนวนอินสแตนซ์การใช้งานทั้งหมด (โดยประมาณ) |
---|---|---|---|
1 |
| ~14480 | ~52577 |
2 |
| ~14358 | ~28105 |
3 |
| ~11233 | ~22907 |
4 |
| ~9895 | ~21058 |
5 |
| ~4943 | ~11738 |
6 |
| ~4062 | ~5266 |
7 |
| ~2759 | ~3596 |
8 |
| ~2477 | ~3311 |
9 |
| ~2034 | ~2476 |
10 |
| ~1553 | ~2244 |
11 |
| ~1477 | ~1708 |
12 |
| ~1421 | ~2000 |
13 |
| ~1254 | ~2840 |
14 |
| ~1123 | ~2091 |
15 |
| ~943 | ~1194 |

(หมายเหตุ: ค่าต่างๆ เป็นค่าโดยประมาณตามข้อมูลสรุปของพารามิเตอร์จากรายการรายละเอียดโมเดล 50 อันดับแรกที่สอบถามก่อนหน้านี้)
ข้อสังเกตเบื้องต้น (ขนาดพารามิเตอร์ยอดนิยม):
โมเดลขนาด 7B ถึง 8B เป็นกระแสหลักอย่างแท้จริง: "8.0B", "7.6B", "7.2B", "7B" ครองส่วนใหญ่ของการใช้งาน ซึ่งโดยทั่วไปสอดคล้องกับโมเดลที่ได้รับความนิยมอย่างมากในชุมชน เช่น ซีรีส์ Llama 2/3 7B/8B, Mistral 7B และเวอร์ชันที่ปรับแต่งอย่างละเอียดต่างๆ พวกเขาสร้างความสมดุลที่ดีระหว่างประสิทธิภาพและการใช้ทรัพยากร
โมเดลขนาด 4B ก็มีตำแหน่งที่สำคัญเช่นกัน: การใช้งาน "4B" ในระดับสูงเป็นสิ่งที่น่าสังเกต
โมเดลน้ำหนักเบาระดับล้านพารามิเตอร์ (M) แพร่หลาย: อันดับสูงของ "134.52M" และ "137M" น่าจะเกี่ยวข้องกับความนิยมของโมเดลการฝัง (เช่น
nomic-embed-text
) หรือโมเดลเฉพาะทางขนาดเล็กมาก (เช่น ซีรีส์smollm
) โมเดลเหล่านี้มีขนาดเล็ก รวดเร็ว และเหมาะสำหรับสถานการณ์ที่จำกัดทรัพยากรหรือไวต่อความหน่วงความต้องการที่มั่นคงสำหรับโมเดลขนาดเล็กในช่วง 1B-4B: โมเดลที่มีขนาดพารามิเตอร์ เช่น "1.5B", "1.8B", "3.2B", "4.3B" ก็เป็นที่ชื่นชอบของผู้ใช้ส่วนหนึ่งเช่นกัน
โมเดลขนาดใหญ่กว่า 10B: เช่น "13B", "12.2B", "32.8B", "14.8B" แม้ว่าจะไม่มีการใช้งาน IP ที่ไม่ซ้ำกันมากเท่าระดับ 7-8B แต่ก็ยังมีปริมาณการใช้งานจำนวนมาก ซึ่งบ่งชี้ถึงความต้องการของชุมชนสำหรับโมเดลที่มีความสามารถมากขึ้น แม้ว่าจะมีข้อกำหนดด้านฮาร์ดแวร์ที่สูงขึ้นก็ตาม
6.5 สถิติระดับการควอนไทซ์ยอดนิยมสูงสุด
ระดับการควอนไทซ์ของโมเดล (ฟิลด์ details.quantization_level
) สะท้อนถึงความแม่นยำของน้ำหนักที่โมเดลนำมาใช้เพื่อลดขนาดและเร่งการอนุมาน ด้านล่างนี้คือระดับการควอนไทซ์ที่มีจำนวนการใช้งานสูงกว่า:
อันดับ | ระดับการควอนไทซ์ (สตริงดั้งเดิม) | การใช้งาน IP ที่ไม่ซ้ำกัน (โดยประมาณ) | จำนวนอินสแตนซ์การใช้งานทั้งหมด (โดยประมาณ) |
---|---|---|---|
1 |
| ~20966 | ~53688 |
2 |
| ~18385 | ~88653 |
3 |
| ~9860 | ~21028 |
4 |
| ~5793 | ~9837 |
5 |
| ~596 | ~1574 |
6 |
| ~266 | ~1318 |
7 |
| ~97 | ~283 |
8 |
| ~85 | ~100 |
9 |
| ~60 | ~178 |
10 |
| ~54 | ~140 |

(หมายเหตุ: ค่าต่างๆ เป็นค่าโดยประมาณตามข้อมูลสรุปของข้อมูลการควอนไทซ์จากรายการรายละเอียดโมเดล 50 อันดับแรกที่สอบถามก่อนหน้านี้)
ข้อสังเกตเบื้องต้น (ระดับการควอนไทซ์ยอดนิยม):
การควอนไทซ์ 4 บิตเป็นโซลูชันที่โดดเด่น:
Q4_K_M
,Q4_0
และQ4_K_S
ซึ่งเป็นระดับการควอนไทซ์ 4 บิตทั้งสามนี้ ครองอันดับสูงสุดอย่างแน่นอน สิ่งนี้บ่งชี้อย่างชัดเจนว่าชุมชนนำการควอนไทซ์ 4 บิตมาใช้อย่างกว้างขวางเป็นโซลูชันที่ต้องการเพื่อให้ได้ความสมดุลที่ดีที่สุดระหว่างประสิทธิภาพของโมเดล ความเร็วในการอนุมาน และการใช้ทรัพยากร (โดยเฉพาะ VRAM)F16
(จุดลอยตัว 16 บิต) ยังคงมีบทบาทสำคัญ: ในฐานะเวอร์ชันที่ไม่ผ่านการควอนไทซ์ (หรือผ่านการควอนไทซ์เพียงเล็กน้อย) การใช้งานF16
ในระดับสูงแสดงให้เห็นว่าผู้ใช้จำนวนมากเลือกใช้เพื่อ追求ความเที่ยงตรงของโมเดลสูงสุด หรือเพราะพวกเขามีทรัพยากรฮาร์ดแวร์เพียงพอQ8_0
(การควอนไทซ์ 8 บิต) เป็นส่วนเสริม: ให้ตัวเลือกระหว่าง 4 บิตและF16
การปรากฏของค่า
unknown
: บ่งชี้ว่าข้อมูลระดับการควอนไทซ์หายไปหรือไม่เป็นมาตรฐานในเมทาดาทาของโมเดลบางตัว
6.6 การกระจายกำลังการประมวลผล AI (ตามขนาดพารามิเตอร์ของโมเดล): จีนเทียบกับสหรัฐอเมริกา
เพื่อให้เข้าใจลึกซึ้งยิ่งขึ้นว่าโมเดลขนาดต่างๆ ถูกนำไปใช้งานในประเทศหลักๆ อย่างไร เราได้จัดหมวดหมู่และนับขนาดพารามิเตอร์ของโมเดลที่ใช้งานบนอินสแตนซ์ Ollama ในสหรัฐอเมริกาและจีน ขนาดพารามิเตอร์มักถูกพิจารณาว่าเป็นตัวบ่งชี้ที่สำคัญของความซับซ้อนของโมเดลและความต้องการกำลังการประมวลผล AI ที่อาจเกิดขึ้น
มาตรฐานการจำแนกขนาดพารามิเตอร์:
เล็ก: < 1 พันล้านพารามิเตอร์ (< 1B)
กลาง: 1 พันล้าน ถึง < 10 พันล้านพารามิเตอร์ (1B ถึง < 10B)
ใหญ่: 10 พันล้าน ถึง < 50 พันล้านพารามิเตอร์ (10B ถึง < 50B)
ใหญ่พิเศษ: >= 50 พันล้านพารามิเตอร์ (>= 50B)
ตารางด้านล่างแสดงจำนวน IP ที่ไม่ซ้ำกันซึ่งใช้งานโมเดลขนาดพารามิเตอร์ต่างๆ ในสหรัฐอเมริกาและจีน:
ประเทศ | หมวดหมู่ขนาดพารามิเตอร์ | จำนวน IP ที่ไม่ซ้ำกัน |
---|---|---|
จีน | เล็ก (<1B) | 3313 |
จีน | กลาง (1B ถึง <10B) | 4481 |
จีน | ใหญ่ (10B ถึง <50B) | 1548 |
จีน | ใหญ่พิเศษ (>=50B) | 280 |
สหรัฐอเมริกา | เล็ก (<1B) | 1368 |
สหรัฐอเมริกา | กลาง (1B ถึง <10B) | 6495 |
สหรัฐอเมริกา | ใหญ่ (10B ถึง <50B) | 1301 |
สหรัฐอเมริกา | ใหญ่พิเศษ (>=50B) | 58 |
--China-vs-USA.jpeg)
ข้อมูลเชิงลึกและการวิเคราะห์:
โมเดลขนาดกลางเป็นกระแสหลัก แต่มีจุดเน้นที่แตกต่างกัน:
สหรัฐอเมริกา: การใช้งานโมเดลขนาดกลาง (1B-10B) ครองตลาดในสหรัฐอเมริกาอย่างเด็ดขาด (IP ที่ไม่ซ้ำกัน 6495 รายการ)
จีน: โมเดลขนาดกลาง (IP ที่ไม่ซ้ำกัน 4481 รายการ) ก็เป็นประเภทที่มีการใช้งานมากที่สุดในจีนเช่นกัน แต่การใช้งานโมเดลขนาดเล็ก (<1B) ในจีน (IP ที่ไม่ซ้ำกัน 3313 รายการ) ก็มีจำนวนมากเช่นกัน
ความแตกต่างอย่างมีนัยสำคัญในโมเดลขนาดเล็ก: การใช้งานโมเดลขนาดเล็กจำนวนมากในจีนอาจสะท้อนถึงความพึงพอใจในการประมวลผลแบบ Edge computing แอปพลิเคชัน AI บนมือถือ และสถานการณ์ที่คล้ายคลึงกัน
การใช้งานโมเดลขนาดใหญ่และใหญ่พิเศษ: จีนแสดงกิจกรรมที่สูงขึ้นในการสำรวจโมเดลขนาดใหญ่และใหญ่พิเศษ (แม้ว่าจะมาจากฐานที่เล็กกว่า)
การอนุมานเกี่ยวกับการลงทุนด้านกำลังการประมวลผลโดยรวม: ฐานของสหรัฐอเมริกาในโมเดลขนาดกลางแสดงให้เห็นถึงความแพร่หลายของการใช้งาน AI ในทางปฏิบัติ จีนมีความได้เปรียบในโมเดลขนาดเล็กและกำลังสำรวจโมเดลขนาดใหญ่อย่างแข็งขัน
ผลกระทบต่อแนวโน้มทั่วโลก: โมเดลขนาดกลางน่าจะเป็นที่นิยมทั่วโลก ภูมิภาคต่างๆ อาจมีกลยุทธ์การนำโมเดลไปใช้ที่แตกต่างกันไปตามระบบนิเวศและเงื่อนไขทรัพยากรของตน
โดยการแบ่งส่วนขนาดพารามิเตอร์ของโมเดลในจีนและสหรัฐอเมริกา เราสามารถเห็นจุดเน้นที่แตกต่างกันและศักยภาพในการพัฒนาของแอปพลิเคชัน Ollama ในทั้งสองประเทศ
7. ข้อมูลเชิงลึกเกี่ยวกับเครือข่าย
7.1 การใช้งานพอร์ต
11434
(พอร์ตเริ่มต้น): ส่วนใหญ่ (IP ที่ไม่ซ้ำกัน 30,722 รายการ) ของอินสแตนซ์ Ollama ทำงานบนพอร์ตเริ่มต้น11434
พอร์ตทั่วไปอื่นๆ: พอร์ตเช่น
80
(IP ที่ไม่ซ้ำกัน 1,619 รายการ),8080
(IP ที่ไม่ซ้ำกัน 1,571 รายการ),443
(IP ที่ไม่ซ้ำกัน 1,339 รายการ) เป็นต้น ก็มีการใช้งานเช่นกัน ซึ่งอาจบ่งชี้ว่าบางอินสแตนซ์ถูกปรับใช้หลังพร็อกซีย้อนกลับ หรือผู้ใช้ได้ปรับแต่งพอร์ต
7.2 การใช้งานโปรโตคอล
HTTP: IP ที่ไม่ซ้ำกันประมาณ 65,506 รายการมีอินสแตนซ์ที่ให้บริการผ่านโปรโตคอล HTTP
HTTPS: IP ที่ไม่ซ้ำกันประมาณ 43,765 รายการมีอินสแตนซ์ที่ให้บริการผ่านโปรโตคอล HTTPS
อินสแตนซ์ส่วนใหญ่ยังคงเปิดเผยผ่าน HTTP ที่ไม่ได้เข้ารหัส ซึ่งอาจก่อให้เกิดความเสี่ยงด้านความปลอดภัยบางประการ (โปรดทราบ: IP อาจรองรับทั้ง HTTP และ HTTPS ดังนั้นผลรวมของจำนวน IP ที่นี่อาจเกินจำนวน IP ที่ไม่ซ้ำกันทั้งหมด)
7.3 ผู้ให้บริการโฮสติ้งหลัก (องค์กร AS)
การโฮสต์อินสแตนซ์ Ollama มีความเข้มข้นสูงในกลุ่มผู้ให้บริการคลาวด์
อันดับ | องค์กร AS | จำนวน IP ที่ไม่ซ้ำกัน | ผู้ให้บริการหลักที่เกี่ยวข้อง |
---|---|---|---|
1 | AMAZON-02 | 53658 | AWS |
2 | AMAZON-AES | 5539 | AWS |
3 | Chinanet | 4964 | ไชน่า เทเลคอม |
4 | Hangzhou Alibaba Advertising Co.,Ltd. | 2647 | อาลีบาบา คลาวด์ |
5 | HENGTONG-IDC-LLC | 2391 | ผู้ให้บริการโฮสติ้ง |
6 | Shenzhen Tencent Computer Systems Company Limited | 1682 | เทนเซ็นต์ คลาวด์ |
7 | CHINA UNICOM China169 Backbone | 1606 | ไชน่า ยูนิคอม |
8 | Hetzner Online GmbH | 972 | Hetzner |
9 | China Unicom Beijing Province Network | 746 | ไชน่า ยูนิคอม (ปักกิ่ง) |
10 | LEASEWEB-USA-LAX | 735 | Leaseweb |

AWS (AMAZON-02, AMAZON-AES) ครองส่วนแบ่งตลาดที่ใหญ่ที่สุด ตามมาด้วยผู้ให้บริการโทรคมนาคมรายใหญ่ของจีนและผู้ให้บริการคลาวด์ (เช่น Alibaba Cloud, Tencent Cloud) ผู้ให้บริการโฮสติ้งรายอื่น เช่น Hetzner และ Leaseweb ก็มีส่วนแบ่งที่สำคัญเช่นกัน
8. ความปลอดภัยและข้อสังเกตอื่นๆ
ข้อมูลเวอร์ชัน: ด้วยเหตุผลด้านความปลอดภัย เราไม่ได้ระบุสถิติเกี่ยวกับเวอร์ชันของ Ollama
ความเสี่ยงจากการเปิดเผย HTTP: ดังที่ได้กล่าวไว้ก่อนหน้านี้ อินสแตนซ์ Ollama จำนวนมากถูกเปิดเผยผ่าน HTTP โดยไม่มีการเข้ารหัส TLS ซึ่งอาจทำให้เนื้อหาการสื่อสาร (เช่น การโต้ตอบกับโมเดล) เสี่ยงต่อการดักฟังหรือการแก้ไข ผู้ใช้ควรตั้งค่าพร็อกซีย้อนกลับและเปิดใช้งาน HTTPS
การเข้าถึง API: ข้อมูลในรายงานนี้อ้างอิงจากอินสแตนซ์ Ollama ที่อินเทอร์เฟซ
/api/tags
สามารถเข้าถึงได้แบบสาธารณะ จำนวนการใช้งานจริงอาจสูงกว่านี้ แต่บางอินสแตนซ์อาจถูกปรับใช้ในเครือข่ายส่วนตัวหรือมีการจำกัดการเข้าถึงจากภายนอกโดยไฟร์วอลล์
9. สรุปและบทวิจารณ์สั้นๆ
รายงานนี้ โดยการวิเคราะห์ข้อมูลจากอินสแตนซ์ Ollama ที่เข้าถึงได้แบบสาธารณะทั่วโลกจำนวน 99,412 รายการ (ผ่านอินเทอร์เฟซ /api/tags
ของพวกเขา) สรุปข้อค้นพบและข้อสังเกตหลักดังต่อไปนี้:
1. ภาพรวมการใช้งานทั่วโลกและการกระจายทางภูมิศาสตร์:
Ollama ในฐานะเครื่องมือที่สะดวกสำหรับการเรียกใช้โมเดลขนาดใหญ่ภายในเครื่อง ได้รับการปรับใช้อย่างกว้างขวางทั่วโลก การวิเคราะห์นี้ระบุ IP ที่ไม่ซ้ำกันที่เข้าถึงได้แบบสาธารณะจำนวน 99,412 รายการ
ความเข้มข้นทางภูมิศาสตร์สูง: สหรัฐอเมริกาและจีนเป็นสองประเทศ/ภูมิภาคที่มีการใช้งาน Ollama อย่างหนาแน่นที่สุด โดยรวมกันคิดเป็นสัดส่วนที่สำคัญของอินสแตนซ์ที่เข้าถึงได้ทั้งหมด (สหรัฐอเมริกา 29,195, จีน 16,464) ประเทศต่างๆ เช่น ญี่ปุ่น เยอรมนี สหราชอาณาจักร อินเดีย และสิงคโปร์ ก็มีจำนวนการใช้งานที่น่าสังเกตเช่นกัน
จุดความนิยมในเมือง: ในสหรัฐอเมริกา เมืองต่างๆ เช่น แอชเบิร์น พอร์ตแลนด์ และโคลัมบัส เป็นผู้นำในการใช้งาน ในจีน เมืองที่มีความก้าวหน้าทางเทคโนโลยี เช่น ปักกิ่ง หางโจว เซี่ยงไฮ้ และกว่างโจว เป็นสถานที่ใช้งานหลัก ซึ่งมักเกี่ยวข้องกับการกระจุกตัวของบริษัทเทคโนโลยี ศูนย์ข้อมูล และชุมชนนักพัฒนา
2. แนวโน้มการใช้งานโมเดล AI:
แท็กโมเดลยอดนิยม: แท็กล่าสุดทั่วไป เช่น
llama3:latest
,deepseek-r1:latest
,mistral:latest
,qwen:latest
เป็นที่นิยมมากที่สุด เวอร์ชันที่ปรับให้เหมาะสมโดยเฉพาะ เช่นllama3:8b-text-q4_K_S
ก็เป็นที่ชื่นชอบเช่นกันเนื่องจากมีความสมดุลที่ดีตระกูลโมเดลที่โดดเด่น: ตระกูล
llama
เป็นผู้นำอย่างเด็ดขาด ตามมาด้วยqwen2
การจัดอันดับที่สูงของตระกูลโมเดลการฝัง เช่นnomic-bert
และbert
เป็นสิ่งที่น่าสังเกต ซึ่งอาจเกี่ยวข้องกับพฤติกรรมเริ่มต้นของ Ollamaความพึงพอใจในขนาดพารามิเตอร์: โมเดลที่มีพารามิเตอร์ 7B-8B เป็นกระแสหลักในปัจจุบัน โมเดลน้ำหนักเบาระดับล้านพารามิเตอร์และโมเดลขนาดใหญ่กว่า 10B ก็มีตลาดของตนเองเช่นกัน การเปรียบเทียบระหว่างสหรัฐอเมริกาและจีนแสดงให้เห็นว่าสหรัฐอเมริกาใช้งานโมเดลขนาดกลางมากกว่า ในขณะที่จีนมีความกระตือรือร้นในการสำรวจโมเดลขนาดเล็กและใหญ่พิเศษมากกว่า
ตัวเลือกระดับการควอนไทซ์: การควอนไทซ์ 4 บิต (โดยเฉพาะ
Q4_K_M
และQ4_0
) เป็นตัวเลือกที่ล้นหลามF16
ในฐานะตัวเลือกที่มีความเที่ยงตรงสูงกว่า ก็มีตำแหน่งที่สำคัญเช่นกันความซับซ้อนของเมทาดาทา: การวิเคราะห์เมทาดาทาของโมเดล (เช่น การตีความฟิลด์ตระกูลโมเดล) บางครั้งเผยให้เห็นความซับซ้อนระหว่างบันทึกและชื่อโมเดลหรือความเข้าใจทั่วไป ซึ่งเน้นย้ำถึงความหลากหลายของการจัดการเมทาดาทาในระบบนิเวศโอเพนซอร์ส
3. โครงสร้างพื้นฐานทางเทคนิค:
สภาพแวดล้อมการโฮสต์: อินสแตนซ์ Ollama จำนวนมากโฮสต์อยู่บนผู้ให้บริการคลาวด์รายใหญ่ เช่น AWS, Alibaba Cloud, Tencent Cloud รวมถึงในเครือข่ายของผู้ให้บริการโทรคมนาคมรายใหญ่ระดับประเทศ
พอร์ตบริการ: พอร์ตเริ่มต้นของ Ollama
11434
เป็นพอร์ตที่ใช้บ่อยที่สุด แต่ก็มีอินสแตนซ์จำนวนมากที่เปิดเผยผ่านพอร์ตเว็บมาตรฐานเช่นกัน
4. การประเมินตามวัตถุประสงค์:
ความนิยมของ Ollama: ข้อมูลแสดงให้เห็นอย่างชัดเจนถึงอัตราการนำ Ollama ไปใช้ในระดับสูงในหมู่นักพัฒนาและผู้ที่ชื่นชอบ AI ทั่วโลก
ความมีชีวิตชีวาของระบบนิเวศโอเพนซอร์ส: ความหลากหลายของโมเดลยอดนิยมและการใช้งานพารามิเตอร์และเวอร์ชันการควอนไทซ์ต่างๆ อย่างแพร่หลาย สะท้อนให้เห็นถึงการพัฒนาที่เฟื่องฟูของระบบนิเวศโมเดล AI แบบโอเพนซอร์ส
ความสมดุลในความพึงพอใจของผู้ใช้: เมื่อเลือกโมเดล ผู้ใช้มักจะมองหาความสมดุลระหว่างความสามารถของโมเดล ประสิทธิภาพในการดำเนินงาน และต้นทุนฮาร์ดแวร์
ความปลอดภัยและการเปิดกว้าง: อินสแตนซ์จำนวนมากอนุญาตให้เข้าถึงรายการโมเดลของตนแบบสาธารณะ ซึ่งแม้จะสะดวกสำหรับชุมชน แต่อาจก่อให้เกิดความเสี่ยงด้านความปลอดภัยได้เช่นกัน
5. แนวโน้มในอนาคต:
ด้วยการเกิดขึ้นของโมเดลขนาดเล็กที่มีประสิทธิภาพมากขึ้นและความก้าวหน้าเพิ่มเติมในเทคโนโลยีการควอนไทซ์ คาดว่าอุปสรรคในการใช้งาน Ollama จะลดลงอย่างต่อเนื่อง
การกำหนดมาตรฐานของเมทาดาทาโมเดลและโมเดลที่ใช้ร่วมกันในชุมชนมีความสำคัญอย่างยิ่งต่อการเพิ่มความโปร่งใสและการใช้งานของระบบนิเวศ
โดยสรุป Ollama กำลังกลายเป็นสะพานสำคัญที่เชื่อมโยงโมเดลภาษาขนาดใหญ่ที่ล้ำสมัยเข้ากับนักพัฒนา นักวิจัย และแม้แต่ผู้ใช้ทั่วไปในวงกว้าง การวิเคราะห์ข้อมูลนี้ให้ข้อมูลเชิงลึกที่มีคุณค่าสำหรับการทำความเข้าใจสถานะการใช้งานทั่วโลกในปัจจุบันและความพึงพอใจของผู้ใช้
ความคิดเห็น
comments.comments (0)
Please login first
Sign in