Tenthe ai directory logo
มุมมองใหม่ต่อการแข่งขันด้าน AI ระหว่างสหรัฐฯ และจีน: การเปรียบเทียบการใช้งาน Ollama ในปี 2025 และข้อมูลเชิงลึกเกี่ยวกับแนวโน้มโมเดล AI ทั่วโลก

มุมมองใหม่ต่อการแข่งขันด้าน AI ระหว่างสหรัฐฯ และจีน: การเปรียบเทียบการใช้งาน Ollama ในปี 2025 และข้อมูลเชิงลึกเกี่ยวกับแนวโน้มโมเดล AI ทั่วโลก

Ryan@ryan
0 ยอดดู0 ความคิดเห็น

Ollama เป็นเครื่องมือโอเพนซอร์สยอดนิยมที่ออกแบบมาเพื่อลดความซับซ้อนของกระบวนการเรียกใช้ สร้าง และแบ่งปันโมเดลภาษาขนาดใหญ่ (LLM) ภายในเครื่อง โดยจะรวมน้ำหนักโมเดล การกำหนดค่า และข้อมูลไว้ในแพ็คเกจที่กำหนดโดย Modelfile และมี API สำหรับการโต้ตอบกับโมเดลเหล่านี้ ซึ่งช่วยให้นักพัฒนาและนักวิจัยสามารถปรับใช้และทดลองกับโมเดล AI ขั้นสูงต่างๆ บนคอมพิวเตอร์ส่วนบุคคลหรือเซิร์ฟเวอร์ได้อย่างง่ายดาย

1. บทนำ

Ollama เป็นเครื่องมือโอเพนซอร์สยอดนิยมที่ออกแบบมาเพื่อลดความซับซ้อนของกระบวนการเรียกใช้ สร้าง และแบ่งปันโมเดลภาษาขนาดใหญ่ (LLM) ภายในเครื่อง โดยจะรวมน้ำหนักโมเดล การกำหนดค่า และข้อมูลไว้ในแพ็คเกจที่กำหนดโดย Modelfile และมี API สำหรับการโต้ตอบกับโมเดลเหล่านี้ ซึ่งช่วยให้นักพัฒนาและนักวิจัยสามารถปรับใช้และทดลองกับโมเดล AI ขั้นสูงต่างๆ บนคอมพิวเตอร์ส่วนบุคคลหรือเซิร์ฟเวอร์ได้อย่างง่ายดาย

รายงานนี้มีวัตถุประสงค์เพื่อเปิดเผยแนวโน้มการปรับใช้ ความพึงพอใจในโมเดล การกระจายทางภูมิศาสตร์ และลักษณะเครือข่าย โดยการวิเคราะห์ข้อมูลจากอินสแตนซ์ Ollama จำนวน 174,590 รายการที่ปรับใช้ทั่วโลก

หมายเหตุ: สถิติข้อมูลในบทที่ 5 และบทที่ 7 มาจากอินสแตนซ์ทั้งหมด 174,590 รายการ ข้อมูลในบทที่ 6 มาจากอินสแตนซ์ที่เข้าถึงได้ ด้วยเหตุผลด้านความปลอดภัย เราไม่ได้ระบุสถิติเกี่ยวกับเวอร์ชันของ Ollama

  • ข้อมูล ณ วันที่: 24 เมษายน 2025

  • แหล่งที่มาของรายงาน: Tenthe AI https://tenthe.com

  • ผู้เขียน: Ryan

2. บทสรุปสำหรับผู้บริหาร

รายงานนี้อ้างอิงจากการวิเคราะห์ข้อมูลการสแกนและการตรวจสอบ API ของอินสแตนซ์ Ollama ที่เปิดเผยต่อสาธารณะทั่วโลก ข้อค้นพบที่สำคัญ ได้แก่:

  • ทั่วโลก จากบันทึกประมาณ 174,590 รายการที่ระบุในเบื้องต้นผ่าน Fofa (IP ที่ไม่ซ้ำกัน 99,412 รายการ) อินสแตนซ์ Ollama จำนวน 41,021 รายการที่มี API ที่เข้าถึงได้ ได้รับการตรวจสอบสำเร็จ กระจายอยู่บนที่อยู่ IP ที่ไม่ซ้ำกัน 24,038 รายการ (อัตราการเข้าถึงประมาณ 24.18%)

  • ในทางภูมิศาสตร์ สหรัฐอเมริกาและจีนเป็นประเทศที่มีการใช้งาน Ollama มากที่สุด ผู้ให้บริการคลาวด์ โดยเฉพาะ AWS, Alibaba Cloud และ Tencent Cloud เป็นโฮสต์หลักสำหรับอินสแตนซ์ Ollama

  • การปรับใช้โมเดลแสดงให้เห็นถึงความหลากหลาย โดยโมเดลซีรีส์ llama3, deepseek-r1, mistral และ qwen ได้รับความนิยมอย่างกว้างขวาง ในจำนวนนี้ llama3:latest และ deepseek-r1:latest เป็นแท็กโมเดลสองแบบที่มีการปรับใช้กันอย่างแพร่หลายมากที่สุด

  • โมเดลที่มีพารามิเตอร์ 7B-8B เป็นตัวเลือกอันดับต้น ๆ สำหรับผู้ใช้ ในขณะที่โมเดลที่ผ่านการควอนไทซ์แบบ 4 บิต เช่น Q4_K_M และ Q4_0 ได้รับการนำไปใช้อย่างกว้างขวางเนื่องจากความสมดุลที่ดีระหว่างประสิทธิภาพและการใช้ทรัพยากร

  • พอร์ตเริ่มต้น 11434 เป็นพอร์ตที่ใช้บ่อยที่สุด และอินสแตนซ์ส่วนใหญ่เปิดเผยบริการผ่านโปรโตคอล HTTP

3. แหล่งข้อมูลและระเบียบวิธีวิจัย

ข้อมูลสำหรับรายงานนี้ส่วนใหญ่มาจากสองขั้นตอน:

  1. การสแกนเบื้องต้น: การใช้เครื่องมือค้นหาพื้นที่เครือข่าย เช่น Fofa ด้วยเงื่อนไข app="Ollama" && is_domain=false เพื่อระบุอินสแตนซ์ Ollama ที่อาจมีการปรับใช้ทั่วโลกในเบื้องต้น ขั้นตอนนี้พบ 174,590 รายการ ซึ่งเกี่ยวข้องกับ IP ที่ไม่ซ้ำกัน 99,412 รายการหลังจากการขจัดข้อมูลซ้ำซ้อน

  2. การตรวจสอบ API และการเพิ่มคุณค่าข้อมูล: การตรวจสอบปลายทาง API ip:port/api/tags สำหรับที่อยู่ IP ที่สแกนในเบื้องต้นเพื่อยืนยันความสามารถในการเข้าถึงบริการ Ollama และรับข้อมูลเกี่ยวกับโมเดล AI เฉพาะที่ปรับใช้ ขั้นตอนนี้ยืนยันอินสแตนซ์ Ollama ที่ตอบสนองสำเร็จจำนวน 41,021 รายการ (จาก IP ที่ไม่ซ้ำกัน 24,038 รายการ โดยข้อมูลถูกจัดเก็บไว้ในตาราง ollama)

  3. ข้อมูลสุดท้ายถูกจัดเก็บไว้ในตาราง ollama

การวิเคราะห์ในรายงานนี้อ้างอิงข้อมูลจากตาราง ollama เป็นหลัก ซึ่งมีบันทึกของ API ที่ตรวจสอบสำเร็จและข้อมูลโดยละเอียด รวมถึง IP, พอร์ต, ที่ตั้งทางภูมิศาสตร์ และการตอบสนอง JSON (ที่มีรายการโมเดล) เป็นต้น

4. สถิติการใช้งานโดยรวม

  • จำนวนบันทึกเริ่มต้นจากการสแกน Fofa: 174,590

  • จำนวน IP ที่ไม่ซ้ำกันจากการสแกน Fofa เบื้องต้น: 99,412

  • จำนวนอินสแตนซ์ Ollama ที่เข้าถึง /api/tags สำเร็จ: 41,021 (จากบันทึกที่ status = 'success' ในตาราง ollama)

  • จำนวนที่อยู่ IP ที่ไม่ซ้ำกันที่สอดคล้องกัน: 24,038 (จากบันทึกที่ status = 'success' ในตาราง ollama)

  • อัตราส่วนของ IP ที่เข้าถึงได้ต่อ IP ที่ระบุในเบื้องต้น: (24038 / 99412) * 100% ≈ 24.18%

สิ่งนี้บ่งชี้ว่าในบรรดาอินสแตนซ์ Ollama ทั้งหมดที่ระบุผ่าน Fofa ประมาณหนึ่งในสี่มีอินเทอร์เฟซ /api/tags ที่เข้าถึงได้แบบสาธารณะ ซึ่งช่วยให้เราสามารถดึงข้อมูลเกี่ยวกับโมเดลที่ปรับใช้ได้

5. การวิเคราะห์การกระจายทางภูมิศาสตร์

5.1 20 อันดับประเทศ/ภูมิภาคที่มีการใช้งานสูงสุด

ตารางด้านล่างแสดง 20 อันดับประเทศ/ภูมิภาคที่จัดอันดับตามจำนวน IP ที่ไม่ซ้ำกันซึ่งมีอินสแตนซ์ Ollama

อันดับ

ประเทศ/ภูมิภาค

จำนวน IP ที่ไม่ซ้ำกัน

1

สหรัฐอเมริกา

29195

2

จีน

16464

3

ญี่ปุ่น

5849

4

เยอรมนี

5438

5

สหราชอาณาจักร

4014

6

อินเดีย

3939

7

สิงคโปร์

3914

8

เกาหลีใต้

3773

9

ไอร์แลนด์

3636

10

ฝรั่งเศส

3599

11

ออสเตรเลีย

3558

12

บราซิล

2909

13

แคนาดา

2763

14

แอฟริกาใต้

2742

15

สวีเดน

2113

16

ฮ่องกง เขตบริหารพิเศษของจีน

1277

17

อิสราเอล

675

18

ไต้หวัน, จีน

513

19

รัสเซีย

475

20

ฟินแลนด์

308

20 อันดับประเทศ/ภูมิภาคที่มีการใช้งาน Ollama สูงสุด

5.2 20 อันดับเมืองทั่วโลกที่มีการใช้งานสูงสุด

ตารางด้านล่างแสดง 20 อันดับเมืองทั่วโลกที่จัดอันดับตามจำนวน IP ที่ไม่ซ้ำกันซึ่งมีอินสแตนซ์ Ollama

อันดับ

เมือง

ประเทศ/ภูมิภาค

จำนวน IP ที่ไม่ซ้ำกัน

1

แอชเบิร์น

สหรัฐอเมริกา

5808

2

พอร์ตแลนด์

สหรัฐอเมริกา

5130

3

สิงคโปร์

สิงคโปร์

3914

4

แฟรงก์เฟิร์ต อัม ไมน์

เยอรมนี

3908

5

ปักกิ่ง

จีน

3906

6

ลอนดอน

สหราชอาณาจักร

3685

7

โคลัมบัส

สหรัฐอเมริกา

3672

8

มุมไบ

อินเดีย

3637

9

ดับลิน

ไอร์แลนด์

3631

10

โตเกียว

ญี่ปุ่น

3620

11

ซิดนีย์

ออสเตรเลีย

3487

12

ปารีส

ฝรั่งเศส

3175

13

ซานโฮเซ

สหรัฐอเมริกา

2815

14

เซาเปาลู

บราซิล

2753

15

เคปทาวน์

แอฟริกาใต้

2692

16

มอนทรีออล

แคนาดา

2535

17

ซีแอตเทิล

สหรัฐอเมริกา

2534

18

หางโจว

จีน

2447

19

โซล

เกาหลีใต้

2327

20

โอซาก้า

ญี่ปุ่น

2184

5.3 10 อันดับเมืองในสหรัฐอเมริกาที่มีการกระจายการใช้งานสูงสุด

อันดับ

เมือง

จำนวน IP ที่ไม่ซ้ำกัน

1

แอชเบิร์น

5808

2

พอร์ตแลนด์

5130

3

โคลัมบัส

3672

4

ซานโฮเซ

2815

5

ซีแอตเทิล

2534

6

เวสต์เลควิลเลจ

1714

7

บอร์ดแมน

855

8

ฟลอเรนซ์

776

9

ซานฟรานซิสโก

753

10

โบลเดอร์

642

10 อันดับเมืองในสหรัฐอเมริกาที่มีการกระจายการใช้งาน Ollama สูงสุด

5.4 10 อันดับเมืองในจีนแผ่นดินใหญ่ที่มีการกระจายการใช้งานสูงสุด

การใช้งานในฮ่องกงและไต้หวันไม่ได้แสดงอยู่ในตาราง 10 อันดับเมือง เนื่องจากได้รวมอยู่ในสถิติประเทศ/ภูมิภาคแล้ว

อันดับ

เมือง

ประเทศ (country_name)

จำนวน IP ที่ไม่ซ้ำกัน

1

ปักกิ่ง

จีน

3906

2

หางโจว

จีน

2447

3

เซี่ยงไฮ้

จีน

1335

4

กว่างโจว

จีน

1296

5

เซินเจิ้น

จีน

768

6

เฉิงตู

จีน

469

7

หนานจิง

จีน

329

8

ฉงชิ่ง

จีน

259

9

ซูโจว

จีน

257

10

อู่ฮั่น

จีน

249

20 อันดับเมืองทั่วโลกที่มีการใช้งาน Ollama สูงสุด

5.5 การเปรียบเทียบการใช้งานใน 10 อันดับเมืองระหว่างสหรัฐฯ และจีน

เพื่อให้สามารถเปรียบเทียบการใช้งาน Ollama ในระดับเมืองระหว่างสหรัฐฯ และจีนได้อย่างเป็นรูปธรรมยิ่งขึ้น ตารางด้านล่างนี้จะแสดงจำนวนการใช้งาน IP ที่ไม่ซ้ำกันสำหรับ 10 อันดับเมืองแรกในทั้งสองประเทศเคียงข้างกัน:

อันดับ

เมืองในสหรัฐฯ (10 อันดับแรก)

จำนวน IP ที่ไม่ซ้ำกันในสหรัฐฯ

เมืองในจีน (10 อันดับแรก)

จำนวน IP ที่ไม่ซ้ำกันในจีน

1

แอชเบิร์น

5808

ปักกิ่ง

3906

2

พอร์ตแลนด์

5130

หางโจว

2447

3

โคลัมบัส

3672

เซี่ยงไฮ้

1335

4

ซานโฮเซ

2815

กว่างโจว

1296

5

ซีแอตเทิล

2534

เซินเจิ้น

768

6

เวสต์เลควิลเลจ

1714

เฉิงตู

469

7

บอร์ดแมน

855

หนานจิง

329

8

ฟลอเรนซ์

776

ฉงชิ่ง

259

9

ซานฟรานซิสโก

753

ซูโจว

257

10

โบลเดอร์

642

อู่ฮั่น

249

การเปรียบเทียบการใช้งาน Ollama ใน 10 อันดับเมืองระหว่างสหรัฐฯ และจีน

บทวิจารณ์สั้น ๆ:

  • ปริมาณในเมืองชั้นนำ: 3 เมืองชั้นนำของสหรัฐฯ (แอชเบิร์น, พอร์ตแลนด์, โคลัมบัส) แต่ละเมืองมี IP ที่ไม่ซ้ำกันมากกว่า 3,000 รายการที่มีการใช้งาน Ollama เมืองชั้นนำของจีน (ปักกิ่ง) มีการใช้งานมากกว่า 3,000 รายการ และเมืองอันดับสอง (หางโจว) มีมากกว่า 2,000 รายการ

  • ศูนย์กลางเทคโนโลยีและเศรษฐกิจ: เมืองหลายแห่งที่ระบุไว้ในทั้งสองประเทศเป็นศูนย์กลางนวัตกรรมทางเทคโนโลยีที่มีชื่อเสียงหรือภูมิภาคเศรษฐกิจที่สำคัญ

  • ภูมิภาคศูนย์ข้อมูล: การรวมเมืองในสหรัฐฯ เช่น แอชเบิร์น ยังสะท้อนให้เห็นว่าอินสแตนซ์ Ollama อาจมีการปรับใช้ส่วนใหญ่ภายในเซิร์ฟเวอร์คลาวด์และศูนย์ข้อมูล

  • ความแตกต่างในการกระจาย: โดยรวมแล้ว จำนวน IP ทั้งหมดใน 10 อันดับเมืองของสหรัฐฯ สูงกว่าใน 10 อันดับเมืองของจีนอย่างมีนัยสำคัญ อย่างไรก็ตาม ทั้งสองประเทศแสดงรูปแบบที่เมืองหลักไม่กี่แห่งคิดเป็นสัดส่วนส่วนใหญ่ของการใช้งาน Ollama

การเปรียบเทียบระดับเมืองนี้ยังเผยให้เห็นอีกว่าการส่งเสริมและการประยุกต์ใช้ Ollama ในฐานะเครื่องมือสำหรับนักพัฒนา มีความเชื่อมโยงอย่างใกล้ชิดกับระบบนิเวศทางเทคโนโลยีระดับภูมิภาคและการพัฒนาอุตสาหกรรม

6. การวิเคราะห์โมเดล

6.1 ภาพรวมโดยย่อของโมเดล AI พารามิเตอร์ และการควอนไทซ์

Ollama รองรับโมเดลภาษาขนาดใหญ่โอเพนซอร์สที่หลากหลาย โมเดลเหล่านี้มักจะมีความแตกต่างกันตามคุณสมบัติดังต่อไปนี้:

6.1.1 ตระกูลโมเดลทั่วไป

ชุมชนโอเพนซอร์สในปัจจุบันได้เห็นการเพิ่มขึ้นของตระกูล LLM ที่ยอดเยี่ยมมากมาย ซึ่งแต่ละตระกูลก็มีลักษณะเฉพาะของตัวเอง:

  • ซีรีส์ Llama (Meta AI): เช่น Llama 2, Llama 3, Code Llama เป็นที่รู้จักในด้านความสามารถทั่วไปที่ทรงพลังและการสนับสนุนจากชุมชนอย่างกว้างขวาง ส่งผลให้มีเวอร์ชันที่ปรับแต่งอย่างละเอียดมากมาย โมเดลเช่น llama3.1, hermes3 ที่พบในข้อมูลของเรามักจะใช้สถาปัตยกรรม Llama

  • ซีรีส์ Mistral (Mistral AI): เช่น Mistral 7B, Mixtral 8x7B ได้รับความสนใจในด้านประสิทธิภาพและสมรรถนะสูง โดยเฉพาะอย่างยิ่งโมเดล MoE (Mixture of Experts)

  • ซีรีส์ Gemma (Google): เช่น Gemma 2B, Gemma 7B โมเดลน้ำหนักเปิดที่เผยแพร่โดย Google พร้อมเทคโนโลยีที่ได้มาจากโมเดล Gemini ที่ทรงพลังกว่า

  • ซีรีส์ Phi (Microsoft): เช่น Phi-2, Phi-3 เน้นโมเดลขนาดเล็กแต่มีความสามารถสูง โดยเน้น "SLM (Small Language Models)"

  • ซีรีส์ DeepSeek (DeepSeek AI): เช่น DeepSeek Coder, DeepSeek LLM โมเดล AI ของจีนที่ยอดเยี่ยมในด้านการเขียนโค้ดและงานทั่วไป

  • ซีรีส์ Qwen (Alibaba Tongyi Qianwen): เช่น Qwen1.5 ซีรีส์โมเดลที่เปิดตัวโดย Alibaba DAMO Academy รองรับหลายภาษาและหลายงาน

  • ยังมีโมเดลที่ยอดเยี่ยมอื่นๆ อีกมากมาย เช่น Yi (01.AI), Command R (Cohere) เป็นต้น

Ollama ผ่านกลไก Modelfile ช่วยให้ผู้ใช้สามารถใช้โมเดลพื้นฐานเหล่านี้หรือเวอร์ชันที่ปรับแต่งอย่างละเอียดได้อย่างง่ายดาย ชื่อโมเดลมักจะเป็นไปตามรูปแบบ ตระกูล:ขนาด-รูปแบบย่อย-การควอนไทซ์ ตัวอย่างเช่น llama3:8b-instruct-q4_K_M

6.1.2 พารามิเตอร์โมเดล (ขนาดพารามิเตอร์)

จำนวนพารามิเตอร์ของโมเดล (โดยปกติจะเป็นหน่วย B - พันล้าน หรือ M - ล้าน) เป็นตัวบ่งชี้ที่สำคัญของขนาดและความสามารถที่เป็นไปได้ของโมเดล ขนาดพารามิเตอร์ทั่วไป ได้แก่:

  • โมเดลขนาดเล็ก: < 7B (เช่น 1.5B, 2B, 3B) โดยปกติจะทำงานเร็วและใช้ทรัพยากรน้อย เหมาะสำหรับงานเฉพาะหรือสภาพแวดล้อมที่จำกัดทรัพยากร

  • โมเดลขนาดกลาง: 7B, 8B, 13B สร้างความสมดุลที่ดีระหว่างความสามารถและการใช้ทรัพยากร ปัจจุบันเป็นหนึ่งในขนาดที่ได้รับความนิยมมากที่สุดในชุมชน

  • โมเดลขนาดใหญ่: 30B, 33B, 40B, 70B+ โดยทั่วไปมีความสามารถมากกว่า แต่ก็ต้องการทรัพยากรการคำนวณที่มากขึ้น (RAM, VRAM) และเวลาในการอนุมานที่นานขึ้น

ฟิลด์ parameter_size ในข้อมูลของเรา (เช่น "8.0B", "7B", "134.52M") บ่งชี้สิ่งนี้

6.1.3 เวอร์ชันการควอนไทซ์ (ระดับการควอนไทซ์)

การควอนไทซ์เป็นเทคนิคในการลดขนาดโมเดลและเร่งการอนุมานโดยการลดความแม่นยำของตัวเลขของน้ำหนักโมเดล (เช่น จากจุดลอยตัว 16 บิต FP16 เป็นจำนวนเต็ม 4 บิต INT4)

  • ระดับการควอนไทซ์ทั่วไป: Ollama และรูปแบบ GGUF (ใช้โดย Llama.cpp) รองรับกลยุทธ์การควอนไทซ์ต่างๆ เช่น Q2_K, Q3_K_S, Q3_K_M, Q3_K_L, Q4_0, Q4_K_M, Q5_K_M, Q6_K, Q8_0 เป็นต้น

    • ตัวเลข (เช่น 2, 3, 4, 5, 6, 8) แสดงจำนวนบิตโดยประมาณ

    • การควอนไทซ์ซีรีส์ K (เช่น Q4_K_M) เป็นวิธีการควอนไทซ์ที่ได้รับการปรับปรุงซึ่งนำมาใช้ใน llama.cpp โดยทั่วไปจะให้ประสิทธิภาพที่ดีกว่าที่จำนวนบิตเท่ากัน

    • _S, _M, _L มักจะแสดงถึงรูปแบบย่อยต่างๆ ของ K-quants ซึ่งส่งผลต่อส่วนต่างๆ ของโมเดล

    • F16 (FP16) แสดงถึงจุดลอยตัว 16 บิต ซึ่งมักจะถือว่าเป็นเวอร์ชันที่ไม่ผ่านการควอนไทซ์หรือเวอร์ชันการควอนไทซ์พื้นฐาน F32 (FP32) คือความแม่นยำเต็มรูปแบบ

  • ข้อดีข้อเสีย: การควอนไทซ์ที่สูงขึ้น (จำนวนบิตน้อยลง) ส่งผลให้โมเดลมีขนาดเล็กลงและเร็วขึ้น แต่โดยปกติแล้วจะมาพร้อมกับการสูญเสียประสิทธิภาพบางส่วน (โมเดลทำงานได้แย่ลง) ผู้ใช้จำเป็นต้องเลือกตามฮาร์ดแวร์และข้อกำหนดด้านคุณภาพของโมเดล

ฟิลด์ quantization_level ในข้อมูลของเรา (เช่น "Q4_K_M", "F16") บ่งชี้สิ่งนี้

6.2 ชื่อโมเดลยอดนิยมสูงสุด

ตารางด้านล่างแสดงแท็กโมเดล 10 อันดับแรกที่จัดอันดับตามจำนวนการใช้งาน IP ที่ไม่ซ้ำกัน รวมถึงข้อมูลตระกูล ขนาดพารามิเตอร์ และระดับการควอนไทซ์

อันดับ

ชื่อโมเดล (model_name)

การใช้งาน IP ที่ไม่ซ้ำกัน

จำนวนอินสแตนซ์การใช้งานทั้งหมด

1

llama3:latest

12659

24628

2

deepseek-r1:latest

12572

24578

3

mistral:latest

11163

22638

4

qwen:latest

9868

21007

5

llama3:8b-text-q4_K_S

9845

20980

6

smollm2:135m

4058

5016

7

llama2:latest

3124

3928

8

hermes3:8b

2856

3372

9

llama3.1:8b

2714

3321

10

qwen2.5:1.5b

2668

3391

ชื่อโมเดลยอดนิยมสูงสุดของ Ollama

(หมายเหตุ: การใช้งาน IP ที่ไม่ซ้ำกัน หมายถึงจำนวนที่อยู่ IP ที่ไม่ซ้ำกันซึ่งมีการปรับใช้แท็กโมเดลนี้อย่างน้อยหนึ่งอินสแตนซ์ จำนวนอินสแตนซ์การใช้งานทั้งหมด หมายถึงจำนวนครั้งทั้งหมดที่แท็กโมเดลนี้ปรากฏในรายการ models ในทุก IP IP อาจชี้ไปที่แท็กโมเดลเดียวกันหลายครั้งผ่านวิธีการหรือบันทึกที่แตกต่างกัน หรือ IP อาจเรียกใช้อินสแตนซ์หลายรายการของแท็กที่แตกต่างกันซึ่งเป็นของโมเดลพื้นฐานเดียวกัน)

ข้อสังเกตเบื้องต้น (ชื่อโมเดลยอดนิยม):

  • โมเดลที่มีแท็ก :latest เป็นเรื่องปกติมาก เช่น llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest สิ่งนี้บ่งชี้ว่าผู้ใช้จำนวนมากต้องการดึงเวอร์ชันล่าสุดของโมเดลโดยตรง

  • โมเดลซีรีส์ Llama (เช่น llama3:latest, llama3:8b-text-q4_K_S, llama2:latest, llama3.1:8b) ครองหลายตำแหน่ง แสดงให้เห็นถึงความนิยมอย่างมาก

  • โมเดล AI ของจีน เช่น deepseek-r1:latest (ซีรีส์ DeepSeek) และ qwen:latest (ซีรีส์ Tongyi Qianwen) ก็ทำผลงานได้อย่างน่าประทับใจเช่นกัน โดยอยู่ในอันดับสูง

  • เวอร์ชันควอนไทซ์เฉพาะ เช่น llama3:8b-text-q4_K_S ก็ติดสิบอันดับแรกเช่นกัน ซึ่งบ่งชี้ถึงความพึงพอใจของผู้ใช้ในความสมดุลระหว่างประสิทธิภาพ/การใช้ทรัพยากรที่เฉพาะเจาะจง

  • โมเดลขนาดเล็ก เช่น smollm2:135m และ qwen2.5:1.5b ก็มีการใช้งานจำนวนมากเช่นกัน ตอบสนองความต้องการโมเดลน้ำหนักเบา

6.3 ตระกูลโมเดลยอดนิยมสูงสุด

ตระกูลโมเดล (ฟิลด์ details.family) แสดงถึงสถาปัตยกรรมพื้นฐานหรือสายเลือดทางเทคโนโลยีหลักของโมเดล ด้านล่างนี้คือตระกูลโมเดลที่มีจำนวนการใช้งานสูงกว่าตามการวิเคราะห์ข้อมูลของเรา:

อันดับ

ตระกูลโมเดล (family)

การใช้งาน IP ที่ไม่ซ้ำกัน (โดยประมาณ)

จำนวนอินสแตนซ์การใช้งานทั้งหมด (โดยประมาณ)

1

llama

~20250

~103480

2

qwen2

~17881

~61452

3

nomic-bert

~1479

~1714

4

gemma3

~1363

~2493

5

bert

~1228

~2217

6

mllama

~943

~1455

7

gemma

~596

~750

8

deepseek2

~484

~761

9

phi3

~368

~732

10

gemma2

~244

~680

ตระกูลโมเดลยอดนิยมสูงสุดของ Ollama

(หมายเหตุ: ค่าเฉพาะที่นี่เป็นค่าโดยประมาณและสรุปตามรายการรายละเอียดโมเดล 50 อันดับแรกที่สอบถามก่อนหน้านี้ และอาจแตกต่างจากสถิติทั่วโลกที่แม่นยำเล็กน้อย แต่แนวโน้มนี้สามารถใช้เป็นตัวแทนได้)

ข้อสังเกตเบื้องต้น (ตระกูลโมเดลยอดนิยม):

  • ตระกูล llama ครองตำแหน่งที่โดดเด่นอย่างแท้จริง ซึ่งสอดคล้องกับโมเดลซีรีส์ Llama ที่เป็นรากฐานสำหรับ LLM โอเพนซอร์สสมัยใหม่จำนวนมากและการประยุกต์ใช้งานที่กว้างขวางของตนเอง ระบบนิเวศที่กว้างใหญ่และเวอร์ชันที่ปรับแต่งอย่างละเอียดจำนวนมากทำให้เป็นตัวเลือกที่ได้รับความนิยมมากที่สุด

  • qwen2 (ซีรีส์ Tongyi Qianwen Qwen2) ในฐานะตระกูลที่ใหญ่เป็นอันดับสอง แสดงให้เห็นถึงความสามารถในการแข่งขันที่แข็งแกร่งในจีนและแม้กระทั่งทั่วโลก

  • การปรากฏตัวของ nomic-bert และ bert เป็นสิ่งที่น่าสังเกต แม้ว่าโดยทั่วไปจะไม่ถือว่าเป็น "โมเดลภาษาขนาดใหญ่" (เชิงสนทนา) แต่เป็นโมเดลการฝังข้อความหรือโมเดลพื้นฐานการประมวลผลภาษาธรรมชาติอื่นๆ ปริมาณการใช้งานที่สูงแสดงให้เห็นว่า Ollama ก็ถูกนำมาใช้อย่างกว้างขวางสำหรับงานดังกล่าวเช่นกัน Ollama จะดาวน์โหลดโมเดลการฝังเริ่มต้นโดยอัตโนมัติ (เช่น nomic-embed-text) เมื่อดำเนินการบางอย่าง (เช่น การสร้างเวกเตอร์การฝัง) ซึ่งน่าจะเป็นเหตุผลหลักที่ทำให้ตระกูลเหล่านี้อยู่ในอันดับสูง

  • ซีรีส์ gemma ของ Google (รวมถึง gemma3, gemma, gemma2) ก็แสดงอัตราการนำไปใช้ที่เหมาะสมเช่นกัน

  • ตระกูลโมเดลที่เป็นที่รู้จักอื่นๆ เช่น deepseek2 และ phi3 ก็ติดสิบอันดับแรกเช่นกัน

  • mllama อาจหมายถึงชุดของโมเดลไฮบริดที่ใช้ Llama ดัดแปลง หรือโมเดลที่ตั้งชื่อโดยชุมชน

6.4 สถิติขนาดพารามิเตอร์ดั้งเดิมยอดนิยมสูงสุด

ขนาดพารามิเตอร์ของโมเดล (ฟิลด์ details.parameter_size) เป็นตัวบ่งชี้ที่สำคัญของขนาดโมเดล เนื่องจากการแสดงขนาดพารามิเตอร์ที่หลากหลายในข้อมูลดิบ (เช่น "8.0B", "7B", "134.52M") เราจึงนับสตริงดั้งเดิมเหล่านี้โดยตรง ด้านล่างนี้คือการแสดงขนาดพารามิเตอร์ที่มีจำนวนการใช้งานสูงกว่า:

อันดับ

ขนาดพารามิเตอร์ (สตริงดั้งเดิม)

การใช้งาน IP ที่ไม่ซ้ำกัน (โดยประมาณ)

จำนวนอินสแตนซ์การใช้งานทั้งหมด (โดยประมาณ)

1

8.0B

~14480

~52577

2

7.6B

~14358

~28105

3

7.2B

~11233

~22907

4

4B

~9895

~21058

5

7B

~4943

~11738

6

134.52M

~4062

~5266

7

1.5B

~2759

~3596

8

13B

~2477

~3311

9

1.8B

~2034

~2476

10

3.2B

~1553

~2244

11

137M

~1477

~1708

12

12.2B

~1421

~2000

13

32.8B

~1254

~2840

14

14.8B

~1123

~2091

15

4.3B

~943

~1194

สถิติขนาดพารามิเตอร์ดั้งเดิมยอดนิยมสูงสุดของ Ollama

(หมายเหตุ: ค่าต่างๆ เป็นค่าโดยประมาณตามข้อมูลสรุปของพารามิเตอร์จากรายการรายละเอียดโมเดล 50 อันดับแรกที่สอบถามก่อนหน้านี้)

ข้อสังเกตเบื้องต้น (ขนาดพารามิเตอร์ยอดนิยม):

  • โมเดลขนาด 7B ถึง 8B เป็นกระแสหลักอย่างแท้จริง: "8.0B", "7.6B", "7.2B", "7B" ครองส่วนใหญ่ของการใช้งาน ซึ่งโดยทั่วไปสอดคล้องกับโมเดลที่ได้รับความนิยมอย่างมากในชุมชน เช่น ซีรีส์ Llama 2/3 7B/8B, Mistral 7B และเวอร์ชันที่ปรับแต่งอย่างละเอียดต่างๆ พวกเขาสร้างความสมดุลที่ดีระหว่างประสิทธิภาพและการใช้ทรัพยากร

  • โมเดลขนาด 4B ก็มีตำแหน่งที่สำคัญเช่นกัน: การใช้งาน "4B" ในระดับสูงเป็นสิ่งที่น่าสังเกต

  • โมเดลน้ำหนักเบาระดับล้านพารามิเตอร์ (M) แพร่หลาย: อันดับสูงของ "134.52M" และ "137M" น่าจะเกี่ยวข้องกับความนิยมของโมเดลการฝัง (เช่น nomic-embed-text) หรือโมเดลเฉพาะทางขนาดเล็กมาก (เช่น ซีรีส์ smollm) โมเดลเหล่านี้มีขนาดเล็ก รวดเร็ว และเหมาะสำหรับสถานการณ์ที่จำกัดทรัพยากรหรือไวต่อความหน่วง

  • ความต้องการที่มั่นคงสำหรับโมเดลขนาดเล็กในช่วง 1B-4B: โมเดลที่มีขนาดพารามิเตอร์ เช่น "1.5B", "1.8B", "3.2B", "4.3B" ก็เป็นที่ชื่นชอบของผู้ใช้ส่วนหนึ่งเช่นกัน

  • โมเดลขนาดใหญ่กว่า 10B: เช่น "13B", "12.2B", "32.8B", "14.8B" แม้ว่าจะไม่มีการใช้งาน IP ที่ไม่ซ้ำกันมากเท่าระดับ 7-8B แต่ก็ยังมีปริมาณการใช้งานจำนวนมาก ซึ่งบ่งชี้ถึงความต้องการของชุมชนสำหรับโมเดลที่มีความสามารถมากขึ้น แม้ว่าจะมีข้อกำหนดด้านฮาร์ดแวร์ที่สูงขึ้นก็ตาม

6.5 สถิติระดับการควอนไทซ์ยอดนิยมสูงสุด

ระดับการควอนไทซ์ของโมเดล (ฟิลด์ details.quantization_level) สะท้อนถึงความแม่นยำของน้ำหนักที่โมเดลนำมาใช้เพื่อลดขนาดและเร่งการอนุมาน ด้านล่างนี้คือระดับการควอนไทซ์ที่มีจำนวนการใช้งานสูงกว่า:

อันดับ

ระดับการควอนไทซ์ (สตริงดั้งเดิม)

การใช้งาน IP ที่ไม่ซ้ำกัน (โดยประมาณ)

จำนวนอินสแตนซ์การใช้งานทั้งหมด (โดยประมาณ)

1

Q4_K_M

~20966

~53688

2

Q4_0

~18385

~88653

3

Q4_K_S

~9860

~21028

4

F16

~5793

~9837

5

Q8_0

~596

~1574

6

unknown

~266

~1318

7

Q5_K_M

~97

~283

8

F32

~85

~100

9

Q6_K

~60

~178

10

Q2_K

~54

~140

สถิติระดับการควอนไทซ์ยอดนิยมสูงสุดของ Ollama

(หมายเหตุ: ค่าต่างๆ เป็นค่าโดยประมาณตามข้อมูลสรุปของข้อมูลการควอนไทซ์จากรายการรายละเอียดโมเดล 50 อันดับแรกที่สอบถามก่อนหน้านี้)

ข้อสังเกตเบื้องต้น (ระดับการควอนไทซ์ยอดนิยม):

  • การควอนไทซ์ 4 บิตเป็นโซลูชันที่โดดเด่น: Q4_K_M, Q4_0 และ Q4_K_S ซึ่งเป็นระดับการควอนไทซ์ 4 บิตทั้งสามนี้ ครองอันดับสูงสุดอย่างแน่นอน สิ่งนี้บ่งชี้อย่างชัดเจนว่าชุมชนนำการควอนไทซ์ 4 บิตมาใช้อย่างกว้างขวางเป็นโซลูชันที่ต้องการเพื่อให้ได้ความสมดุลที่ดีที่สุดระหว่างประสิทธิภาพของโมเดล ความเร็วในการอนุมาน และการใช้ทรัพยากร (โดยเฉพาะ VRAM)

  • F16 (จุดลอยตัว 16 บิต) ยังคงมีบทบาทสำคัญ: ในฐานะเวอร์ชันที่ไม่ผ่านการควอนไทซ์ (หรือผ่านการควอนไทซ์เพียงเล็กน้อย) การใช้งาน F16 ในระดับสูงแสดงให้เห็นว่าผู้ใช้จำนวนมากเลือกใช้เพื่อ追求ความเที่ยงตรงของโมเดลสูงสุด หรือเพราะพวกเขามีทรัพยากรฮาร์ดแวร์เพียงพอ

  • Q8_0 (การควอนไทซ์ 8 บิต) เป็นส่วนเสริม: ให้ตัวเลือกระหว่าง 4 บิตและ F16

  • การปรากฏของค่า unknown: บ่งชี้ว่าข้อมูลระดับการควอนไทซ์หายไปหรือไม่เป็นมาตรฐานในเมทาดาทาของโมเดลบางตัว

6.6 การกระจายกำลังการประมวลผล AI (ตามขนาดพารามิเตอร์ของโมเดล): จีนเทียบกับสหรัฐอเมริกา

เพื่อให้เข้าใจลึกซึ้งยิ่งขึ้นว่าโมเดลขนาดต่างๆ ถูกนำไปใช้งานในประเทศหลักๆ อย่างไร เราได้จัดหมวดหมู่และนับขนาดพารามิเตอร์ของโมเดลที่ใช้งานบนอินสแตนซ์ Ollama ในสหรัฐอเมริกาและจีน ขนาดพารามิเตอร์มักถูกพิจารณาว่าเป็นตัวบ่งชี้ที่สำคัญของความซับซ้อนของโมเดลและความต้องการกำลังการประมวลผล AI ที่อาจเกิดขึ้น

มาตรฐานการจำแนกขนาดพารามิเตอร์:

  • เล็ก: < 1 พันล้านพารามิเตอร์ (< 1B)

  • กลาง: 1 พันล้าน ถึง < 10 พันล้านพารามิเตอร์ (1B ถึง < 10B)

  • ใหญ่: 10 พันล้าน ถึง < 50 พันล้านพารามิเตอร์ (10B ถึง < 50B)

  • ใหญ่พิเศษ: >= 50 พันล้านพารามิเตอร์ (>= 50B)

ตารางด้านล่างแสดงจำนวน IP ที่ไม่ซ้ำกันซึ่งใช้งานโมเดลขนาดพารามิเตอร์ต่างๆ ในสหรัฐอเมริกาและจีน:

ประเทศ

หมวดหมู่ขนาดพารามิเตอร์

จำนวน IP ที่ไม่ซ้ำกัน

จีน

เล็ก (<1B)

3313

จีน

กลาง (1B ถึง <10B)

4481

จีน

ใหญ่ (10B ถึง <50B)

1548

จีน

ใหญ่พิเศษ (>=50B)

280

สหรัฐอเมริกา

เล็ก (<1B)

1368

สหรัฐอเมริกา

กลาง (1B ถึง <10B)

6495

สหรัฐอเมริกา

ใหญ่ (10B ถึง <50B)

1301

สหรัฐอเมริกา

ใหญ่พิเศษ (>=50B)

58

ตารางด้านล่างแสดงจำนวน IP ที่ไม่ซ้ำกันซึ่งใช้งานโมเดลขนาดพารามิเตอร์ต่างๆ ในสหรัฐอเมริกาและจีน

ข้อมูลเชิงลึกและการวิเคราะห์:

  1. โมเดลขนาดกลางเป็นกระแสหลัก แต่มีจุดเน้นที่แตกต่างกัน:

    • สหรัฐอเมริกา: การใช้งานโมเดลขนาดกลาง (1B-10B) ครองตลาดในสหรัฐอเมริกาอย่างเด็ดขาด (IP ที่ไม่ซ้ำกัน 6495 รายการ)

    • จีน: โมเดลขนาดกลาง (IP ที่ไม่ซ้ำกัน 4481 รายการ) ก็เป็นประเภทที่มีการใช้งานมากที่สุดในจีนเช่นกัน แต่การใช้งานโมเดลขนาดเล็ก (<1B) ในจีน (IP ที่ไม่ซ้ำกัน 3313 รายการ) ก็มีจำนวนมากเช่นกัน

  2. ความแตกต่างอย่างมีนัยสำคัญในโมเดลขนาดเล็ก: การใช้งานโมเดลขนาดเล็กจำนวนมากในจีนอาจสะท้อนถึงความพึงพอใจในการประมวลผลแบบ Edge computing แอปพลิเคชัน AI บนมือถือ และสถานการณ์ที่คล้ายคลึงกัน

  3. การใช้งานโมเดลขนาดใหญ่และใหญ่พิเศษ: จีนแสดงกิจกรรมที่สูงขึ้นในการสำรวจโมเดลขนาดใหญ่และใหญ่พิเศษ (แม้ว่าจะมาจากฐานที่เล็กกว่า)

  4. การอนุมานเกี่ยวกับการลงทุนด้านกำลังการประมวลผลโดยรวม: ฐานของสหรัฐอเมริกาในโมเดลขนาดกลางแสดงให้เห็นถึงความแพร่หลายของการใช้งาน AI ในทางปฏิบัติ จีนมีความได้เปรียบในโมเดลขนาดเล็กและกำลังสำรวจโมเดลขนาดใหญ่อย่างแข็งขัน

  5. ผลกระทบต่อแนวโน้มทั่วโลก: โมเดลขนาดกลางน่าจะเป็นที่นิยมทั่วโลก ภูมิภาคต่างๆ อาจมีกลยุทธ์การนำโมเดลไปใช้ที่แตกต่างกันไปตามระบบนิเวศและเงื่อนไขทรัพยากรของตน

โดยการแบ่งส่วนขนาดพารามิเตอร์ของโมเดลในจีนและสหรัฐอเมริกา เราสามารถเห็นจุดเน้นที่แตกต่างกันและศักยภาพในการพัฒนาของแอปพลิเคชัน Ollama ในทั้งสองประเทศ

7. ข้อมูลเชิงลึกเกี่ยวกับเครือข่าย

7.1 การใช้งานพอร์ต

  • 11434 (พอร์ตเริ่มต้น): ส่วนใหญ่ (IP ที่ไม่ซ้ำกัน 30,722 รายการ) ของอินสแตนซ์ Ollama ทำงานบนพอร์ตเริ่มต้น 11434

  • พอร์ตทั่วไปอื่นๆ: พอร์ตเช่น 80 (IP ที่ไม่ซ้ำกัน 1,619 รายการ), 8080 (IP ที่ไม่ซ้ำกัน 1,571 รายการ), 443 (IP ที่ไม่ซ้ำกัน 1,339 รายการ) เป็นต้น ก็มีการใช้งานเช่นกัน ซึ่งอาจบ่งชี้ว่าบางอินสแตนซ์ถูกปรับใช้หลังพร็อกซีย้อนกลับ หรือผู้ใช้ได้ปรับแต่งพอร์ต

7.2 การใช้งานโปรโตคอล

  • HTTP: IP ที่ไม่ซ้ำกันประมาณ 65,506 รายการมีอินสแตนซ์ที่ให้บริการผ่านโปรโตคอล HTTP

  • HTTPS: IP ที่ไม่ซ้ำกันประมาณ 43,765 รายการมีอินสแตนซ์ที่ให้บริการผ่านโปรโตคอล HTTPS

อินสแตนซ์ส่วนใหญ่ยังคงเปิดเผยผ่าน HTTP ที่ไม่ได้เข้ารหัส ซึ่งอาจก่อให้เกิดความเสี่ยงด้านความปลอดภัยบางประการ (โปรดทราบ: IP อาจรองรับทั้ง HTTP และ HTTPS ดังนั้นผลรวมของจำนวน IP ที่นี่อาจเกินจำนวน IP ที่ไม่ซ้ำกันทั้งหมด)

7.3 ผู้ให้บริการโฮสติ้งหลัก (องค์กร AS)

การโฮสต์อินสแตนซ์ Ollama มีความเข้มข้นสูงในกลุ่มผู้ให้บริการคลาวด์

อันดับ

องค์กร AS

จำนวน IP ที่ไม่ซ้ำกัน

ผู้ให้บริการหลักที่เกี่ยวข้อง

1

AMAZON-02

53658

AWS

2

AMAZON-AES

5539

AWS

3

Chinanet

4964

ไชน่า เทเลคอม

4

Hangzhou Alibaba Advertising Co.,Ltd.

2647

อาลีบาบา คลาวด์

5

HENGTONG-IDC-LLC

2391

ผู้ให้บริการโฮสติ้ง

6

Shenzhen Tencent Computer Systems Company Limited

1682

เทนเซ็นต์ คลาวด์

7

CHINA UNICOM China169 Backbone

1606

ไชน่า ยูนิคอม

8

Hetzner Online GmbH

972

Hetzner

9

China Unicom Beijing Province Network

746

ไชน่า ยูนิคอม (ปักกิ่ง)

10

LEASEWEB-USA-LAX

735

Leaseweb

การโฮสต์อินสแตนซ์ Ollama มีความเข้มข้นสูงในกลุ่มผู้ให้บริการคลาวด์

AWS (AMAZON-02, AMAZON-AES) ครองส่วนแบ่งตลาดที่ใหญ่ที่สุด ตามมาด้วยผู้ให้บริการโทรคมนาคมรายใหญ่ของจีนและผู้ให้บริการคลาวด์ (เช่น Alibaba Cloud, Tencent Cloud) ผู้ให้บริการโฮสติ้งรายอื่น เช่น Hetzner และ Leaseweb ก็มีส่วนแบ่งที่สำคัญเช่นกัน

8. ความปลอดภัยและข้อสังเกตอื่นๆ

  • ข้อมูลเวอร์ชัน: ด้วยเหตุผลด้านความปลอดภัย เราไม่ได้ระบุสถิติเกี่ยวกับเวอร์ชันของ Ollama

  • ความเสี่ยงจากการเปิดเผย HTTP: ดังที่ได้กล่าวไว้ก่อนหน้านี้ อินสแตนซ์ Ollama จำนวนมากถูกเปิดเผยผ่าน HTTP โดยไม่มีการเข้ารหัส TLS ซึ่งอาจทำให้เนื้อหาการสื่อสาร (เช่น การโต้ตอบกับโมเดล) เสี่ยงต่อการดักฟังหรือการแก้ไข ผู้ใช้ควรตั้งค่าพร็อกซีย้อนกลับและเปิดใช้งาน HTTPS

  • การเข้าถึง API: ข้อมูลในรายงานนี้อ้างอิงจากอินสแตนซ์ Ollama ที่อินเทอร์เฟซ /api/tags สามารถเข้าถึงได้แบบสาธารณะ จำนวนการใช้งานจริงอาจสูงกว่านี้ แต่บางอินสแตนซ์อาจถูกปรับใช้ในเครือข่ายส่วนตัวหรือมีการจำกัดการเข้าถึงจากภายนอกโดยไฟร์วอลล์

9. สรุปและบทวิจารณ์สั้นๆ

รายงานนี้ โดยการวิเคราะห์ข้อมูลจากอินสแตนซ์ Ollama ที่เข้าถึงได้แบบสาธารณะทั่วโลกจำนวน 99,412 รายการ (ผ่านอินเทอร์เฟซ /api/tags ของพวกเขา) สรุปข้อค้นพบและข้อสังเกตหลักดังต่อไปนี้:

1. ภาพรวมการใช้งานทั่วโลกและการกระจายทางภูมิศาสตร์:

  • Ollama ในฐานะเครื่องมือที่สะดวกสำหรับการเรียกใช้โมเดลขนาดใหญ่ภายในเครื่อง ได้รับการปรับใช้อย่างกว้างขวางทั่วโลก การวิเคราะห์นี้ระบุ IP ที่ไม่ซ้ำกันที่เข้าถึงได้แบบสาธารณะจำนวน 99,412 รายการ

  • ความเข้มข้นทางภูมิศาสตร์สูง: สหรัฐอเมริกาและจีนเป็นสองประเทศ/ภูมิภาคที่มีการใช้งาน Ollama อย่างหนาแน่นที่สุด โดยรวมกันคิดเป็นสัดส่วนที่สำคัญของอินสแตนซ์ที่เข้าถึงได้ทั้งหมด (สหรัฐอเมริกา 29,195, จีน 16,464) ประเทศต่างๆ เช่น ญี่ปุ่น เยอรมนี สหราชอาณาจักร อินเดีย และสิงคโปร์ ก็มีจำนวนการใช้งานที่น่าสังเกตเช่นกัน

  • จุดความนิยมในเมือง: ในสหรัฐอเมริกา เมืองต่างๆ เช่น แอชเบิร์น พอร์ตแลนด์ และโคลัมบัส เป็นผู้นำในการใช้งาน ในจีน เมืองที่มีความก้าวหน้าทางเทคโนโลยี เช่น ปักกิ่ง หางโจว เซี่ยงไฮ้ และกว่างโจว เป็นสถานที่ใช้งานหลัก ซึ่งมักเกี่ยวข้องกับการกระจุกตัวของบริษัทเทคโนโลยี ศูนย์ข้อมูล และชุมชนนักพัฒนา

2. แนวโน้มการใช้งานโมเดล AI:

  • แท็กโมเดลยอดนิยม: แท็กล่าสุดทั่วไป เช่น llama3:latest, deepseek-r1:latest, mistral:latest, qwen:latest เป็นที่นิยมมากที่สุด เวอร์ชันที่ปรับให้เหมาะสมโดยเฉพาะ เช่น llama3:8b-text-q4_K_S ก็เป็นที่ชื่นชอบเช่นกันเนื่องจากมีความสมดุลที่ดี

  • ตระกูลโมเดลที่โดดเด่น: ตระกูล llama เป็นผู้นำอย่างเด็ดขาด ตามมาด้วย qwen2 การจัดอันดับที่สูงของตระกูลโมเดลการฝัง เช่น nomic-bert และ bert เป็นสิ่งที่น่าสังเกต ซึ่งอาจเกี่ยวข้องกับพฤติกรรมเริ่มต้นของ Ollama

  • ความพึงพอใจในขนาดพารามิเตอร์: โมเดลที่มีพารามิเตอร์ 7B-8B เป็นกระแสหลักในปัจจุบัน โมเดลน้ำหนักเบาระดับล้านพารามิเตอร์และโมเดลขนาดใหญ่กว่า 10B ก็มีตลาดของตนเองเช่นกัน การเปรียบเทียบระหว่างสหรัฐอเมริกาและจีนแสดงให้เห็นว่าสหรัฐอเมริกาใช้งานโมเดลขนาดกลางมากกว่า ในขณะที่จีนมีความกระตือรือร้นในการสำรวจโมเดลขนาดเล็กและใหญ่พิเศษมากกว่า

  • ตัวเลือกระดับการควอนไทซ์: การควอนไทซ์ 4 บิต (โดยเฉพาะ Q4_K_M และ Q4_0) เป็นตัวเลือกที่ล้นหลาม F16 ในฐานะตัวเลือกที่มีความเที่ยงตรงสูงกว่า ก็มีตำแหน่งที่สำคัญเช่นกัน

  • ความซับซ้อนของเมทาดาทา: การวิเคราะห์เมทาดาทาของโมเดล (เช่น การตีความฟิลด์ตระกูลโมเดล) บางครั้งเผยให้เห็นความซับซ้อนระหว่างบันทึกและชื่อโมเดลหรือความเข้าใจทั่วไป ซึ่งเน้นย้ำถึงความหลากหลายของการจัดการเมทาดาทาในระบบนิเวศโอเพนซอร์ส

3. โครงสร้างพื้นฐานทางเทคนิค:

  • สภาพแวดล้อมการโฮสต์: อินสแตนซ์ Ollama จำนวนมากโฮสต์อยู่บนผู้ให้บริการคลาวด์รายใหญ่ เช่น AWS, Alibaba Cloud, Tencent Cloud รวมถึงในเครือข่ายของผู้ให้บริการโทรคมนาคมรายใหญ่ระดับประเทศ

  • พอร์ตบริการ: พอร์ตเริ่มต้นของ Ollama 11434 เป็นพอร์ตที่ใช้บ่อยที่สุด แต่ก็มีอินสแตนซ์จำนวนมากที่เปิดเผยผ่านพอร์ตเว็บมาตรฐานเช่นกัน

4. การประเมินตามวัตถุประสงค์:

  • ความนิยมของ Ollama: ข้อมูลแสดงให้เห็นอย่างชัดเจนถึงอัตราการนำ Ollama ไปใช้ในระดับสูงในหมู่นักพัฒนาและผู้ที่ชื่นชอบ AI ทั่วโลก

  • ความมีชีวิตชีวาของระบบนิเวศโอเพนซอร์ส: ความหลากหลายของโมเดลยอดนิยมและการใช้งานพารามิเตอร์และเวอร์ชันการควอนไทซ์ต่างๆ อย่างแพร่หลาย สะท้อนให้เห็นถึงการพัฒนาที่เฟื่องฟูของระบบนิเวศโมเดล AI แบบโอเพนซอร์ส

  • ความสมดุลในความพึงพอใจของผู้ใช้: เมื่อเลือกโมเดล ผู้ใช้มักจะมองหาความสมดุลระหว่างความสามารถของโมเดล ประสิทธิภาพในการดำเนินงาน และต้นทุนฮาร์ดแวร์

  • ความปลอดภัยและการเปิดกว้าง: อินสแตนซ์จำนวนมากอนุญาตให้เข้าถึงรายการโมเดลของตนแบบสาธารณะ ซึ่งแม้จะสะดวกสำหรับชุมชน แต่อาจก่อให้เกิดความเสี่ยงด้านความปลอดภัยได้เช่นกัน

5. แนวโน้มในอนาคต:

  • ด้วยการเกิดขึ้นของโมเดลขนาดเล็กที่มีประสิทธิภาพมากขึ้นและความก้าวหน้าเพิ่มเติมในเทคโนโลยีการควอนไทซ์ คาดว่าอุปสรรคในการใช้งาน Ollama จะลดลงอย่างต่อเนื่อง

  • การกำหนดมาตรฐานของเมทาดาทาโมเดลและโมเดลที่ใช้ร่วมกันในชุมชนมีความสำคัญอย่างยิ่งต่อการเพิ่มความโปร่งใสและการใช้งานของระบบนิเวศ

โดยสรุป Ollama กำลังกลายเป็นสะพานสำคัญที่เชื่อมโยงโมเดลภาษาขนาดใหญ่ที่ล้ำสมัยเข้ากับนักพัฒนา นักวิจัย และแม้แต่ผู้ใช้ทั่วไปในวงกว้าง การวิเคราะห์ข้อมูลนี้ให้ข้อมูลเชิงลึกที่มีคุณค่าสำหรับการทำความเข้าใจสถานะการใช้งานทั่วโลกในปัจจุบันและความพึงพอใจของผู้ใช้

ความคิดเห็น

comments.comments (0)

Please login first

Sign in