4 ก.พ. 2568 ศ.ดร.สุชัชวีร์ สุวรรณสวัสดิ์ นายกสภามหาวิทยาลัยซีเอ็มเคแอล และอดีตอธิการบดีสถาบันเทคโนโลยีพระจอมเกล้าเจ้าคุณทหารลาดกระบัง (สจล.) เขียนบทความ “DeepSeek AI กระบี่อยู่ที่ใจ” เผยแพร่ผ่านเฟซบุ๊ก “เอ้ สุชัชวีร์” เมื่อวันที่ 3 ก.พ. 2568 เนื้อหาดังนี้
ทำไม AI จีนถึงเก่งได้ แล้วไทยจะอยู่อย่างไร
"ความมหัศจรรย์" และ "ความน่าสงสัย" ของ "แฟลตฟอร์ม AI" สะท้านโลก "DeepSeek" จากแดนมังกร คืออะไร ผมมีคำตอบ พยายามอธิบายเรื่อง "ยากมาก" แบบง่ายๆครับ
การพัฒนา AI ระดับสูง จำเป็นต้องใช้ปัจจัย 3 ด้าน และทำไม "DeepSeek" ถึง "มหัศจรรย์" ปนความ "น่าสงสัย"
1. "พลังการคำนวณ" จาก "ฮาร์ดแวร์" เครื่องซูเปอร์คอมพิวเตอร์ AI ซึ่ง "Nvidia" คือ ผู้นำในการผลิต "GPU" หรือ หน่วยประมวลผลข้อมูล ยิ่งมี GPU เยอะ ก็ยิ่งมี "ประสิทธิภาพ" หรือ "ความเร็ว" ในการคำนวณมากยิ่งขึ้นตาม
มักใช้หน่วย "ความเร็ว PetaFLOPS (PFLOPS)" ซึ่งเป็นหน่วยวัดประสิทธิภาพของการคำนวณ โดย 1 PFLOPS = 1,000 ล้านล้าน (10¹⁵) เลขทศนิยมต่อวินาที
ปัจจุบัน "อีลอน มัสก์" กำลังจะติดตั้งซูเปอร์คอมพิวเตอร์ AI ของบริษัท xAI ที่รัฐเทนเนสซี โดยซื้อ GPU รุ่นล่าสุด "ทันสมัยสุด" B200 จาก Nvidia ของ "เจนเซ่น หวง" ถึง 200,000 ชุด มากที่สุดในโลก โดยมีความเร็วในการคำนวณ หลายแสน PetaFLOPS คือ "โคตรเร็ว"
แต่ "DeepSeek" ใช้ "ฮาร์ดแวร์" GPU รุ่นเก่า H800 ของ Nvidia เพียง 2,000 ชุด แถมยัง "ถูกลดสเปค" เพราะโดนกีดกันจากรัฐบาลสหรัฐ ความเร็วน้อยกว่าเครื่องของ "อีลอน มัสก์" เป็นร้อยหรืออาจถึงพันเท่า
นี่จึงเป็น "ความมหัศจจรย์เรื่องแรก" ที่ "ค่าย AI จีน" ใช้ทรัพยากรน้อยกว่านับร้อยเท่า เมื่อเปรียบเทียบกับ "ค่าย AI อเมริกัน"
2. "โมเดล" หรือ "ซอฟต์แวร์" ที่ใช้เป็นชุดคำสั่งการคำนวณ AI มีความสำคัญมาก เพราะยิ่งมีอัลกอรึทึมที่มี "ตัวแปร" เยอะก็ครอบคลุมการคำนวณข้อมูลที่ "ละเอียด" ได้มากกว่า
โมเดลที่นิยมสำหรับการคำนวณ Generative AI ที่เราใช้กันอยู่หรือที่เรียกกันว่า LLM (Large Language Model) หรือ GPT (Generative Pre-trained Transformer) คือ โมเดลปัญญาประดิษฐ์ขนาดใหญ่มาก ที่ได้รับการฝึกฝนบนข้อมูลข้อความจำนวนมหาศาล เพื่อตอบสนองข้อความ ได้อย่างซับซ้อนและเป็นธรรมชาติ
"DeepSeek" เป็น LLM ที่มีตัวแปรมากถึง "685,000 ล้าน!" ตัวแปร ซึ่งมากกว่าตัวแปรของ LLM Opensource ตัวอื่น แต่ที่แตกต่างคือ DeepSeek เป็นโมเดลรุ่นแรกที่ฝึกด้วย 8-bit floating point (FP8) ที่ช่วยลดปริมาณการใช้ GPU แต่ยังสามารถมีตัวแปรจำนวนมาก ในขณะที่โมเดลก่อนหน้านี้ใช้ FP16 ซึ่งทำให้ต้องใช้ GPU ที่มีหน่วยความจำสูงกว่า DeepSeek กว่า 2 เท่า
นี่คือ "ความมหัศจรรย์เรื่องที่สอง" ที่ทำให้ "DeepSeek" มีประสิทธิภาพสูงในต้นทุนที่ต่ำกว่าค่ายอื่น
3. "ข้อมูลขนาดมหึมา" หรือ Big Data ให้อัลกอรึทึม AI ได้ "เรียนรู้" เพื่อสร้างความฉลาดล้ำเมื่อถูกใช้งาน ซึ่งการได้มาของข้อมูลขนาดมหึมานี้ เป็นความ "น่าสงสัย" ในตัว "DeepSeek" และ แพลตฟอร์ม AI แทบทุกสำนัก เพราะแหล่งข้อมูลมีทั้งจากข้อมูลสาธารณะ ข้อมูลเฉพาะ ข้อมูลบุคคล ข้อมูลธุรกิจ ข้อมูลมีลิขสิทธิ์ และข้อมูลที่ AI สร้างเอง ซึ่งมีผลต่อประสิทธิภาพการคำนวณทั้งสิ้น
นี่คือ "ความมหัศจรรย์เรื่องที่สาม" ว่า "DeepSeek" ได้ข้อมูลขนาดมหึมานี้ ในเวลาสั้นๆ จากแหล่งใด
ดังนั้น "การไขความลับ" แห่งความสำเร็จของ "DeepSeek" จึงยังคงเป็นปริศนา และยังมีเรื่อง "งบประมาณ" ที่ใช้ซึ่งน้อยมากจนเหลือเชื่อ
กระนั้นต้อง "ยอมรับ" ชื่นชมในความสามารถและความมุ่งมั่นของ "คนจีน" ที่ไม่ยอมแพ้ต่อข้อจำกัด #จะทำก็ทำได้ แล้ว "คนไทย" เราจะสิโรราบต่อ "ชะตา" เชียวหรือ ทิ้งท้ายไว้ให้คิดนะครับ
ศาสตราจารย์ ดร.สุชัชวีร์ สุวรรณสวัสดิ์
นายกสภามหาวิทยาลัย CMKL
มหาวิทยาลัย AI แห่งแรกของไทย
#deepseek #ai #cmkl #เอ้สุชัชวีร์
ขอบคุณเรื่องจาก
https://www.facebook.com/photo/?fbid=1210031820482637&set=a.255361662616329&locale=th_TH
โปรดอ่านก่อนแสดงความคิดเห็น
1.กรุณาใช้ถ้อยคำที่ สุภาพ เหมาะสม ไม่ใช้ ถ้อยคำหยาบคาย ดูหมิ่น ส่อเสียด ให้ร้ายผู้อื่น สร้างความแตกแยกในสังคม งดการใช้ถ้อยคำที่ดูหมิ่นหรือยุยงให้เกลียดชังสถาบันชาติ ศาสนา พระมหากษัตริย์
2.หากพบข้อความที่ไม่เหมาะสม สามารถแจ้งได้ที่อีเมล์ online@naewna.com โดยทีมงานและผู้จัดทำเว็บไซด์ www.naewna.com ขอสงวนสิทธิ์ในการลบความคิดเห็นที่พิจารณาแล้วว่าไม่เหมาะสม โดยไม่ต้องชี้แจงเหตุผลใดๆ ทุกกรณี
3.ขอบเขตความรับผิดชอบของทีมงานและผู้ดำเนินการจัดทำเว็บไซด์ อยู่ที่เนื้อหาข่าวสารที่นำเสนอเท่านั้น หากมีข้อความหรือความคิดเห็นใดที่ขัดต่อข้อ 1 ถือว่าเป็นกระทำนอกเหนือเจตนาของทีมงานและผู้ดำเนินการจัดทำเว็บไซด์ และไม่เป็นเหตุอันต้องรับผิดทางกฎหมายในทุกกรณี