สงครามอวกาศ คือสงครามที่หลาย ๆ บริษัท ต่างแข่งกันวิจัยและพัฒนา เพื่อสร้างโครงสร้างพื้นฐานสำคัญบนนั้น และเป็น Winner Takes All ให้ได้ เพราะบนอวกาศ เต็มไปด้วยโอกาสทางธุรกิจมหาศาล
https://www.facebook.com/share/p/1Ba2ruqAkv/?mibextid=wwXIfr
โดยตัวเต็งหลัก ๆ ในศึกอวกาศตอนนี้ ก็มี
- โครงการ Starship ของ SpaceX ที่พัฒนายานอวกาศ และจรวดขนส่งที่สามารถนำกลับมาใช้ใหม่ได้
- โครงการ Kuiper ของ Amazon ที่ออกแบบดาวเทียมวงโคจรต่ำ โดยให้บริการอินเทอร์เน็ตบรอดแบนด์ความเร็วสูงทั่วโลก
- โครงการ Electron ของ Rocket Lab ที่ออกแบบยานขนส่งมวลชนขนาดเล็ก สำหรับขนส่งผู้โดยสาร สัมภาระขนาดใหญ่ หรือส่งออกไปทำภารกิจต่าง ๆ
และล่าสุดบริษัท Alphabet เจ้าของ Google และ Gemini
กำลังมีโปรเจกต์ชื่อ Suncatcher ที่จะสร้าง Data Center นอกโลกบนอวกาศไปเลย
โดยมีรายงานว่า Google วางแผนจะติดตั้ง Data Center สำหรับ AI บนอวกาศ ภายในปี 2027
แล้วทำไม Google ถึงตัดสินใจแบบนั้น ?
ลงทุนแมนจะเล่าให้ฟัง
คาดการณ์กันว่าในปัจจุบัน มีศูนย์ข้อมูล Data Center อยู่ทั่วโลกประมาณ 8,000 แห่ง
ซึ่งมีทั้ง Data Center สำหรับเซิร์ฟเวอร์เก็บข้อมูลบนคลาวด์ และการประมวลผลด้าน AI
การสร้าง Data Center โดยทั่วไป ก็จะกินพื้นที่โดยเฉลี่ยประมาณ 20,000 ตารางเมตร
โดยถ้าเป็นศูนย์ข้อมูลขนาดใหญ่ สำหรับการประมวลผลด้าน AI โดยเฉพาะ ในบางแห่งก็อาจใช้พื้นที่มากถึง 100,000-200,000 ตารางเมตร หรือใหญ่กว่าพื้นที่เช่าของศูนย์การค้าเซ็นทรัล 1-2 สาขา
ซึ่งตอนนี้มีการคาดการณ์ว่า มี Data Center ที่เป็นคลังข้อมูลของทั้งโลกอยู่มากถึง 160,000,000 ตารางเมตร หรือเทียบเท่ากับ 160 ตารางกิโลเมตร เทียบเท่ากับสนามฟุตบอล ประมาณ 22,400 สนาม..
มาถึงเรื่องการใช้พลังงาน ก็ต้องบอกว่าโมเดล AI 1 ตัว
จะใช้ทรัพยากรทั้ง “น้ำ” และ “ไฟ” ปริมาณมหาศาลในการประมวลผล
1) เริ่มจากการใช้ “น้ำ”
เวลาที่เรา Prompt AI ด้วยคำถาม 1 คำถาม
สิ่งที่เรา Prompt ก็จะส่งผ่านระบบคอมพิวเตอร์ของเรา ผ่าน API มาถึงเซิร์ฟเวอร์ของ Data Center และ Data Center ก็จะไปประมวลผลผ่าน CPU และ GPU ที่อยู่ในเซิร์ฟเวอร์
เมื่อหลายคนยิ่ง Prompt บ่อยและนานเข้า ตัวเซิร์ฟเวอร์ของ Data Center ที่เป็นหน่วยประมวลผลของ CPU และ GPU นั้นจะร้อนมาก ๆ
จนอุณหภูมิภายในเซิร์ฟเวอร์สูงเกินกว่า 80-90 องศาเซลเซียส
ซึ่งถ้าควบคุมอุณหภูมิได้ไม่ดี อาจทำให้ประสิทธิภาพในการประมวลผลตกลง และทำให้อุปกรณ์ที่อยู่ภายในเซิร์ฟเวอร์ อย่าง CPU และ GPU เสียหายได้
ซึ่งตรงจุดนี้เองก็เป็น Pain Point ที่หลาย ๆ บริษัท Data Center จำเป็นต้องหาวิธีระบายความร้อน
โดยหนึ่งในตัวกลาง ที่สามารถระบายความร้อนได้ดีก็คือ “น้ำ” นี่เอง
โดยเจ้าของ Data Center รายใหญ่อย่าง Google, Microsoft หรือ Amazon จะใช้วิธีการระบายความร้อนด้วยน้ำ หรือที่เรียกว่า Water Cooling เพื่อดึงความร้อนออกจากเซิร์ฟเวอร์ ที่จะต้องทำงานตลอด 24 ชั่วโมง
จากสถิติปี 2023 พบว่า Google ได้ใช้น้ำเพื่อทำการ Cooling หรือทำการระบายความร้อนให้กับเซิร์ฟเวอร์ Data Center เป็นจำนวนมากถึง 66,000 ล้านลิตร ซึ่งถือว่ามีปริมาตร เทียบเท่ากับสระว่ายน้ำมาตรฐานโอลิมปิกถึง 26,400 สระเลยทีเดียว
ซึ่งแน่นอนว่าเมื่อ Google ออก Gemini ตัวใหม่
หรือแม้แต่ OpenAI ที่ออก ChatGPT เวอร์ชันใหม่ ๆ ขึ้นมา
ก็ย่อมที่จะทำให้ทั้งชิป CPU และชิป GPU จำเป็นต้องใช้พลังงานในการประมวลผลมากขึ้น
และจะทำให้เซิร์ฟเวอร์ Data Center ต้องการน้ำ มาใช้ในการระบายความร้อนมากขึ้นด้วย
เมื่อมีปัญหาแบบนี้ ก็ทำให้ผู้พัฒนาชิป และโครงสร้างพื้นฐานสำหรับ AI ต่างก็ต้องออกแบบชิป เพื่อให้ประหยัดพลังงานในการประมวลผล หรือพยายามออกแบบระบบ Data Center ให้สามารถระบายความร้อนได้อย่างรวดเร็ว
ยกตัวอย่างเช่น
- NVIDIA หรือ AMD นอกจากจะออกแบบชิป GPU ให้ประมวลผล AI ได้รวดเร็วขึ้นแล้ว ยังต้องออกแบบชิปให้ใช้พลังงานในการประมวลผลต่อหน่วย น้อยลงไปด้วย
- บริษัทเซิร์ฟเวอร์ที่รับทำ Module อย่าง DELTA ก็ต้องออกแบบส่วนประกอบ ให้สามารถระบายความร้อนจากการประมวลผล AI ให้ได้มากที่สุด
และภายในศูนย์ Data Center ทุกศูนย์ ไม่ว่าจะเป็น AWS, Google Cloud หรือ Azure ก็จำเป็นต้องพึ่งพาบริษัท ที่เชี่ยวชาญในด้านการทำความเย็น หรือ Solutions สำหรับทำ Liquid Cooling เพื่อเพิ่มประสิทธิภาพในการประมวลผล
อย่างบริษัทที่ทำอยู่ก็มี Schneider Electric, DELL Technologies, Vertiv และ ABB เพื่อรักษาอุณหภูมิให้เซิร์ฟเวอร์ หรือ Data Center ให้คงที่
ซึ่งหลาย ๆ บริษัท ก็พยายามหาทางที่จะรักษาความเสถียรของการประมวลผลข้อมูล โดยใช้ทรัพยากรต่าง ๆ บนโลกใบนี้ให้น้อยที่สุด เพื่อลดผลกระทบต่อสิ่งแวดล้อม
2) ทีนี้มาถึงเรื่องการใช้ “ไฟฟ้า”
โมเดล AI 1 ตัวใช้พลังงานไฟฟ้ามากพอ ๆ กับโรงไฟฟ้านิวเคลียร์ขนาดใหญ่ 1 โรงเลยทีเดียว
ถ้าเราไปดู Gemini 2.5 ซึ่งเป็นโมเดล AI รุ่นล่าสุดของ Google
เวลาที่เราตั้งคำถาม Prompt AI Gemini 1 ครั้ง ใน 1 คำถาม จะมีการใช้โทเคนเฉลี่ย 50-200 โทเคน
จากในไตรมาสล่าสุดที่ Alphabet เจ้าของ Google ได้แถลงผลประกอบการ
Google ได้พูดถึงอัตราการใช้ Gemini ด้วยว่าตอนนี้ AI Gemini ใช้โทเคนในการประมวลผลข้อมูลไปกว่า 7,000 ล้านโทเคนต่อนาที
คิดเป็นปริมาณการใช้ไฟบ้านที่ 5,760,000 ยูนิตต่อวัน เทียบเท่ากับปริมาณการใช้ไฟฟ้าภายในบ้านคนไทยกว่า 500,000 หลังคาเรือน
เมื่อลองคำนวณเป็นกำลังการผลิตไฟฟ้าของโรงไฟฟ้า ให้พอกับกำลังในการ Prompt ที่เรต 7,000 ล้านโทเคนต่อนาที เราจะพบว่าพลังงานที่ Gemini ใช้ในการ Prompt นั้นอยู่ที่ 240 MW
ด้วยพลังงานเท่านี้ ยังไม่นับรวมพลังงานไฟฟ้าที่ AI อย่าง Gemini ใช้ในการเทรนนิงโมเดลของตัวเอง ให้แม่นยำและมีประสิทธิภาพมากขึ้น
โดยในช่วงพีก ได้คาดการณ์ว่า AI Gemini ใช้พลังงานในการเทรนนิงมากที่ 1,000 MW หรือเทียบเท่ากับปริมาณไฟฟ้าที่โรงไฟฟ้าขนาดใหญ่ผลิตได้ 1 โรงเลยทีเดียว
ทั้งการประมวลผลจากการ Prompt ไปจนถึงการเทรนนิงโมเดล ก็จำเป็นต้องใช้ไฟฟ้าไม่ต่ำกว่า 1,200 MW ซึ่งถือว่าเป็นตัวเลขที่เยอะมาก ๆ
เทียบเท่ากับการผลิตไฟฟ้าของโรงไฟฟ้าขนาดใหญ่
และจำเป็นต้องใช้ทรัพยากรเยอะมาก ๆ เพื่อมาผลิตไฟฟ้าด้วย
อย่างเช่น ถ่านหิน ก๊าซธรรมชาติ หรือจำเป็นต้องใช้น้ำจำนวนมหาศาล ถ้าเลือกใช้พลังงานนิวเคลียร์
และปีต่อ ๆ ไป ก็คาดว่าจะใช้ไฟฟ้ามากขึ้นกว่านี้อีกหลายเท่า..
ตามจำนวนผู้ใช้งานที่มากขึ้น ตามความฉลาดของ AI ที่จะมากขึ้นเป็นทวีคูณ
และยิ่ง AI ฉลาดมากเท่าไร ก็ยิ่งต้องใช้พลังงานในการ Prompt เยอะกว่าเดิมมาก
โดยคาดว่าในปี 2028 Data Center สำหรับ AI จะใช้พลังงานเทียบเท่ากับการใช้ไฟฟ้าของครัวเรือนสหรัฐอเมริกามากถึง 22%
จากเทรนด์การใช้ AI ที่เติบโต ทำให้จำเป็นต้องใช้ทรัพยากรบนโลก อย่างไฟฟ้าและน้ำมากขึ้นเรื่อย ๆ
ดังนั้นบนอวกาศนอกโลก ก็อาจเป็นคำตอบสำหรับ Google ที่จะไปสร้าง Data Center ที่นั่น
ซึ่งการสร้าง Data Center บนอวกาศของ Google จะช่วยแก้ Pain Point ของการใช้ทรัพยากรบนโลก ในหลาย ๆ มุมทั้งในด้าน
- พื้นที่ คือสามารถลดปัญหาการใช้ที่ดิน ที่จะต้องใช้สร้างคลัสเตอร์ขนาดใหญ่เท่าเมือง
- ติดตั้งแผงโซลาร์เซลล์บนอวกาศ ที่สามารถดูดซับพลังงานแสงอาทิตย์ได้มากกว่าโลกถึง 8 เท่า
เพราะในอวกาศ ไม่มีชั้นบรรยากาศมาบดบัง หรือดูดซับพลังงานแสงอาทิตย์
นอกจากนี้โซลาร์เซลล์บนนอกโลกยังสามารถรับพลังงานได้ตลอด 24 ชั่วโมง
ทำให้การติดตั้งแผงโซลาร์เซลล์บนอวกาศ ตอบโจทย์เรื่องประสิทธิภาพมากกว่าแผงโซลาร์เซลล์บนโลกหลายสิบเท่า และสามารถประหยัดค่าใช้จ่ายได้ในระยะยาว
ซึ่ง Google ก็คาดหวังว่าโปรเจกต์ Suncatcher ที่นำ Data Center ขึ้นไปไว้บนอวกาศ จะช่วยให้โมเดล AI ของ Google ไม่จำเป็นต้องใช้พลังงานไฟฟ้าเป็นจำนวนมาก เทียบเท่ากับโรงไฟฟ้าขนาดใหญ่
แล้ว Google จะขนเซิร์ฟเวอร์ที่มีขนาดหลายร้อยตัน ขึ้นไปลอยบนอวกาศได้อย่างไร ?
ก็ต้องบอกว่า Google ได้เตรียมแผนการภารกิจอวกาศ มาตั้งแต่ปี 2015
โดย Google ได้เข้าไปร่วมระดมทุนใน SpaceX บริษัทวิจัยและพัฒนายานอวกาศของคุณอีลอน มัสก์
ร่วมกับ Fidelity Investments บริษัทจัดการกองทุนที่ใหญ่เป็นอันดับต้น ๆ ของโลก
ซึ่งจุดประสงค์หลัก ๆ ของการลงทุน SpaceX ในรอบนั้น ก็เพื่อต้องการใช้เครือข่ายดาวเทียม Starlink ของ SpaceX เพื่อขยายคลาวด์ของตัวเองไปยังพื้นที่ห่างไกล และไม่มีสัญญาณอินเทอร์เน็ต
จนตอนนี้ Google ก็ยังเพิ่มเงินระดมทุนขึ้นไปเรื่อย ๆ จนได้กลายเป็นผู้ถือหุ้นรายใหญ่ โดยมีสัดส่วนการถือหุ้น SpaceX อยู่ที่ 7.4%
และการขนย้ายวัตถุที่มีขนาดหลายร้อยตัน ขึ้นสู่วงโคจรด้วยยาน Starship ยานขนาดใหญ่ของ SpaceX นั้น สามารถขนขึ้นไปได้ในเชิงเทคนิค
แต่การทำแบบนี้ จะต้องสูญเสียต้นทุนในการดำเนินการมหาศาล
ทั้งต้นทุนการวิจัยและพัฒนายาน ให้ขนวัตถุขนาดใหญ่ ๆ ขึ้นไปได้ หรือต้นทุนค่าเชื้อเพลิงที่เยอะมาก ๆ
แถมยังมีเรื่องความไม่เสถียรของสัญญาณบนอวกาศ ที่ส่งมายังโลก
ทำให้หากมีการติดตั้ง Data Center บนอวกาศจริง ก็อาจทำให้การประมวลผลเกิดความล่าช้าไปด้วย
หรือก็คือ การตั้ง Data Center บนอวกาศ มีทั้งข้อดี และข้อเสีย ซึ่งก็ต้องชั่งน้ำหนักกัน
แต่จากการตัดสินใจของ Google คงคิดว่าสิ่งนี้คุ้มค่าต่อการลงทุน
ซึ่งเราก็ต้องดูต่อไปว่า โปรเจกต์ Suncatcher ของ Google นั้น จะประสบความสำเร็จตามที่คาดไหม
และการลงทุนโครงสร้างพื้นฐานอย่าง Data Center จะคุ้มค่าในระยะยาวหรือไม่ ?
ถ้าหากโปรเจกต์นี้เวิร์ก คุ้มค่า สามารถลดต้นทุนและประหยัดพลังงานได้จริง
ก็ไม่แน่ว่านอกจาก Google จะเป็นผู้นำด้าน Search Engine และ Generative AI อย่าง Gemini และ NotebookLM แล้ว
Google ก็อาจเป็นหนึ่งในตัวเต็งด้านอวกาศ ไม่ต่างจาก SpaceX, Amazon หรือ Rocket Lab ด้วยนั่นเอง..
ทำไม Google อยากสร้าง Data Center ที่นอกโลก ? /โดย ลงทุนแมน
https://www.facebook.com/share/p/1Ba2ruqAkv/?mibextid=wwXIfr
โดยตัวเต็งหลัก ๆ ในศึกอวกาศตอนนี้ ก็มี
- โครงการ Starship ของ SpaceX ที่พัฒนายานอวกาศ และจรวดขนส่งที่สามารถนำกลับมาใช้ใหม่ได้
- โครงการ Kuiper ของ Amazon ที่ออกแบบดาวเทียมวงโคจรต่ำ โดยให้บริการอินเทอร์เน็ตบรอดแบนด์ความเร็วสูงทั่วโลก
- โครงการ Electron ของ Rocket Lab ที่ออกแบบยานขนส่งมวลชนขนาดเล็ก สำหรับขนส่งผู้โดยสาร สัมภาระขนาดใหญ่ หรือส่งออกไปทำภารกิจต่าง ๆ
และล่าสุดบริษัท Alphabet เจ้าของ Google และ Gemini
กำลังมีโปรเจกต์ชื่อ Suncatcher ที่จะสร้าง Data Center นอกโลกบนอวกาศไปเลย
โดยมีรายงานว่า Google วางแผนจะติดตั้ง Data Center สำหรับ AI บนอวกาศ ภายในปี 2027
แล้วทำไม Google ถึงตัดสินใจแบบนั้น ?
ลงทุนแมนจะเล่าให้ฟัง
คาดการณ์กันว่าในปัจจุบัน มีศูนย์ข้อมูล Data Center อยู่ทั่วโลกประมาณ 8,000 แห่ง
ซึ่งมีทั้ง Data Center สำหรับเซิร์ฟเวอร์เก็บข้อมูลบนคลาวด์ และการประมวลผลด้าน AI
การสร้าง Data Center โดยทั่วไป ก็จะกินพื้นที่โดยเฉลี่ยประมาณ 20,000 ตารางเมตร
โดยถ้าเป็นศูนย์ข้อมูลขนาดใหญ่ สำหรับการประมวลผลด้าน AI โดยเฉพาะ ในบางแห่งก็อาจใช้พื้นที่มากถึง 100,000-200,000 ตารางเมตร หรือใหญ่กว่าพื้นที่เช่าของศูนย์การค้าเซ็นทรัล 1-2 สาขา
ซึ่งตอนนี้มีการคาดการณ์ว่า มี Data Center ที่เป็นคลังข้อมูลของทั้งโลกอยู่มากถึง 160,000,000 ตารางเมตร หรือเทียบเท่ากับ 160 ตารางกิโลเมตร เทียบเท่ากับสนามฟุตบอล ประมาณ 22,400 สนาม..
มาถึงเรื่องการใช้พลังงาน ก็ต้องบอกว่าโมเดล AI 1 ตัว
จะใช้ทรัพยากรทั้ง “น้ำ” และ “ไฟ” ปริมาณมหาศาลในการประมวลผล
1) เริ่มจากการใช้ “น้ำ”
เวลาที่เรา Prompt AI ด้วยคำถาม 1 คำถาม
สิ่งที่เรา Prompt ก็จะส่งผ่านระบบคอมพิวเตอร์ของเรา ผ่าน API มาถึงเซิร์ฟเวอร์ของ Data Center และ Data Center ก็จะไปประมวลผลผ่าน CPU และ GPU ที่อยู่ในเซิร์ฟเวอร์
เมื่อหลายคนยิ่ง Prompt บ่อยและนานเข้า ตัวเซิร์ฟเวอร์ของ Data Center ที่เป็นหน่วยประมวลผลของ CPU และ GPU นั้นจะร้อนมาก ๆ
จนอุณหภูมิภายในเซิร์ฟเวอร์สูงเกินกว่า 80-90 องศาเซลเซียส
ซึ่งถ้าควบคุมอุณหภูมิได้ไม่ดี อาจทำให้ประสิทธิภาพในการประมวลผลตกลง และทำให้อุปกรณ์ที่อยู่ภายในเซิร์ฟเวอร์ อย่าง CPU และ GPU เสียหายได้
ซึ่งตรงจุดนี้เองก็เป็น Pain Point ที่หลาย ๆ บริษัท Data Center จำเป็นต้องหาวิธีระบายความร้อน
โดยหนึ่งในตัวกลาง ที่สามารถระบายความร้อนได้ดีก็คือ “น้ำ” นี่เอง
โดยเจ้าของ Data Center รายใหญ่อย่าง Google, Microsoft หรือ Amazon จะใช้วิธีการระบายความร้อนด้วยน้ำ หรือที่เรียกว่า Water Cooling เพื่อดึงความร้อนออกจากเซิร์ฟเวอร์ ที่จะต้องทำงานตลอด 24 ชั่วโมง
จากสถิติปี 2023 พบว่า Google ได้ใช้น้ำเพื่อทำการ Cooling หรือทำการระบายความร้อนให้กับเซิร์ฟเวอร์ Data Center เป็นจำนวนมากถึง 66,000 ล้านลิตร ซึ่งถือว่ามีปริมาตร เทียบเท่ากับสระว่ายน้ำมาตรฐานโอลิมปิกถึง 26,400 สระเลยทีเดียว
ซึ่งแน่นอนว่าเมื่อ Google ออก Gemini ตัวใหม่
หรือแม้แต่ OpenAI ที่ออก ChatGPT เวอร์ชันใหม่ ๆ ขึ้นมา
ก็ย่อมที่จะทำให้ทั้งชิป CPU และชิป GPU จำเป็นต้องใช้พลังงานในการประมวลผลมากขึ้น
และจะทำให้เซิร์ฟเวอร์ Data Center ต้องการน้ำ มาใช้ในการระบายความร้อนมากขึ้นด้วย
เมื่อมีปัญหาแบบนี้ ก็ทำให้ผู้พัฒนาชิป และโครงสร้างพื้นฐานสำหรับ AI ต่างก็ต้องออกแบบชิป เพื่อให้ประหยัดพลังงานในการประมวลผล หรือพยายามออกแบบระบบ Data Center ให้สามารถระบายความร้อนได้อย่างรวดเร็ว
ยกตัวอย่างเช่น
- NVIDIA หรือ AMD นอกจากจะออกแบบชิป GPU ให้ประมวลผล AI ได้รวดเร็วขึ้นแล้ว ยังต้องออกแบบชิปให้ใช้พลังงานในการประมวลผลต่อหน่วย น้อยลงไปด้วย
- บริษัทเซิร์ฟเวอร์ที่รับทำ Module อย่าง DELTA ก็ต้องออกแบบส่วนประกอบ ให้สามารถระบายความร้อนจากการประมวลผล AI ให้ได้มากที่สุด
และภายในศูนย์ Data Center ทุกศูนย์ ไม่ว่าจะเป็น AWS, Google Cloud หรือ Azure ก็จำเป็นต้องพึ่งพาบริษัท ที่เชี่ยวชาญในด้านการทำความเย็น หรือ Solutions สำหรับทำ Liquid Cooling เพื่อเพิ่มประสิทธิภาพในการประมวลผล
อย่างบริษัทที่ทำอยู่ก็มี Schneider Electric, DELL Technologies, Vertiv และ ABB เพื่อรักษาอุณหภูมิให้เซิร์ฟเวอร์ หรือ Data Center ให้คงที่
ซึ่งหลาย ๆ บริษัท ก็พยายามหาทางที่จะรักษาความเสถียรของการประมวลผลข้อมูล โดยใช้ทรัพยากรต่าง ๆ บนโลกใบนี้ให้น้อยที่สุด เพื่อลดผลกระทบต่อสิ่งแวดล้อม
2) ทีนี้มาถึงเรื่องการใช้ “ไฟฟ้า”
โมเดล AI 1 ตัวใช้พลังงานไฟฟ้ามากพอ ๆ กับโรงไฟฟ้านิวเคลียร์ขนาดใหญ่ 1 โรงเลยทีเดียว
ถ้าเราไปดู Gemini 2.5 ซึ่งเป็นโมเดล AI รุ่นล่าสุดของ Google
เวลาที่เราตั้งคำถาม Prompt AI Gemini 1 ครั้ง ใน 1 คำถาม จะมีการใช้โทเคนเฉลี่ย 50-200 โทเคน
จากในไตรมาสล่าสุดที่ Alphabet เจ้าของ Google ได้แถลงผลประกอบการ
Google ได้พูดถึงอัตราการใช้ Gemini ด้วยว่าตอนนี้ AI Gemini ใช้โทเคนในการประมวลผลข้อมูลไปกว่า 7,000 ล้านโทเคนต่อนาที
คิดเป็นปริมาณการใช้ไฟบ้านที่ 5,760,000 ยูนิตต่อวัน เทียบเท่ากับปริมาณการใช้ไฟฟ้าภายในบ้านคนไทยกว่า 500,000 หลังคาเรือน
เมื่อลองคำนวณเป็นกำลังการผลิตไฟฟ้าของโรงไฟฟ้า ให้พอกับกำลังในการ Prompt ที่เรต 7,000 ล้านโทเคนต่อนาที เราจะพบว่าพลังงานที่ Gemini ใช้ในการ Prompt นั้นอยู่ที่ 240 MW
ด้วยพลังงานเท่านี้ ยังไม่นับรวมพลังงานไฟฟ้าที่ AI อย่าง Gemini ใช้ในการเทรนนิงโมเดลของตัวเอง ให้แม่นยำและมีประสิทธิภาพมากขึ้น
โดยในช่วงพีก ได้คาดการณ์ว่า AI Gemini ใช้พลังงานในการเทรนนิงมากที่ 1,000 MW หรือเทียบเท่ากับปริมาณไฟฟ้าที่โรงไฟฟ้าขนาดใหญ่ผลิตได้ 1 โรงเลยทีเดียว
ทั้งการประมวลผลจากการ Prompt ไปจนถึงการเทรนนิงโมเดล ก็จำเป็นต้องใช้ไฟฟ้าไม่ต่ำกว่า 1,200 MW ซึ่งถือว่าเป็นตัวเลขที่เยอะมาก ๆ
เทียบเท่ากับการผลิตไฟฟ้าของโรงไฟฟ้าขนาดใหญ่
และจำเป็นต้องใช้ทรัพยากรเยอะมาก ๆ เพื่อมาผลิตไฟฟ้าด้วย
อย่างเช่น ถ่านหิน ก๊าซธรรมชาติ หรือจำเป็นต้องใช้น้ำจำนวนมหาศาล ถ้าเลือกใช้พลังงานนิวเคลียร์
และปีต่อ ๆ ไป ก็คาดว่าจะใช้ไฟฟ้ามากขึ้นกว่านี้อีกหลายเท่า..
ตามจำนวนผู้ใช้งานที่มากขึ้น ตามความฉลาดของ AI ที่จะมากขึ้นเป็นทวีคูณ
และยิ่ง AI ฉลาดมากเท่าไร ก็ยิ่งต้องใช้พลังงานในการ Prompt เยอะกว่าเดิมมาก
โดยคาดว่าในปี 2028 Data Center สำหรับ AI จะใช้พลังงานเทียบเท่ากับการใช้ไฟฟ้าของครัวเรือนสหรัฐอเมริกามากถึง 22%
จากเทรนด์การใช้ AI ที่เติบโต ทำให้จำเป็นต้องใช้ทรัพยากรบนโลก อย่างไฟฟ้าและน้ำมากขึ้นเรื่อย ๆ
ดังนั้นบนอวกาศนอกโลก ก็อาจเป็นคำตอบสำหรับ Google ที่จะไปสร้าง Data Center ที่นั่น
ซึ่งการสร้าง Data Center บนอวกาศของ Google จะช่วยแก้ Pain Point ของการใช้ทรัพยากรบนโลก ในหลาย ๆ มุมทั้งในด้าน
- พื้นที่ คือสามารถลดปัญหาการใช้ที่ดิน ที่จะต้องใช้สร้างคลัสเตอร์ขนาดใหญ่เท่าเมือง
- ติดตั้งแผงโซลาร์เซลล์บนอวกาศ ที่สามารถดูดซับพลังงานแสงอาทิตย์ได้มากกว่าโลกถึง 8 เท่า
เพราะในอวกาศ ไม่มีชั้นบรรยากาศมาบดบัง หรือดูดซับพลังงานแสงอาทิตย์
นอกจากนี้โซลาร์เซลล์บนนอกโลกยังสามารถรับพลังงานได้ตลอด 24 ชั่วโมง
ทำให้การติดตั้งแผงโซลาร์เซลล์บนอวกาศ ตอบโจทย์เรื่องประสิทธิภาพมากกว่าแผงโซลาร์เซลล์บนโลกหลายสิบเท่า และสามารถประหยัดค่าใช้จ่ายได้ในระยะยาว
ซึ่ง Google ก็คาดหวังว่าโปรเจกต์ Suncatcher ที่นำ Data Center ขึ้นไปไว้บนอวกาศ จะช่วยให้โมเดล AI ของ Google ไม่จำเป็นต้องใช้พลังงานไฟฟ้าเป็นจำนวนมาก เทียบเท่ากับโรงไฟฟ้าขนาดใหญ่
แล้ว Google จะขนเซิร์ฟเวอร์ที่มีขนาดหลายร้อยตัน ขึ้นไปลอยบนอวกาศได้อย่างไร ?
ก็ต้องบอกว่า Google ได้เตรียมแผนการภารกิจอวกาศ มาตั้งแต่ปี 2015
โดย Google ได้เข้าไปร่วมระดมทุนใน SpaceX บริษัทวิจัยและพัฒนายานอวกาศของคุณอีลอน มัสก์
ร่วมกับ Fidelity Investments บริษัทจัดการกองทุนที่ใหญ่เป็นอันดับต้น ๆ ของโลก
ซึ่งจุดประสงค์หลัก ๆ ของการลงทุน SpaceX ในรอบนั้น ก็เพื่อต้องการใช้เครือข่ายดาวเทียม Starlink ของ SpaceX เพื่อขยายคลาวด์ของตัวเองไปยังพื้นที่ห่างไกล และไม่มีสัญญาณอินเทอร์เน็ต
จนตอนนี้ Google ก็ยังเพิ่มเงินระดมทุนขึ้นไปเรื่อย ๆ จนได้กลายเป็นผู้ถือหุ้นรายใหญ่ โดยมีสัดส่วนการถือหุ้น SpaceX อยู่ที่ 7.4%
และการขนย้ายวัตถุที่มีขนาดหลายร้อยตัน ขึ้นสู่วงโคจรด้วยยาน Starship ยานขนาดใหญ่ของ SpaceX นั้น สามารถขนขึ้นไปได้ในเชิงเทคนิค
แต่การทำแบบนี้ จะต้องสูญเสียต้นทุนในการดำเนินการมหาศาล
ทั้งต้นทุนการวิจัยและพัฒนายาน ให้ขนวัตถุขนาดใหญ่ ๆ ขึ้นไปได้ หรือต้นทุนค่าเชื้อเพลิงที่เยอะมาก ๆ
แถมยังมีเรื่องความไม่เสถียรของสัญญาณบนอวกาศ ที่ส่งมายังโลก
ทำให้หากมีการติดตั้ง Data Center บนอวกาศจริง ก็อาจทำให้การประมวลผลเกิดความล่าช้าไปด้วย
หรือก็คือ การตั้ง Data Center บนอวกาศ มีทั้งข้อดี และข้อเสีย ซึ่งก็ต้องชั่งน้ำหนักกัน
แต่จากการตัดสินใจของ Google คงคิดว่าสิ่งนี้คุ้มค่าต่อการลงทุน
ซึ่งเราก็ต้องดูต่อไปว่า โปรเจกต์ Suncatcher ของ Google นั้น จะประสบความสำเร็จตามที่คาดไหม
และการลงทุนโครงสร้างพื้นฐานอย่าง Data Center จะคุ้มค่าในระยะยาวหรือไม่ ?
ถ้าหากโปรเจกต์นี้เวิร์ก คุ้มค่า สามารถลดต้นทุนและประหยัดพลังงานได้จริง
ก็ไม่แน่ว่านอกจาก Google จะเป็นผู้นำด้าน Search Engine และ Generative AI อย่าง Gemini และ NotebookLM แล้ว
Google ก็อาจเป็นหนึ่งในตัวเต็งด้านอวกาศ ไม่ต่างจาก SpaceX, Amazon หรือ Rocket Lab ด้วยนั่นเอง..