มนุษย์จินตนาการถึงหุ่นยนต์และปัญญาประดิษฐ์ (Artificial Intelligence) มาเนิ่นนานนับทศวรรษ เมื่อศักยภาพการประมวลผลของคอมพิวเตอร์เพิ่มขึ้นอย่างก้าวกระโดด ภาพฝันก็ค่อยๆ กลายเป็นความจริงถึงขั้นที่คนจำนวนไม่น้อยมองว่าปัญญาประดิษฐ์จะกลายเป็นภัยคุกคามต่อตำแหน่งงานซ้ำซากน่าเบื่อหน่าย ในขณะที่อุตสาหกรรมซึ่งอาศัยความคิดสร้างสรรค์ยังนับว่าค่อนข้างปลอดภัย
แต่ความเข้าใจดังกล่าวอาจถูกสั่นคลอนเมื่อ Midjourney เริ่มเป็นที่กล่าวถึงในวงกว้าง โปรแกรมดังกล่าวคือปัญญาประดิษฐ์ที่สามารถแปลงข้อความเป็นภาพน่าตื่นตาตื่นใจได้ในเวลาไม่กี่นาที แถมโครงการนี้ยังเป็นแค่ ‘โปรเจกต์สนุกๆ’ ที่ไม่หวังทำกำไรของบริษัทสตาร์ทอัพจากจากอเมริกาที่ชื่อว่า Leap Motion
อย่างไรก็ตาม Midjourney ถือเป็นเพียงยอดภูเขาน้ำแข็งของกระแสปัญญาประดิษฐ์ปฎิวัติที่อาจพลิกโฉมหน้าหลากหลายอุตสาหกรรมจากหน้ามือเป็นหลังมือ ไม่ต่างจากการคิดค้นเครื่องจักรไอน้ำที่นำไปสู่การปฏิวัติอุตสาหกรรม โดยมีหัวใจสำคัญคือ Foundation Model
Foundation Model คืออะไร
ปัญญาประดิษฐ์ในยุคแรกเริ่มทำงานแบบเดียวกับแบบจำลองทางสถิติที่ต้อง ‘เรียนรู้’ จากข้อมูลจำนวนมากพร้อม ‘ป้ายกำกับ’ ที่จัดการโดยมนุษย์ เช่น หากเราต้องการโปรแกรมสำหรับแยกแยะระหว่างรูปภาพสุนัขกับแมว ทีมโปรแกรมเมอร์ก็จะต้องรวบรวมรูปภาพสุนัขและแมวจำนวนมหาศาลพร้อมกับระบุว่ารูปไหนคือสุนัข รูปไหนคือแมว ก่อนจะป้อนใส่คอมพิวเตอร์เพื่อแปลงให้เป็นแบบจำลองทางสถิติ
ยิ่งเป้าหมายของโปรแกรมมีความสลับซับซ้อนมากขึ้นเท่าไหร่ นักพัฒนาก็ต้องใส่ข้อมูลเข้าไปมากขึ้นเท่านั้น เช่น หากต้องการแยกแยะรูปภาพสุนัขแต่ละสายพันธ์ก็ต้องหารูปจำนวนมากของสุนัขพันธุ์โกลเดนรีทรีฟเวอร์ ร็อตไวเลอร์ คอลลี ชเนาเซอร์ ชิสุ เชาเชา เทอร์เรีย บีเกิล บูลด็อก ปั๊ก พูเดิล ลาบราดอร์ คอร์กี หลังอาน และอีกสารพัด พร้อมใส่ป้ายกำกับสายพันธุ์ให้ถูกต้องครบถ้วน
วิธีดังกล่าวใช้กำลังคนและทรัพยากรมหาศาล อีกทั้งผลลัพธ์ที่ได้ก็อาจไม่เป็นที่น่าพอใจเพราะปัญญาประดิษฐ์อาจจะ ‘ไปไม่เป็น’ เมื่อเจอกับรูปภาพสุนัขพันธุ์ผสมซึ่งไม่ปรากฏอยู่ในฐานข้อมูล
แบบจำลองสถิติที่เรียบง่ายพัฒนาสู่แบบจำลองยุคใหม่ที่มีสลับซับซ้อนยิ่งขึ้นเรียกว่า ‘การเรียนรู้เชิงลึก (deep learning)’ ซึ่งพยายามเลียนแบบการทำงานของโครงข่ายเซลล์ประสาทในสมองของมนุษย์ ระบบดังกล่าวต้องอาศัยเรียนรู้จากข้อมูลหลายพันล้านตัวอย่าง ไม่ว่าจะเป็นข้อความ ภาพ และเสียง
เหล่านักพัฒนาเคยเชื่อว่ายิ่งใส่ข้อมูลเข้าสู่ระบบก็จะยิ่งได้แบบจำลองที่แม่นยำ แต่ในความเป็นจริง ประสิทธิผลที่เพิ่มขึ้นมานับว่าเล็กน้อยหากเทียบกับต้นทุนที่พุ่งไม่หยุดฉุดไม่อยู่ อีกทั้งผลลัพธ์จากการลงทุนลงแรงยังนำไปใช้ประโยชน์ได้อย่างจำกัดจำเขี่ยเพราะจะต้องอยู่ในกรอบตาม ‘เป้าหมาย’ ที่ออกแบบมาตั้งแต่ต้น
คงไม่ผิดนักหากจะกล่าวว่าแบบจำลองรุ่นเดิมได้เดินมาสู่ทางตัน กระทั่งนักวิจัยจากกูเกิลและมหาวิทยาลัยโทรอนโตได้เปิดเผยอัลกอริทึมใหม่ที่พวกเขาใช้พัฒนาปัญญาประดิษฐ์ที่ชื่อว่า BERT ซึ่งเปลี่ยนวิธีคิดจากที่ทยอยป้อนข้อมูลทีละส่วนพร้อมกับมีป้ายกำกับที่มนุษย์เป็นคนเขียน สู่การโยนข้อมูลทั้งหมดเข้าสู่ระบบแล้วให้คอมพิวเตอร์เรียนรู้ด้วยตนเอง (self-supervised learning)
แบบจำลองนี้เองที่ได้รับการขนานนามว่า Foundation Model ซึ่งนับว่าใกล้เคียงกับ ‘เทคโนโลยีที่ทำได้ทุกอย่าง (general-purpose technologies)’ มากที่สุดในปัจจุบัน
Foundation Model ทำอะไรได้บ้าง
ความโดดเด่นของ Foundation Model คือการที่ไม่ได้ออกแบบมาเพื่อตอบโจทย์ที่เฉพาะเจาะจง ศักยภาพของมันจึงแทบจะเรียกได้ว่าไม่มีที่สิ้นสุดและอาจเรียกได้ว่าเป็น ‘ความคิดสร้างสรรค์’ รูปแบบใหม่ที่ไม่ได้เกิดจากมนุษย์ ระบบดังกล่าวมีความรู้ความเข้าใจอย่างลึกซึ้งจนน่าประหลาดใจ ตั้งแต่การอธิบายมุกตลกในบทความได้ว่าทำไมมันถึงตลก ไปจนถึงช่วยออกแบบภาพประกอบของบทความชิ้นหนึ่งให้กับทีม a day BULLETIN
บริษัทยักษ์ใหญ่ยังหาทางแสดงศักยภาพของ Foundation Model อย่างต่อเนื่อง เช่น GATO ปัญญาประดิษฐ์ที่พัฒนาโดย DeepMind บริษัทลูกของกูเกิลซึ่งสามารถทำได้ทั้งเล่นเกม ควบคุมแขนจักรกล และเขียนข้อความโต้ตอบได้ ส่วนบริษัทเมตาก็ซุ่มพัฒนา ‘World Model’ ที่จะรวบรวมข้อมูลอย่างการเคลื่อนไหวบนใบหน้าและท่าทางต่างๆ ของร่างกายมนุษย์สำหรับเป็นโครงสร้างพื้นฐานเพื่อพัฒนาเมตาเวิร์สในอนาคต
สตาร์ทอัพจำนวนมากได้เริ่มเปลี่ยน Foundation Model ให้กลายเป็นผลิตภัณฑ์ที่หลากหลาย เช่น Viable ที่ใช้ปัญญาประดิษฐ์ในการอ่านความคิดเห็นของลูกค้าเพื่อจับใจความสำคัญแล้วนำมาสรุปเป็นรายงาน Fable Studios ที่สร้างตัวละครสมมติเพื่อคุยเป็นเพื่อนคลายเหงา หรือ Elicit ที่สร้างผู้ช่วยวิจัยจากปัญญาประดิษฐ์เพื่อตอบคำถามโดยอิงจากงานวิชาการ
สตาร์ทอัพในตัวอย่างข้างต้นต่างก็ใช้ปัญญาประดิษฐ์ที่ชื่อว่า GPT-3 ซึ่งพัฒนาโดย OpenAI เมื่อปี พ.ศ. 2563 โดยปัญญาประดิษฐ์ดังกล่าวนำเข้าข้อมูลกว่า 570 กิกะไบต์ ประกอบด้วยหนังสือ ข้อมูลบนอินเทอร์เน็ต และเนื้อหาทั้งหมดบนวิกิพีเดียจนเรียกได้ว่าเป็นหนึ่งในปัญญาประดิษฐ์ที่มีความสามารถในการประมวลผลด้านภาษาที่ยอดเยี่ยมที่สุดในปัจจุบัน
นอกจากนี้ บางฟังก์ชันของ GPT-3 เช่น การถามตอบ ยังสามารถเข้าไปใช้บริการได้ฟรีแถมผลลัพธ์ที่ได้ก็น่าสนใจไม่น้อย โดยเราสามารถไปทดลองพูดคุยได้บนเว็บไซต์ หรือสามารถอ่านบทสนทนาสนุกๆ ใน The Matter ที่ให้ GPT-3 ตอบคำถามว่า “ถ้า AI เป็นผู้ว่าฯ จะแก้ปัญหาน้ำท่วม กทม. อย่างไร?” และ “ถ้า AI เป็นผู้นำจะเเก้ปัญหาความเหลื่อมล้ำในไทยอย่างไร?”
ผมลืมบอกไปเลยว่า เจ้า GPT-3 โต้ตอบเป็นภาษาไทยได้ด้วยนะครับ!
เหรียญอีกด้านของ ‘ปัญญาประดิษฐ์’
ลองจินตนาการเล่นๆ นะครับ ว่าเด็กอัจฉริยะอายุ 10 ขวบจะรับรู้เรื่องราวบนโลกอย่างไรหากเรียนรู้ทุกอย่างจากข้อมูลบนอินเทอร์เน็ต?
เด็กคนนี้แหละครับคือภาพร่างของปัญญาประดิษฐ์ที่แม้ว่าจะมีกำลังการประมวลผลสูงลิ่ว แต่ระดับวิจารณญาณที่ด้อยกว่าผู้ใหญ่ก็อาจทำให้บทสนทนาอาจออกไปในทางแปลกแปร่ง เช่น ถ้าผมถามว่าใครได้รับรางวัลโนเบลในปี ค.ศ. 1625 คนทั่วไปก็ต้องเอะใจแล้วว่ารางวัลดังกล่าวก่อตั้งขึ้นร่วมศตวรรษเท่านั้น แต่เจ้า GPT-3 กลับตอบกลับอย่างมั่นอกมั่นใจว่า ‘ไอแซค นิวตัน’ เพราะอาจเข้าใจเอาเองว่าผู้ได้รับรางวัลโนเบลหมายถึงนักวิทยาศาสตร์ชั้นแนวหน้าในแต่ละยุคสมัย
แบบจำลองที่อยู่เบื้องหลังการประมวลผลของปัญญาประดิษฐ์ยังมีลักษณะเป็น ‘ขยะเข้า-ขยะออก’ กล่าวคือใส่ข้อมูลที่ผิดพลาดเข้าไป ผลลัพธ์ที่ได้ก็จะผิดเพี้ยนเช่นกัน การอิงข้อมูลจากอินเทอร์เน็ตมีความน่ากังวลหลายประการ ไม่ว่าจะเป็นการฝัง ‘อคติ’ เช่น การเหยียดสีผิว เหยียดเชื้อชาติ หรือเหยียดเพศเข้าไปในระบบ รวมถึงมองข้ามข้อมูลทุกอย่างที่ไม่ปรากฏอยู่ในรูปแบบดิจิทัล
ปัญหาอีกประการของปัญญาประดิษฐ์ที่มีกำลังในการประมวลผลมหาศาล คือการใช้พลังงานปริมาณมหาศาลเช่นกัน กระบวนการป้อนข้อมูลเพื่อสร้างแบบจำลองทั่วไปสำหรับปัญญาประดิษฐ์จะปล่อยคาร์บอนไดออกไซด์ประมาณ 284 ตัน หรือเทียบเท่ากับคาร์บอนไดออกไซด์ที่ปล่อยจากตลอดวัฏจักรชีวิตของรถยนต์ 5 คัน อย่างไรก็ตาม ประสิทธิภาพการใช้พลังงานก็มีแนวโน้มเพิ่มสูงขึ้น อีกทั้งปัญญาประดิษฐ์อาจมีส่วนสำคัญในการเปลี่ยนผ่านสู่พลังงานหมุนเวียนอีกด้วย
ข้อกังวลประการสุดท้ายคือ ‘อำนาจ’ ในการควบคุมปัญญาประดิษฐ์ศักยภาพสูง การพัฒนาระบบ Foundation Model ใช้งบลงทุนสูงลิ่ว เช่น ปัญญาประดิษฐ์ PALM ของกูเกิลใช้งบประมาณร่วม 10 ล้านดอลลาร์สหรัฐฯ ประกอบกับการที่ต้องใช้ข้อมูลปริมาณมหาศาล ข้อจำกัดดังกล่าวกลายเป็นกำแพงกีดกันให้บริษัทยักษ์ใหญ่และรัฐบาลเท่านั้นที่จะมีทรัพยากรเพียงพอในการพัฒนาปัญญาประดิษฐ์ขึ้นมาได้
ผู้พัฒนาจึงมีบทบาทสำคัญอย่างยิ่งในการออกแบบปัญญาประดิษฐ์ตั้งแต่การเลือกข้อมูลเพื่อป้อนเข้าไป รวมถึงการตั้ง ‘ข้อจำกัด’ เพื่อไม่ให้ปัญญาประดิษฐ์เหล่านั้นถูกนำไปใช้ในทางที่ผิด เช่น เขียนข่าวปลอมหรือสร้างภาพอนาจาร อย่างไรก็ตาม อำนาจตัดสินใจว่าอะไรควรหรือไม่ควรกลับอยู่ในมือของชนชั้นนำจำนวนหยิบมือ นี่คือสถานการณ์ที่ค่อนข้างน่ากังวลและการปล่อยให้ ‘กำกับดูแลตนเอง’ ก็อาจไม่เพียงพอ
ปัจจุบันนับเป็นช่วงเวลาหัวเลี้ยวหัวต่อคล้ายกับคราวปฏิวัติอุตสาหกรรม แต่เทคโนโลยีล้ำสมัยก็ควรนำไปใช้อย่างระมัดระวังโดยพิจารณาผลกระทบอย่างรอบด้าน ไม่เช่นนั้นปัญญาประดิษฐ์ก็อาจซ้ำรอยเครื่องจักรไอน้ำที่ช่วยพัฒนาคุณภาพชีวิตของมนุษยชาติแบบก้าวกระโดดก็จริง แต่ก็เป็นจุดเริ่มต้นของการเปลี่ยนแปลงสภาพภูมิอากาศและสารพัดปัญหาด้านสิ่งแวดล้อมเช่นกัน
เอกสารประกอบการเขียน:
– https://towardsdatascience.com/artificial-intelligence-has-an-enormous-carbon-footprint-239290ebffe
– https://techmonitor.ai/technology/ai-and-automation/foundation-models-may-be-future-of-ai-theyre-also-deeply-flawed
– https://research.ibm.com/blog/what-are-foundation-models
– https://www.economist.com/interactive/briefing/2022/06/11/huge-foundation-models-are-turbo-charging-ai-progress
– https://www.economist.com/leaders/2022/06/09/artificial-intelligences-new-frontier
เรื่อง: รพีพัฒน์ อิงคสิทธิ์