(SeaPRwire) – ความก้าวหน้าทางเทคโนโลยีอาจทำให้เรารู้สึกตื่นเต้น การเมืองอาจทำให้เราโกรธแค้น และสงครามอาจทำให้เราต้องระดมกำลัง แต่เมื่อเผชิญกับความเสี่ยงต่อการสูญพันธุ์ของมนุษยชาติที่ปัญญาประดิษฐ์ (AI) กำลังก่อให้เกิด เรากลับเฉยชาอย่างน่าประหลาดใจ บางทีอาจเป็นเพราะดูเหมือนว่าจะไม่มีทางแก้ไข นี่คือความคิดที่ฉันอยากจะท้าทาย
ความสามารถของ AI นั้นพัฒนาขึ้นเรื่อยๆ นับตั้งแต่เปิดตัวเมื่อสองปีก่อน มีเงินหลายแสนล้านดอลลาร์ไหลเข้าสู่วงการ AI ความพยายามเหล่านี้ร่วมกันน่าจะนำไปสู่ปัญญาประดิษฐ์ทั่วไป (AGI) ซึ่งเครื่องจักรมีความรู้ความเข้าใจเหมือนมนุษย์ บางทีอาจจะมากกว่านั้นด้วย
นักวิทยาศาสตร์ด้าน AI หลายร้อยคนเตือนว่าเราอาจสูญเสียการควบคุม AI เมื่อมันมีความสามารถมากเกินไป ซึ่งอาจนำไปสู่การสูญพันธุ์ของมนุษยชาติ แล้วเราจะทำอย่างไรได้บ้าง?
ความเสี่ยงต่อการดำรงอยู่ของ AI มักถูกนำเสนอว่ามีความซับซ้อนอย่างมาก ตัวอย่างเช่น มีการเรียกการพัฒนา AI ระดับมนุษย์ที่ปลอดภัยว่าเป็น “ปัญหาที่ชั่วร้ายอย่างยิ่ง” ความยากลำบากที่รับรู้ได้นี้เกี่ยวข้องกับวิธีแก้ปัญหาที่เสนอคือ การจัดวางแนวทาง (alignment) ซึ่งหมายถึงการทำให้ AI ที่เหนือกว่ามนุษย์ปฏิบัติตามคุณค่าของมนุษยชาติ อย่างไรก็ตาม การจัดวางแนวทาง AI เป็นวิธีแก้ปัญหาที่มีปัญหาตั้งแต่เริ่มต้น
ประการแรก ความก้าวหน้าทางวิทยาศาสตร์ในการจัดวางแนวทางช้ากว่าความก้าวหน้าของ AI เองมาก ประการที่สอง คำถามเชิงปรัชญาเกี่ยวกับคุณค่าใดที่จะนำมาจัดวางแนวทางให้กับปัญญาประดิษฐ์ที่เหนือกว่านั้นเต็มไปด้วยอุปสรรค ประการที่สาม มันไม่ชัดเจนเลยว่าการจัดวางแนวทาง แม้ว่าจะประสบความสำเร็จแล้ว จะเป็นวิธีแก้ปัญหาความเสี่ยงต่อการดำรงอยู่ของ AI การมี AI ที่เป็นมิตรเพียงตัวเดียวไม่ได้หมายความว่าจะหยุด AI ที่ไม่เป็นมิตรตัวอื่นๆ ได้
ด้วยเหตุผลเหล่านี้ หลายคนจึงได้เร่งให้บริษัทเทคโนโลยีไม่สร้าง AI ใดๆ ที่มนุษยชาติอาจสูญเสียการควบคุม บางกลุ่มได้ไปไกลกว่านั้น กลุ่มนักเคลื่อนไหว เช่น PauseAI ได้เรียกร้องให้มีสนธิสัญญาระหว่างประเทศที่หยุดการพัฒนาในทั่วโลก
หลายคนมองว่าสิ่งนั้นไม่เป็นที่ยอมรับทางการเมือง เนื่องจากอาจใช้เวลานานกว่าที่ชิ้นส่วนที่ขาดหายไปของ AGI จะถูกเติมเต็ม และเราจำเป็นต้องหยุดชะงักหรือไม่ เมื่อเทคโนโลยีนี้สามารถทำสิ่งที่ดีได้มากมาย Yann Lecun หัวหน้าฝ่าย AI ของ Meta และผู้ไม่เชื่อเรื่องความเสี่ยงต่อการดำรงอยู่ที่มีชื่อเสียง กล่าวว่า การอภิปรายเรื่องความเสี่ยงต่อการดำรงอยู่นั้นเหมือนกับ “กังวลเกี่ยวกับความปลอดภัยของเครื่องบินเจ็ตเทอร์โบในปี 1920”
ในทางกลับกัน เทคโนโลยีสามารถก้าวกระโดดได้ หากเราได้รับความก้าวหน้าครั้งใหม่ เช่น Transformer ซึ่งเป็นนวัตกรรมในปี 2017 ที่ช่วยเปิดตัวแบบจำลองภาษาขนาดใหญ่สมัยใหม่ บางทีเราอาจจะไปถึง AGI ได้ภายในเวลาฝึกอบรมไม่กี่เดือน นั่นเป็นเหตุผลที่กรอบการกำกับดูแลจำเป็นต้องมีขึ้นก่อนหน้านั้น
โชคดีที่ Yoshua Bengio ผู้ได้รับรางวัล Turing Award และอื่นๆ อีกมากมายได้ให้ส่วนหนึ่งของวิธีแก้ปัญหา ในเอกสารนโยบายที่ตีพิมพ์ในวารสาร Science เมื่อต้นปีนี้ พวกเขาได้เสนอ “ข้อผูกมัดแบบมีเงื่อนไข (if-then commitments)” ข้อผูกมัดที่จะเปิดใช้งานหากและเมื่อพบความสามารถที่เป็นเส้นแบ่งในระบบ AI ขั้นสูง
โดยอาศัยผลงานของพวกเขา เราที่ Existential Risk Observatory ซึ่งเป็นองค์กรไม่แสวงหาผลกำไร เสนอสนธิสัญญาความปลอดภัย AI แบบมีเงื่อนไข ประเทศที่ลงนามในสนธิสัญญานี้ ซึ่งควรจะรวมถึงสหรัฐอเมริกาและจีนอย่างน้อย จะตกลงกันว่าเมื่อเราเข้าใกล้การสูญเสียการควบคุมมากเกินไป พวกเขาจะหยุดการฝึกอบรมที่อาจเป็นอันตรายภายในพรมแดนของตน เมื่อประเทศที่มีอำนาจมากที่สุดลงนามในสนธิสัญญานี้แล้ว ก็เป็นผลประโยชน์ของพวกเขาที่จะตรวจสอบการปฏิบัติตามของกันและกัน และเพื่อให้แน่ใจว่า ไม่ได้ถูกสร้างขึ้นในที่อื่นด้วย
คำถามที่ยังคงค้างอยู่คือ ณ จุดใดความสามารถของ AI ใกล้เคียงกับการสูญเสียการควบคุมมากเกินไป เราเสนอให้มอบคำถามนี้ให้กับสถาบันความปลอดภัย AI ที่จัดตั้งขึ้นใน พวกเขามีความเชี่ยวชาญในการประเมินแบบจำลอง ซึ่งสามารถพัฒนาต่อไปเพื่อตอบคำถามที่สำคัญนี้ นอกจากนี้ สถาบันเหล่านี้ยังเป็นสาธารณะ ทำให้พวกเขาเป็นอิสระจากห้องปฏิบัติการพัฒนา AI ส่วนใหญ่ที่เป็นเอกชน คำถามเกี่ยวกับความใกล้ชิดเพียงใดที่ใกล้เกินไปที่จะสูญเสียการควบคุมจะยังคงยาก แต่จะมีคนต้องตอบมัน และสถาบันความปลอดภัย AI อยู่ในตำแหน่งที่ดีที่สุดที่จะทำเช่นนั้น
เราส่วนใหญ่ยังคงได้รับประโยชน์จาก AI ภายใต้สนธิสัญญาความปลอดภัย AI แบบมีเงื่อนไข AI ทั้งหมดในปัจจุบันต่ำกว่าระดับการสูญเสียการควบคุม และจะไม่ได้รับผลกระทบ ดังนั้น AI ที่แคบในอนาคตที่เหมาะสมกับงานเดียว เช่น การสร้างแบบจำลองสภาพอากาศหรือการค้นหายาใหม่ จะไม่ได้รับผลกระทบเช่นกัน แม้แต่ AI ที่ทั่วไปกว่าก็ยังสามารถพัฒนาได้ หากห้องปฏิบัติการสามารถแสดงให้ผู้กำกับดูแลเห็นได้ว่าแบบจำลองของพวกเขามีความเสี่ยงต่อการสูญเสียการควบคุมน้อยกว่า ตัวอย่างเช่น 0.002% ต่อปี (เกณฑ์ที่เรา ยอมรับสำหรับโรงไฟฟ้านิวเคลียร์) นักคิดด้าน AI อื่นๆ เช่น ศาสตราจารย์ MIT , CEO ของ Conjecture และผู้อำนวยการ ControlAI กำลังคิดในทิศทางที่คล้ายคลึงกัน
โชคดีที่ความเสี่ยงต่อการดำรงอยู่ที่เกิดจาก AI ได้รับการยอมรับจากหลายคนที่ใกล้ชิดกับประธานาธิบดี المنتخب Donald Trump บุตรสาวของเขา Ivanka ได้เน้นย้ำถึงความเร่งด่วนของปัญหา Elon Musk ผู้สนับสนุน Trump อย่างสำคัญ ได้ เกี่ยวกับความเสี่ยงต่ออารยธรรมมาหลายปีแล้ว และเมื่อเร็วๆ นี้ได้ การผลักดันของฝ่ายนิติบัญญัติแคลิฟอร์เนียเพื่อทดสอบความปลอดภัยของ AI แม้แต่ Tucker Carlson ฝ่ายขวาจัดก็ให้ความเห็นที่สมเหตุสมผลเมื่อเขา : “ดังนั้นฉันไม่รู้ว่าทำไมเราถึงนั่งนิ่งเฉยและปล่อยให้สิ่งนี้เกิดขึ้น ถ้าเราเชื่อจริงๆ ว่ามันจะทำให้เผ่าพันธุ์มนุษย์สูญพันธุ์หรือทำให้มนุษยชาติตกเป็นทาส แล้วมันจะดีได้อย่างไร?” ส่วน Trump เองก็ เกี่ยวกับความเสี่ยงที่เกิดจาก AI เช่นกัน
สนธิสัญญาความปลอดภัย AI แบบมีเงื่อนไขอาจเป็นวิธีแก้ปัญหาความเสี่ยงต่อการดำรงอยู่ของ AI ในขณะที่ไม่ขัดขวางการพัฒนา AI ในตอนนี้ การทำให้จีนและประเทศอื่นๆ ยอมรับและบังคับใช้สนธิสัญญานั้นจะเป็นความท้าทายทางภูมิรัฐศาสตร์ครั้งใหญ่ แต่บางทีรัฐบาลของ Trump อาจเป็นสิ่งที่จำเป็นในการเอาชนะมัน
วิธีแก้ปัญหาหนึ่งในปัญหาที่ยากที่สุดที่เราเผชิญอยู่ ความเสี่ยงต่อการดำรงอยู่ของ AI มีอยู่จริง ขึ้นอยู่กับเราว่าเราจะทำให้มันเกิดขึ้นหรือยังคงเดินไปตามเส้นทางสู่การสูญพันธุ์ของมนุษยชาติที่เป็นไปได้
บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้
หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน
SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ