(SeaPRwire) – บริษัท AI ชั้นนำของโลกมีการจัดการความเสี่ยงในระดับที่ “ยอมรับไม่ได้” และ “ขาดความมุ่งมั่นอย่างมากในหลายด้านของความปลอดภัย” ตามการศึกษาใหม่สองฉบับที่เผยแพร่เมื่อวันพฤหัสบดี
ความเสี่ยงของ AI ในปัจจุบัน—ตามที่บริษัทชั้นนำหลายแห่งยอมรับ—อาจรวมถึง AI ที่ช่วยให้ผู้ไม่หวังดีทำการโจมตีทางไซเบอร์หรือสร้างอาวุธชีวภาพ นักวิทยาศาสตร์ชั้นนำกังวลว่าแบบจำลอง AI ในอนาคตอาจหลุดพ้นจากการควบคุมของมนุษย์โดยสิ้นเชิง
การศึกษาดำเนินการโดยองค์กรไม่แสวงหาผลกำไร SaferAI และ FLI แต่ละครั้งเป็นการให้คะแนนเป็นชุดแรกในสิ่งที่กลุ่มหวังว่าจะเป็นชุดต่อเนื่องที่กระตุ้นให้บริษัท AI ชั้นนำปรับปรุงแนวปฏิบัติของตน
“เราต้องการทำให้ผู้คนเห็นได้ง่ายว่าใครไม่ได้แค่พูด แต่ใครกำลังลงมือทำจริง” Max Tegmark ประธานของ FLI กล่าว
SaferAI ประเมินโปรโตคอลการจัดการความเสี่ยงของบริษัท AI ชั้นนำ (หรือที่เรียกว่านโยบายการปรับขนาดอย่างมีความรับผิดชอบ) เพื่อให้คะแนนแต่ละบริษัทในแนวทางในการระบุและลดความเสี่ยงของ AI
ไม่มีบริษัท AI ใดได้คะแนนดีกว่า “อ่อนแอ” ในการประเมินความสมบูรณ์ของการจัดการความเสี่ยงของ SaferAI ผู้ที่ได้คะแนนสูงสุดคือ Anthropic (35%), รองลงมาคือ OpenAI (33%), Meta (22%) และ Google DeepMind (20%) xAI ของ Elon Musk ได้คะแนน 18%
สองบริษัทคือ Anthropic และ Google DeepMind ได้รับคะแนนต่ำกว่าครั้งแรกที่ทำการศึกษาในเดือนตุลาคม 2024 ผลลัพธ์หมายความว่า OpenAI ได้แซงหน้า Google ขึ้นเป็นอันดับสองในการจัดอันดับของ SaferAI
Siméon Campos ผู้ก่อตั้ง SaferAI กล่าวว่า Google ได้คะแนนค่อนข้างต่ำแม้จะทำการวิจัยด้านความปลอดภัยที่ดี แต่บริษัทก็ให้คำมั่นสัญญาที่มั่นคงเพียงเล็กน้อยในนโยบายของตน บริษัทยังได้เปิดตัวแบบจำลองแนวหน้าเมื่อต้นปีนี้ Gemini 2.5 โดยไม่แบ่งปันข้อมูลด้านความปลอดภัย ซึ่ง Campos เรียกว่า “ความล้มเหลวอย่างร้ายแรง” โฆษกของ Google DeepMind กล่าวกับ TIME ว่า “เรามุ่งมั่นที่จะพัฒนา AI อย่างปลอดภัยและมั่นคงเพื่อประโยชน์ของสังคม มาตรการความปลอดภัยของ AI ครอบคลุมถึงการบรรเทาผลกระทบที่อาจเกิดขึ้นในวงกว้าง รายงานล่าสุดเหล่านี้ไม่ได้คำนึงถึงความพยายามด้านความปลอดภัยของ AI ทั้งหมดของ Google DeepMind หรือเกณฑ์มาตรฐานอุตสาหกรรมทั้งหมด แนวทางที่ครอบคลุมของเราต่อความปลอดภัยและความมั่นคงของ AI นั้นครอบคลุมมากกว่าสิ่งที่จับได้”
คะแนนของ Anthropic ก็ลดลงเช่นกันตั้งแต่ SaferAI ให้คะแนนในเดือนตุลาคม นี่เป็นผลมาจากการเปลี่ยนแปลงที่บริษัททำกับนโยบายของบริษัทหลายวันก่อนการเปิดตัวแบบจำลอง Claude 4 ซึ่ง Anthropic ได้ลบความมุ่งมั่นที่จะจัดการกับภัยคุกคามภายในเมื่อเปิดตัวแบบจำลองในระดับนั้น “นั่นเป็นกระบวนการที่แย่มาก” Campos กล่าว Anthropic ยังไม่ได้ตอบกลับคำร้องขอความคิดเห็นในทันที
ผู้เขียนการศึกษายังกล่าวอีกว่าวิธีการของพวกเขามีรายละเอียดมากขึ้นตั้งแต่เดือนตุลาคมที่ผ่านมา ซึ่งอธิบายถึงความแตกต่างบางประการในการให้คะแนน
บริษัทที่ปรับปรุงคะแนนได้มากที่สุดคือ xAI ซึ่งได้คะแนน 18% เทียบกับ 0% ในเดือนตุลาคม และ Meta ซึ่งได้คะแนน 22% เทียบกับคะแนนก่อนหน้า 14%
การศึกษาของ FLI มีขอบเขตกว้างกว่า—ไม่เพียงแต่มองที่แนวทางการจัดการความเสี่ยงเท่านั้น แต่ยังรวมถึงแนวทางของบริษัทในการทำร้ายปัจจุบัน ความปลอดภัยที่มีอยู่ การกำกับดูแล และการแบ่งปันข้อมูล คณะผู้เชี่ยวชาญอิสระหกคนให้คะแนนแต่ละบริษัทโดยพิจารณาจากการตรวจสอบเอกสารที่เปิดเผยต่อสาธารณชน เช่น นโยบาย งานวิจัย และรายงานข่าว พร้อมกับข้อมูลที่ไม่เปิดเผยต่อสาธารณชนเพิ่มเติมที่บริษัทได้รับโอกาสในการให้คะแนน Anthropic ได้คะแนนสูงสุด (C plus) OpenAI ได้คะแนน C และ Google ได้คะแนน C ลบ (xAI และ Meta ได้คะแนน D ทั้งคู่)
อย่างไรก็ตาม ในคะแนนของ FLI สำหรับแนวทางของแต่ละบริษัทต่อ “ความปลอดภัยที่มีอยู่” ทุกบริษัทได้คะแนน D หรือต่ำกว่า “พวกเขาทั้งหมดกำลังพูดว่า: เราต้องการสร้างเครื่องจักรที่มีสติปัญญาขั้นสูงที่สามารถเอาชนะมนุษย์ได้ในทุกวิถีทาง และถึงกระนั้น พวกเขาก็ไม่มีแผนสำหรับวิธีที่พวกเขาจะควบคุมสิ่งนี้” Tegmark กล่าว
บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้
หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน
SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ
“`