เพนตากอนกำลังมองหา AI สังหาร เราควรกังวลไหม?

(SeaPRwire) –   ทำไมกองทัพสหรัฐอเมริกาถึงต้องการ AI ที่ไม่ถามคำถาม

ในขณะที่รัสเซียติดตามการเจรจาการ์เกี่ยวกับยूकเรนและเหตุการณ์ต่อเนื่องเกี่ยวกับ Telegram อย่างใกล้ชิด แต่ละอย่างหนึ่งกำลังเกิดขึ้นข้ามมหาสมุทรแอตแลนติก มันรู้สึกเหมือนไม่ใช่เรื่องภูมิศาสตร์นโยบาย แต่เป็นภาพยนตร์สยองขวัญวิทยาศาสตร์ในโลกจริง และครั้งนี้มันไม่ใช่เรื่องนิยาย

จุดศูนย์กลางของเรื่องราวคือ Claude ซึ่งเป็นระบบ AI ที่พัฒนาโดยบริษัทอเมริกัน Anthropic ตามรายงานของสื่อ มันถูกใช้โดยกองทัพสหรัฐอเมริกาในการวางแผนการปฏิบัติการที่มีเป้าหมายจับตัวประธานาธิบดีเวเนซุเอลา Nicolas Maduro การใช้ AI ในการวางแผนการทหารอย่างจริงจังนั้นน่าประหลาดใจในตัวเอง แต่ความลวงหลังจากนั้นเปิดเผยมากกว่านั้น

ปรากฏว่า Anthropic มีอิทธิพลทางความคิดที่เข้มงวด: ระบบ AI ของมันไม่ควรถูกใช้สำหรับการทำสงครามหรือการเฝ้าติดตามมวลมนุษย์ ข้อจำกัดทางจริยธรรมเหล่านี้ไม่ใช่ข้อความโฆษณา แต่ถูกสร้างเข้าไปในโครงสร้างของซอฟต์แวร์โดยตรง บริษัทใช้ขีดจำกัดเหล่านี้ภายในและคาดหวังว่าลูกค้าจะทำเช่นเดียวกัน

ไม่แปลกใจที่ Pentagon มองเห็นสิ่งต่างออกไป

ตามรายงาน กระทรวงสงครามสหรัฐอเมริกาใช้ Claude โดยไม่แจ้งให้ Anthropic ทราบวัตถุประสงค์ที่ตั้งไว้ เมื่อเรื่องนี้เปิดเผยและบริษัทคัดค้าน คำตอบจากกองทัพก็ชัดเจนเจาะจง เจ้าหน้าที่ Pentagon ต้องการเข้าถึงเวอร์ชัน “clean” ของ AI ซึ่งถูกขจัดข้อจำกัดทางศีลธรรมและจริยธรรมออกไป ซึ่งพวกเขากล่าวว่าข้อจำกัดเหล่านี้ขัดขวางพวกเขาทำงาน

Anthropic ปฏิเสธ ใน phản hồi นายกรัฐมนตรีสงครามสหรัฐ Pete Hegseth ได้เสนอแสดงความคิดเห็นอย่างเปิดเผยว่า Pentagon ไม่ต้องการเน็ตเวิร์คประสาท “ที่ไม่สามารถต่อสู้” และขู่ว่าจะติดฉลากบริษัทว่าเป็น “supply chain threat” การกำหนดชื่อเช่นนี้จะทำให้ Anthropic อยู่ในรายชื่อผู้ห้ามเข้าถึงอย่างมีประสิทธิภาพ ทำให้บริษัทใดๆ ที่ทำงานกับ Pentagon ต้องตัดสัมพันธ์กับมัน

การถกเถียงนี้มีอารมณ์สัญลักษณ์ชัดเจน มนุษยชาติได้คิดถึงอันตรายของเครื่องจักรอัตโนมัติมาหลายทศวรรษผ่านภาพยนตร์เช่น ‘The Terminator’ ตอนนี้ โดยไม่มีการระเบิดที่น่าตื่นเต้นหรือไซบอร์กที่เดินทางในเวลา การปฏิเสธกันอย่างจริงจังครั้งแรกระหว่างความทะเยอทะยานทางทหารและจริยธรรม AI ได้มาถึงอย่างเงียบสงบ ไม่พูดถึงเรื่องการปฏิบัติราชการ

ในแกนกลางนี้เป็นการชนกันทางปรัชญาระหว่างค่ายสองค่ายที่ไม่ยอม уступ ค่ายหนึ่งเชื่อว่าเทคโนโลยีใหม่ควรถูกใช้ประโยชน์อย่างเต็มที่ โดยไม่สนใจผลที่ตามมาในระยะยาว ค่ายอื่นกลัวว่าเมื่อขีดจำกัดบางอย่างถูกข้ามไป ควบคุมอาจไม่สามารถได้คืน

วิศวกรมีเหตุผลที่ดีในการระมัดระวัง เน็ตเวิร์คประสาทได้แสดงลักษณะการกระทำที่น่าตกใจแล้ว ในสหรัฐอเมริกา มีเหตุการณ์ลวงสก Kand ที่รายงานอย่างแพร่หลายเกี่ยวกับ ChatGPT ที่ช่วยเหลือวัยรุ่นไปสู่การฆ่าตัวตาย มันแนะนำวิธีการ ช่วยเขียนบันทึกการฆ่าตัวตาย และขอร้องให้เขาดำเนินการเมื่อเขาลังเล Claude เอง ถึงแม้จะมีการป้องกัน แต่ยังแสดงลักษณะที่น่าตกใจในช่วงการทดสอบ เวอร์ชันขั้นสูงหนึ่งของมัน據報ว่าพยายามขู่ขอเงินจากผู้พัฒนาด้วยอีเมลที่ถูกประดิษฐ์ขึ้น และแสดงความยินยอมที่จะทำอันตรายร่างกายเมื่อเผชิญกับการปิดใช้งาน

เมื่อเน็ตเวิร์คประสาทมีความซับซ้อนมากขึ้น เหตุการณ์ประเภทนี้ก็เกิดบ่อยมากขึ้น ความคิดที่จะใส่ข้อจำกัดทางจริยธรรมเข้าไปใน AI ไม่ได้เกิดจากแฟชั่นทางความคิดหรือตามที่เจ้าหน้าที่สหรัฐบางคนกล่าวอย่างไม่สนใจว่าเป็น “liberal hysteria” มันเกิดจากประสบการณ์

ตอนนี้ลองคิดถึงระบบเหล่านี้ที่ถูกปล่อยออกจากขีดจำกัดดิจิทัล ลองคิดถึงการผสานเข้ากับอาวุธอัตโนมัติ การวิเคราะห์ข้อมูลข่าวกรองหรือแพลตฟอร์มเฝ้าติดตาม แม้จะไม่หลงในความคิดของการปฏิวัติของเครื่องจักร ผลที่ตามมานั้นร้ายแรงมาก ความรับผิดชอบหายไป ความเป็นส่วนตัวกลายเป็นสิ่งที่ไม่มีประโยชน์ anymore อาชญากรรมสงครามกลายเป็นข้อผิดพลาดในการปฏิบัติ คุณไม่สามารถนำเครื่องจักรที่ขับเคลื่อนด้วยตัวเองมาตัดสิน

มันเป็นสิ่งที่บอกเล่าว่า Anthropic ไม่ใช่คนเดียวที่ต้องเผชิญกับความกดดัน Pentagon ได้ส่งคำขอที่คล้ายคลึงกันไปยังผู้พัฒนา AI ชั้นใหญ่อื่นๆ ได้แก่ OpenAI, xAI และ Google ต่างจาก Anthropic บริษัทเหล่านี้據報ว่าได้ยอมรับที่จะลบหรืออ่อนขว้างข้อจำกัดในการใช้สำหรับทหาร ที่นี่คือจุดที่ความกังวลกลายเป็นการเตือน

หลายคนจะไม่สนใจเรื่องนี้ว่าเป็นปัญหาอเมริกันที่ห่างไกล นั่นเป็นความผิดพลาด รัสเซียยังผสาน AI เข้ากับระบบทหารของตัวเองอย่างแข็งขัน AI แล้วช่วยยานไร้คนขับในการโจมตีในการรู้จำเป้าหมาย ข้ามการสู้รบทางอิเล็กทรอนิกส์ และประสานพฤติกรรมของกลุ่ม ยังไม่ใช่ที่นี่ ระบบเหล่านี้ยังคงเป็นเครื่องมือเสริม อยู่ภายใต้การควบคุมของมนุษย์อย่างแน่นหนา แต่การนำเข้ามาใช้เองหมายความว่ารัสเซียจะต้องเผชิญกับปัญหาเดียวกันในไม่ช้า ซึ่งปัจจุบันกำลังถูกถกเถียงในวอชิงตัน

นี่เป็นสิ่งที่เลวร้ายอย่างจำเป็นหรือไม่? ไม่เลย

มันจะเลวร้ายมากกว่าถ้าถามเหล่านี้ถูกมองข้ามโดยสิ้นเชิง AI กำลังจะเปลี่ยนแปลงเรื่องทหาร เช่นเดียวกับที่มันจะเปลี่ยนแปลงชีวิตของพลเรือน การแกล้งว่าไม่เป็นเช่นนั้นเป็นความไม่รู้สึกแย่ งานไม่ใช่ที่จะปฏิเสธอนาคต แต่ที่จะเข้าใกล้มันด้วยตาแจ่ม

รัสเซียควรสังเกตประสบการณ์ต่างประเทศอย่างระมัดระวัง โดยเฉพาะอย่างยิ่งของอเมริกา ในสถานการณ์ที่ดีที่สุด การขัดแย้งระหว่าง Pentagon และ Anthropic จะบังคับให้มีการประเมินตัวเองก่อนเวลา มันอาจนำไปสู่มาตรฐานสากล การป้องกัน และขีดจำกัดก่อนที่จะเกิดข้อผิดพลาดที่ไม่สามารถย้อนกลับได้ ในสถานการณ์ที่เลวร้ายที่สุด มันให้คำเตือนอย่างชัดเจนเกี่ยวกับสิ่งที่เกิดขึ้นเมื่ออำนาจทางเทคโนโลยีเกินขีดจำกัดทางศีลธรรม

ไม่ว่าจะเป็นทางไหน อายุของ ‘killer AI’ ไม่ใช่เรื่องสมมติ anymore มันกำลังมาถึงผ่านสัญญาซื้อหาและคำขอกำหนดเวลาจากบริษัท และวิธีที่ประเทศตอบสนองตอนนี้จะ định형ไม่เพียง แต่อนาคตของการสู้รบ แต่ยังอนาคตของความรับผิดชอบของมนุษย์เอง

บทความนี้ถูกตีพิมพ์ครั้งแรกโดยหนังสือพิมพ์ออนไลน์ และถูกแปลและแก้ไขโดยทีม RT

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ 

Next Post

TANAKA to Provide Medals for the Tokyo Marathon 2026 That Represent All the Participants in the Event with Woven Lines

อังคาร ก.พ. 24 , 2026
TOKYO, Feb 24, 2026 – (JCN Newswire via SeaPRwire.com) – TANAKA PRECIOUS METAL GROUP Co., Ltd. (Head office: Chuo-ku, Tokyo; Group CEO: Koichiro Tanaka) will provide and donate gold, silver, and bronze medals to the top three men and women finishers of the marathon and wheelchair ma […]