เจ้าหน้าที่สูงอันดับในหอพิฆเนตรกล่าวถึงช่วงเวลาที่ทำให้ประหลาดใจ เมื่อผู้นำทางการป้องกันประเทศตระหนกว่าองค์กร Anthropic มีความสำคัญอย่างไม่สามารถแทนที่ได้ และเห็นความเสี่ยงในการสูญเสียการเข้าถึง

(SeaPRwire) –   การพึ่งพาของกระทรวงกลาโหมในเทคโนโลยี AI ของ Anthropic กลายเป็นความตระหนกใจที่ในที่สุดก็นำไปสู่ความแตกแยกอย่างรุนแรงตามคำกล่าวของเจ้าหน้าที่สูงสุดใน Pentagon

Emil Michael ผู้อำนวยการรองเพื่อวิจัยและวิศวกรรมรวมทั้งผู้อำนวยการเทคโนโลยีหลักของกระทรวงได้เล่าเรื่องราวที่นำไปสู่ความขัดแย้งสาธารณะในตอนวันศุกร์ของรายการพอคแคสต

หลังจากการโจมตีของกองทัพสหรัฐฯ ในเวเนซุเอลาในต้นเดือนมกราคมซึ่งจับกุมผู้บังคับบัญชา Nicolas Maduro แล้ว Anthropic ได้ถาม Palantir ว่า AI ของตัวเองถูกใช้ในปฏิบัติการหรือไม่ แม้ว่า Anthropic จะอธิบายว่าคำถามนี้เป็นเรื่องปกติ แต่ Pentagon และ Palantir ได้ตีความว่าเป็นภัยคุกคามที่อาจขัดขวางการเข้าถึง

“ผมรู้สึกว่า ‘โอ้พระเจ้า’ ถ้าแอปพลิเคชันนี้หยุดทำงาน หรือมีระบบควบคุมขัดขวาง หรือปฏิเสธการทำงานในครั้งต่อไปที่มีรบเช่นนี้ เราจะปล่อยคนของเราไว้ในอันตราย” Michael ได้กล่าวถึงความทรงจำ “ดังนั้นผมจึงไปพูดกับ Secretary Hegseth ว่าสิ่งนี้อาจเกิดขึ้น และนั่นก็คือช่วงเวลาที่ผู้นำทุกคนใน Pentagon รู้สึกประหลาดใจมาก เพราะเราได้พึ่งพาผู้ให้บริการซอฟต์แวร์นี้อย่างมากโดยไม่มีทางเลือกอื่น”

จนกระทั่งไม่นานมานี้ Claude จาก Anthropic เป็นโมเดล AI เพียงรายเดียวที่ได้รับอนุญาตให้ใช้ในสถานการณ์มีรหัสลับ สตาร์ทอัพที่ตั้งอยู่ในซานฟรานซิสโกได้กล่าวว่ามัน… แต่ไม่อนุญาตให้ AI ของตัวเองถูกใช้ในการตรวจสังเกตกลมใหญ่ในประเทศหรืออาวุธอัตโนมัติ

Pentagon ก็ยืนยันว่าจะใช้ AI ในสถานการณ์ที่ถูกกฎหมายและปฏิเสธที่จะยึดตามข้อ จำกัดใดๆ จาก บริษัทที่เกินกว่าข้อ จำกัดดังกล่าว

หลังจากไม่สามารถตกลงกันได้ในสัปดาห์ที่ผ่านมา ประธานาธิบดี Donald Trump ได้สั่งให้รัฐบาลกลางหยุดใช้ Anthropic พร้อมทั้งให้ Pentagon ใช้เวลาหกเดือนในการเลิกใช้อย่างเป็นระยะ รมวลกาโสทัศน์ Pete Hegseth ยังระบุบริษัทนี้ว่าเป็นความเสี่ยงในห่วงโซ่อุปทาน ซึ่งหมายความว่าผู้รับเหมาไม่สามารถใช้มันในการทำงานทหาร

ในขณะนี้ กองทัพยังคงใช้ Anthropic ในช่วงสงครามของสหรัฐฯ กับอิหร่าน เนื่องจาก AI ช่วยให้ผู้รบสามารถระบุเป้าหมายที่อาจมีได้อย่างรวดเร็ว

ในรายการพอคแคสต Michael ได้ยกข้อห่วงใยว่าผู้พัฒนาที่ไม่เชื่อถือได้อาจ “ทำร้ายโมเดล” เพื่อทำให้มันไม่ประสงค์ผลกับกองทัพ ฝึกให้มันสร้างภาพจินตนาการโดยเจตนาหรือสั่งให้มันไม่ปฏิบัติตามคำสั่ง

จากนั้นเขาได้ติดต่อ OpenAI ซึ่งสุดท้ายก็ได้ทำข้อตกลงคล้ายกับที่ Anthropic ทำ xAI ของ Elon Musk ก็ถูกนำเข้ามาในระบบมีรหัสลับ ในขณะที่ Pentagon กำลังพยายามให้ AI ของ Google ได้รับอนุญาตใช้ในสถานการณ์มีรหัสลับด้วย

“ผมไม่มีความคิดรบกวน” Michael กล่าว “ผมแค่ต้องการทุกบริษัท ผมต้องการให้ทุกคนมีเงื่อนไขเดียวกันเพราะผมต้องการมีความปลอดภัยด้านความซ้ำ”

เขายอมรับว่า Anthropic ได้เข้ามาแทรกซึมในกระทรวงอย่างลึกซึ้ง ในขณะที่บริษัท AI อื่นๆ ไม่ได้ไล่ตามลูกค้าวงการอย่างรุนแรงโดยส่งวิศวกรไปดำเนินการที่ที่ทำงาน

ความแตกแยกระหว่าง Pentagon และ Anthropic เน้นให้เห็นถึงความขัดแย้งทางวัฒนธรรมระหว่างสถาบันกลาโหมและซิลิคอนวัลเลย์ ซึ่งมีรากฐานในนวัตกรรมทางทหาร แต่ตอนนี้กลายเป็นที่รังเกียจที่เห็นเทคโนโลยีของตัวเองถูกใช้ในสงคราม

ที่จริง วิศวกรหุ่นยนต์ชั้นนำของ OpenAI ได้ออกจากบริษัทเมื่อวันเสาร์ โดยอ้างเหตุผลเดียวกับที่ Anthropic กล่าวถึง

“นี่ไม่ใช่การตัดสินใจที่ง่าย AI มีบทบาทสำคัญในความมั่นคงแห่งชาติ แต่การตรวจสังเกตชาวอเมริกันโดยไม่มีความเห็นชอบของศาลและการควบคุมอาวุธร้ายแรงโดยไม่มีอนุญาตจากมนุษย์คือขีดจำกัดที่ควรได้รับการพิจารณามากกว่าที่ได้รับ” กล่าวใน… และ…

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ