
(SeaPRwire) – เมื่อ κυβέρνηส่วนกลางของทรัมป์ระบุ Anthropic เป็น “อันตรายในห่วงโซ่อุปทาน” และสั่งให้หน่วยงานของสหรัฐทุกแห่งหยุดใช้ Claude ไม่เพียง แต่ยกเลิกสัญญา 200 ล้านดอลลาร์เท่านั้น แต่อาจได้เริ่มขบวนการเหตุการณ์ที่ทําให้ บริษัท AI ที่ก้าวหน้าที่สุดของอเมริกา อ่อนแอขึ้น — ในช่วงเวลาที่สหรัฐต้องการมันมากที่สุด
ปัจจุบัน Anthropic ได้ยื่นฟ้องคดี 2 คดีเข้าต่อกรมทหารสหรัฐ (Department of Defense) แล้ว สิ่งที่เกิดขึ้นต่อไป อาจมีความสําคัญมากกว่าที่ทั้งสองฝ่ายบอกกัน
เกิดอะไรขึ้นจริงๆ
เชื่อว่า Anthropic ปฏิเสธที่จะให้ Pentagon มีการเข้าถึง Claude (โมเดล AI ชั้นหน้า) โดยไม่มีข้อ จํากัด ซึ่งเป็นโมเดลเดียวที่ปัจจุบันใช้งานบนเครือข่ายทหารที่มีข้อมูลลับ พวกเขาต้องการการรับรองว่าจะไม่มีการเฝ้าระวังมวลชน และไม่มีอาวุธอัตโนมัติที่ไม่มีคนควบคุมในวง (human in the loop) ที่ตัดสินใจสุดท้ายเกี่ยวกับชีวิตและความตาย ข้อความจากกรมทหารสหรัฐคือ “ลบข้อ จํากัดเหล่านั้น หรือสูญเสียทุกอย่าง” และประธานาธิบดีทรัมป์สั่งให้หน่วยงานของสหรัฐทุกแห่งหยุดใช้ Anthropic และระบุบริษัทนี้ว่าเป็น “อันตรายในห่วงโซ่อุปทาน”
แต่เรื่องนี้มีอะไรที่มากกว่าคดีฟ้องและอารมณ์เสียมาก
ภัยคุกคามที่แท้จริงไม่ใช่สัญญา
กฎของสหรัฐแล้วห้ามการเฝ้าระวังมวลชนของพลเมืองสหรัฐ นโยบายของกรมทหารสหรัฐแล้ว จํากัดอาวุธอัตโนมัติ Anthropic กําลังขอสิทธิ์วีโต้ในสัญญาในการกิจกรรมที่เป็นอันตรายแล้ว บริษัทเอกชน ที่อ้างอิงอํานาจในการดําเนินการของกองทัพสหรัฐ ไม่ยอมรับได้ ไม่มีใครเลือก Dario Amodei และเราไม่อนุญาตให้ Lockheed กําหนดหลักการกำหนดเป้าหมาย ความคิดที่ว่าบริษัทซอฟต์แวร์ควรมีสิทธิ์วีโต้ในการตัดสินใจดําเนินการทหารไม่มีกรณีตัวอย่างมาก่อน
Claude มีประสิทธิภาพมากกว่า ChatGPT ในเกือบทุกเกณฑ์มาตรฐานขององค์กรที่สําคัญ ตั้งแต่การเหตุผลทางกฎหมายและการสร้างแบบจำลองทางการเงินไปจนถึงความปลอดภัยไซเบอร์และการปรับปรุงสถานะของระบบเก่า แต่การระบุว่าเป็น “อันตรายในห่วงโซ่อุปทาน” โดยกรมทหารสหรัฐ อาจทําละลายแรงขับเคลื่อนทางการค้าของ Anthropic ก่อนที่จะสามารถใช้ประโยชน์จากความเป็นผู้นำทางเทคโนโลยีได้อย่างเต็มที่
ความเสี่ยงทางภูมิศาสตร์โลก
Anthropic ได้ลงนามสัญญา 200 ล้านดอลลาร์กับ Pentagon ในเดือนกรกฎาคม 2025 นั่นคือ 8 เดือนที่แล้ว ตอนนี้สัญญาเสร็จแล้ว และ OpenAI กําลังเข้ามาแทนที่ช่องว่างนั้น ถ้าว่าเกิดเร็ว ก็เป็นการบอกเล็กน้อยไป
ยิ่งไปกว่านั้น Anthropic และ OpenAI ทั้งคู่ได้กล่าวหาแลปในประเทศจีนว่าได้สร้างรุ่นย่อยจากโมเดลของพวกเขา รุ่นโอเพนซอร์สที่ถูกขโมยรวมถึง Deepseek ตอนนี้มีให้ใช้งานกับ PLA, อิหร่าน และทุกคนที่กระทําอันไม่ดีบนโลกโดยไม่มีข้อ จํากัดใดๆ เราต้องการอยู่ในโลกที่บริษัทอเมริกัน จํากัดกองทัพของตัวเองในขณะที่คู่ต่อสู้ฝึกฝนบนรุ่นลวงของเทคโนโลยีเดียวกันนั้นโดยไม่มีข้อ จํากัดใดๆ หรือไม่
ภัยคุกคามที่มีชีวิตอยู่จริงๆ ไม่ใช่การสูญเสียสัญญา 200 ล้านดอลลาร์ แต่เป็นผลกระทบที่จะแผ่ออกไปผ่าน AWS, Google, Palantir, Accenture, Deloitte และระบบนิเวศของผู้ต่อสัญญาทหารทั้งหมด ที่จะเข้าถึงฐานลูกค้าทางการค้าของ Anthropic ในสหรัฐอย่างลึกซึ้ง
โลกของบริษัทได้แสดงว่าพวกเขาจะทําทุกอย่างที่จําเป็นเพื่อให้ κυβέρνηปัจจุบันพอใจกับพวกเขา บริษัททุกแห่งที่ทำธุรกิจกับ κυβέρνηส่วนกลาง ตอนนี้อาจต้องรับรองว่าไม่มีการสัมผัสผลิตภัณฑ์ของ Anthropic เลย AWS, Google Cloud, Azure ทั้งหมดให้บริการแก่ κυβέρνη และ Anthropic กล่าวว่าบริษัทใหญ่ที่สุดของสหรัฐใช้ Claude และหลายแห่งเป็นผู้ต่อสัญญาทหาร ถ้าเกิดสิ่งนี้ขึ้น Anthropic อาจไม่สามารถดำเนินการในสหรัฐอเมริกาได้นานอีก
Anthropic สามารถชนะในศาลได้หรือไม่?
มุมมองของฉันคือ ตามกฎหมาย การระบุชื่อจะไม่ยืนยันได้ มีข้อ จํากัดจาก 10 U.S.C. § 3252, การอ้างอิงขั้นตอนที่ถูกต้อง (due process) และแก้ไขตาม Amendement แรก (First Amendment), และกรณีตัวอย่างจาก Luokung และ Xiaomi จากนั้น มีข้อขัดแย้งโดยธรรมชาติว่า κυβέρνηกล่าวว่า Anthropic อันตราย แต่พวกเขาให้เวลา 6 เดือนในการยกเลิกการใช้งานทีละขั้น
ทั้งหมดนั้นรวมกัน และมีแผนการทํางานให้ Anthropic ชนะคดี 2 คดีนี้ พวกเขามีเงินล้านล้านดอลลาร์ ซึ่งหมายความว่าพวกเขาสามารถจ้างทีมกฎหมายที่ดีที่สุดที่เงินสามารถซื้อได้ พวกเขามีอาวุธและความตั้งใจที่จะต่อสู้กับ κυβέρνηนี้จนกว่าจะเสร็จ
สิ่งที่ Anthropic ต้องทําในขณะนี้
ชนะในศาลเป็นสิ่งที่จําเป็น แต่ไม่เพียงพอ เพื่อให้ยังสามารถดําเนินการได้ Anthropic ต้องก้าวไปในหลายด้านพร้อมกัน:
- เร่งความเป็นผู้นำทางการค้าในประเทศ กับบริษัทที่ไม่เกี่ยวข้องกับสัญญา κυβέρνη
- สร้างกลยุทธ์ร่วมกับประเทศพันธมิตร — ค้นหาผู้ร่วมมือต่างประเทศที่สามารถได้ประโยชน์จาก Claude และสร้างฐานลูกค้านั้นโดยทันที
- ฟ้องคดีอย่างก้าวร้าวและไม่หยุด — ความล่าช้าเป็นศัตรู
- เพิ่มความเชื่อมโยงในระบบนิเวศ โดยเป็นผู้นำกลุ่มการปกครองสำหรับ AI ที่ขับเคลื่อนด้วยค่านิยมและมีความรับผิดชอบ — ยิ่ง Anthropic สร้างความดีในสาธารณะและความเชื่อถือในอุตสาหกรรมมากขึ้น ยิ่งตำแหน่งในระยะยาวแข็งแกร่งขึ้น
คำถามหลักไม่เกี่ยวกับคดีฟ้องหรือเงินสัญญา แต่เกี่ยวกับว่า ใครเป็นผู้ตัดสินขอบเขตของการป้องกันชาติ — คนที่ถูกเลือกให้รับผิดชอบต่อผู้มีสิทธิ์เลือกตั้ง หรือผู้บริหารเทคโนโลยีที่รับผิดชอบต่อคณะกรรมการของพวกเขา Vinod Khosla กล่าวอย่างชัดเจนว่า: เขาชื่นชอบหลักการของ Anthropic แต่ไม่เห็นด้วยกับหลักการนั้นเอง
บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้
หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน
SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ
