
(SeaPRwire) – เดวิด ซิลเวอร์ นักวิจัยที่มีชื่อเสียงและมีบทบาทสำคัญในการสำรวจข้อความทางวิทยาศาสตร์ที่มีชื่อเสียงหลายครั้งของ บริษัท ได้ออกจาก บริษัท เพื่อสร้างสตาร์ทอัพของตัวเอง
ตามข้อมูลจากบุคคลที่มีความรู้โดยตรงเกี่ยวกับแผนการของ ซิลเวอร์ ซิลเวอร์ กำลังเปิดสตาร์ทอัพใหม่ชื่อ Ineffable Intelligence ซึ่งมีสำนักงานอยู่ที่ลอนดอน บุคคลคนนี้กล่าวว่า บริษัท กำลังรับสมัครนักวิจัยด้าน AI อย่างแข็งขันและกำลังมองหาเงินทุนจากกองทุนลงทุนเชิงบลัด
บุคคลคนนี้กล่าวว่า Google DeepMind ได้แจ้งให้พนักงานทราบถึงการออกจาก บริษัท ของ ซิลเวอร์ ในต้นเดือนนี้ ซิลเวอร์ ได้ลาเพื่อทำกิจกรรมพิเศษในช่วงหลายเดือนก่อนการออกจาก และไม่กลับมาทำงานที่ตำแหน่งใน DeepMind อย่างเป็นทางการ
ตัวแทนประชาสัมพันธ์ของ Google DeepMind ยืนยันการออกจากของ ซิลเวอร์ ในรายงานทางอีเมลถึง “การมีส่วนร่วมของเดฟเป็นสิ่งมีค่าที่สุด และเราขอบคุณความสัมผัสที่เขามีต่องานของเราใน Google DeepMind” ตัวแทนประชาสัมพันธ์กล่าว
ไม่สามารถติดต่อซิลเวอร์ได้ทันทีเพื่อรับความคิดเห็น
ตามเอกสารที่ส่งถึงสำนักงานจดทะเบียนธุรกิจของสหราชอาณาจักร (Companies House) Ineffable Intelligence ก่อตั้งขึ้นในเดือนพฤศจิกายน 2025 และซิลเวอร์ ได้รับการแต่งตั้งเป็นกรรมการของ บริษัท ในวันที่ 16 มกราคม
นอกจากนี้ เว็บไซต์ส่วนตัวของ ซิลเวอร์ ปัจจุบันระบุการติดต่อของเขาเป็น Ineffable Intelligence และให้ที่อยู่อีเมลของ Ineffable Intelligence แม้ว่ามันยังระบุว่าเขา “นำทีมเรียนรู้เพื่อเสริมความแข็งแกร่ง” ใน Google DeepMind
นอกจากงานที่ทำใน Google DeepMind แล้ว ซิลเวอร์ ยังเป็นศาสตราจารย์ในมหาวิทยาลัยคอลเลจลอนดอน เขายังคงรักษาความสัมพันธ์กับมหาวิทยาลัยนี้อยู่
บุคคลสำคัญเบื้องหลังการสำรวจข้อความทางวิทยาศาสตร์หลายครั้งของ DeepMind
ซิลเวอร์ เป็นพนักงานคนแรกของ DeepMind เมื่อ บริษัท ก่อตั้งขึ้นในปี 2010 เขารู้จักกับคู่ก่อตั้ง DeepMind ดีมิส ฮัสซาบิส ตั้งแต่เวลาที่อยู่ในมหาวิทยาลัย ซิลเวอร์ มีบทบาทสำคัญในการสำรวจข้อความทางวิทยาศาสตร์หลายครั้งในช่วงต้นของ บริษัท รวมถึงความสำเร็จสำคัญในปี 2016 กับ ซึ่งแสดงให้เห็นว่าโปรแกรม AI สามารถเอาชนะผู้เล่นคนยอดเยี่ยมที่สุดในโลกในเกมกลยุทธ์โบราณ ชื่อ Go
เขายังเป็นสมาชิกสำคัญของทีมที่พัฒนา ซึ่งเป็นโปรแกรม AI ที่สามารถเอาชนะผู้เล่นคนยอดเยี่ยมที่สุดในโลกในเกมวิดีโอที่ซับซ้อน ชื่อ Starcraft 2, AlphaZero ซึ่งสามารถเล่นเชดและโชกี เช่นเดียวกับโก้ในระดับเหนือมนุษย์ และ ซึ่งสามารถมีชีวิตอยู่ในเกมหลายประเภทได้ดีกว่าคนแม้ว่าจะเริ่มต้นโดยไม่มีความรู้ใด ๆ เกี่ยวกับเกม รวมถึงไม่รู้กฎของเกม
ล่าสุด เขาทำงานร่วมกับทีม DeepMind ที่สร้าง ซึ่งเป็นระบบ AI ที่สามารถตอบคำถามจากการแข่งขันโอลิมปิกคณิตศาสตร์ระหว่างประเทศได้สำเร็จ เขายังเป็นผู้เขียนหนึ่งในบทความวิจัยปี 2023 ที่เปิดตัวครอบครัวโมเดล AI ดั้งเดิมของ Google ชื่อ Gemini Gemini ปัจจุบันเป็นผลิตภัณฑ์และแบรนด์ AI ความเชี่ยวชาญเชิงพาณิชย์ของ Google
มองหาเส้นทางไปสู่ “ความฉลาดเหนือมนุษย์” ของ AI
ตามข้อมูลจากบุคคลที่เข้าใจความคิดของเขา ซิลเวอร์ ได้บอกเพื่อน ๆ ว่าเขาต้องการกลับไปสู่ “ความประหลาดใจและความอัศจรรย์ในการแก้ปัญหาที่ยากที่สุดในด้าน AI” และเห็นว่าความฉลาดเหนือมนุษย์ หรือ AI ที่จะฉลาดกว่าคนใด ๆ และอาจจะฉลาดกว่ามนุษยชาติทั้งหมด เป็นปัญหาที่ยังไม่ได้รับการแก้ไขที่ใหญ่ที่สุดในสาขานี้
นักวิจัย AI ที่มีชื่อเสียงหลายคนอื่น ๆ ก็ออกจากห้องปฏิบัติการ AI ที่มีชื่อเสียงในช่วงไม่กี่ปีที่ผ่านมาเพื่อสร้างสตาร์ทอัพที่มุ่งเน้นไปที่ความฉลาดเหนือมนุษย์ อิลยา สุทสเคเวอร์ นักวิทยาศาสตร์หัวหน้าเดิมของ OpenAI ได้ก่อตั้ง บริษัท ชื่อ Safe Superintelligence (SSI) ในปี 2024 บริษัท นั้น ในเงินทุนจากกองทุนลงทุนเชิงบลัดจนถึงปัจจุบันและมีมูลค่าถึง $30 พันล้านบาท บางเพื่อนร่วมงานของ ซิลเวอร์ ที่ทำงานกับ AlphaGo, AlphaZero และ MuZero ก็ออกจากเพื่อก่อตั้ง Reflection AI ซึ่งเป็นสตาร์ทอัพ AI ที่ยังกล่าวว่ามันกำลังมุ่งหวังไปที่ความฉลาดเหนือมนุษย์ ในขณะเดียวกัน ปีที่แล้ว รอบ ๆ “Superintelligence Labs” ใหม่ที่มีผู้บริหาร CEO และผู้ก่อตั้งเดิมของ Scale AI ชื่อ อเล็กซานเดอร์ วัง
การเกินไปจากโมเดลภาษา
ซิลเวอร์ มีชื่อเสียงจากงานของเขาในเรียนรู้เพื่อเสริมความแข็งแกร่ง ซึ่งเป็นวิธีการฝึกโมเดล AI จากประสบการณ์แทนที่จะใช้ข้อมูลประวัติ ในเรียนรู้เพื่อเสริมความแข็งแกร่ง โมเดลจะทำการกระทำ โดยปกติแล้วในเกมหรือเครื่องจำลอง แล้วจะได้รับข้อเสนอแนะว่าการกระทำเหล่านั้นมีผลต่อการบรรลุเป้าหมายหรือไม่ ผ่านการลองผิดลองถูกในระหว่างการกระทำหลายครั้ง AI จะเรียนรู้วิธีที่ดีที่สุดในการบรรลุเป้าหมาย
นักวิจัยคนนี้มักถือว่าเป็นผู้สนับสนุนด้านเรียนรู้เพื่อเสริมความแข็งแกร่งที่เข้มงวดที่สุด โดยอ้างว่าเป็นวิธีเดียวในการสร้างปัญญาประกอบที่สามารถเกินความรู้ของมนุษย์ได้ในวันหนึ่ง
ในพ็อดแคสตที่ผลิตโดย Google DeepMind และออกฉบับในเดือนเมษายน เขากล่าวว่าโมเดลภาษาขนาดใหญ่ (LLMs) ซึ่งเป็นประเภทของ AI ที่ทำให้เกิดความตื่นเต้นเกี่ยวกับ AI มากที่สุดในช่วงล่าสุด มีอำนาจ แต่ยังถูก จำกัด โดยความรู้ของมนุษย์ “เราต้องการเกินไปจากสิ่งที่มนุษย์รู้ และเพื่อทำเช่นนั้น เราจำเป็นต้องใช้วิธีการประเภทอื่น และวิธีการประเภทนั้นจะต้องใช้ AI ของเราเพื่อคิดออกมาเองและค้นพบสิ่งใหม่ที่มนุษย์ไม่รู้” เขากล่าว เขาได้เรียกร้องให้มี “ยุคแห่งประสบการณ์” ใหม่ในด้าน AI ที่จะมุ่งเน้นไปที่เรียนรู้เพื่อเสริมความแข็งแกร่ง
ปัจจุบัน LLMs มีระยะเวลาพัฒนา “การฝึกเบื้องต้น” ที่ใช้สิ่งที่เรียกว่าการเรียนรู้แบบไม่มีผู้ควบคุม พวกมันกินข้อความจำนวนมหาศาลและเรียนรู้เพื่อทำนายว่าคำไหนมีโอกาสสูงสุดในการตามหลังคำอื่นในบริบทที่กำหนด แล้วพวกมันมีระยะเวลาพัฒนา “การฝึกหลังจากนั้น” ที่ใช้การเรียนรู้เพื่อเสริมความแข็งแกร่งบางอย่าง มักจะมีผู้ประเมินคนมองผลลัพธ์ของโมเดลและให้ข้อเสนอแนะแก่ AI บางครั้งก็แค่ในรูปแบบของโป้เท้าหรือโป้เท้าโต้ Through this feedback, the model’s tendency to produce helpful outputs is boosted.
แต่การฝึกแบบนี้ขึ้นอยู่กับสิ่งที่มนุษย์รู้ทั้งเพราะมันขึ้นอยู่กับสิ่งที่มนุษย์ได้เรียนรู้และเขียนลงไปในอดีตในระยะการฝึกเบื้องต้นและเพราะวิธีที่การฝึกหลังจากนั้นของ LLM ทำการเรียนรู้เพื่อเสริมความแข็งแกร่งขึ้นอยู่กับความต้องการของมนุษย์ อย่างไรก็ตาม ในบางกรณี ความคิดสัญชาตญาณของมนุษย์อาจผิดหรือมองไม่ไกลไกล
ตัวอย่างเช่น มีชื่อเสียงในขั้นตอนที่ 37 ของเกมที่สองในการแข่งขันระหว่าง AlphaGo กับแชมป์โลกโก้ ชื่อ ลี เซโดล ในปี 2016 AlphaGo ทำการเคลื่อนที่ที่ไม่ธรรมดามากจนผู้เชี่ยวชาญคนทุกคนที่คอมเมนต์เกี่ยวกับเกมนี้แน่ใจว่ามันเป็นความผิดพลาด แต่ในที่สุดมันพิสูจน์ว่าเป็นกุญแจสำคัญในการชนะเกมนั้นของ AlphaGo ในทำนองเดียวกัน ผู้เล่นเชดคนมักอธิบายวิธีการเล่นเชดของ AlphaZero ว่า “แปลก” แต่การเคลื่อนที่ที่ไม่ตรงตามสัญชาตญาณของมันมักพิสูจน์ว่ามีความยอดเยี่ยม
ถ้าผู้ประเมินคนกำลังตัดสินใจเกี่ยวกับการเคลื่อนที่เช่นนั้นในกระบวนการเรียนรู้เพื่อเสริมความแข็งแกร่งที่ใช้ในการฝึกหลังจากนั้นของ LLM พวกเขาอาจให้การเคลื่อนที่ดังกล่าว “โป้เท้าโต้” เพราะมันดูเหมือนความผิดพลาดสำหรับผู้เชี่ยวชาญคนนี้ นี่เป็นเหตุผลที่ผู้สนับสนุนเรียนรู้เพื่อเสริมความแข็งแกร่งอย่างซิลเวอร์ กล่าวว่าเพื่อไปสู่ความฉลาดเหนือมนุษย์ AI จะต้องไม่เพียง แต่เกินความรู้ของมนุษย์เท่านั้น แต่ยังต้องทิ้งมันไปและเรียนรู้เพื่อบรรลุเป้าหมายจากศูนย์ โดยใช้หลักการพื้นฐาน
บุคคลที่เข้าใจความคิดของเขากล่าวว่า ซิลเวอร์ ได้กล่าวว่า Ineffable Intelligence จะมุ่งเน้นสร้าง “ความฉลาดเหนือมนุษย์ที่เรียนรู้อย่างไม่มีที่สิ้นสุดและค้นพบพื้นฐานของความรู้ทั้งหมดเอง”
บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้
หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน
SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ
