โดรนและรถยนต์ไร้คนขับเป็นอาวุธ ทำไมเราต้องกลัวแฮกเกอร์
โดรนและรถยนต์ไร้คนขับเป็นอาวุธ ทำไมเราต้องกลัวแฮกเกอร์
Anonim

หากปัญญาประดิษฐ์ตกไปอยู่ในมือคนผิด โลกที่มีอารยะธรรมอาจตกอยู่ในความโกลาหล

โดรนและรถยนต์ไร้คนขับเป็นอาวุธ ทำไมเราต้องกลัวแฮกเกอร์
โดรนและรถยนต์ไร้คนขับเป็นอาวุธ ทำไมเราต้องกลัวแฮกเกอร์

ไม่มีใครปฏิเสธได้ว่าปัญญาประดิษฐ์สามารถยกระดับชีวิตเราไปอีกขั้นได้ AI สามารถแก้ปัญหามากมายที่อยู่เหนือพลังของมนุษย์

อย่างไรก็ตาม หลายคนเชื่อว่า superintelligence จะต้องการทำลายเราอย่างแน่นอน เช่น SkyNet หรือจะเริ่มทำการทดลองกับผู้คน เช่น GLADoS จากเกมพอร์ทัล การประชดคือมนุษย์เท่านั้นที่สามารถทำให้ปัญญาประดิษฐ์ดีหรือชั่วได้

เหตุใดปัญญาประดิษฐ์จึงเป็นภัยคุกคามร้ายแรงได้
เหตุใดปัญญาประดิษฐ์จึงเป็นภัยคุกคามร้ายแรงได้

นักวิจัยจาก Yale University, Oxford, Cambridge และ OpenAI ได้เผยแพร่รายงานเกี่ยวกับการใช้ปัญญาประดิษฐ์ในทางที่ผิด มันบอกว่าอันตรายที่แท้จริงมาจากแฮกเกอร์ ด้วยความช่วยเหลือของโค้ดที่เป็นอันตราย พวกเขาสามารถขัดขวางการทำงานของระบบอัตโนมัติภายใต้การควบคุมของ AI

นักวิจัยกลัวว่าเทคโนโลยีที่มีเจตนาดีจะได้รับอันตราย ตัวอย่างเช่น อุปกรณ์เฝ้าระวังไม่เพียงแต่ใช้เพื่อจับผู้ก่อการร้ายเท่านั้น แต่ยังใช้เพื่อสอดแนมประชาชนทั่วไปด้วย นักวิจัยยังกังวลเกี่ยวกับโดรนเชิงพาณิชย์ที่ส่งอาหาร มันง่ายที่จะสกัดกั้นพวกมันและปลูกสิ่งของที่ระเบิดได้

อีกสถานการณ์หนึ่งสำหรับการใช้ AI ในการทำลายล้างคือรถยนต์ที่ขับเคลื่อนด้วยตัวเอง แค่เปลี่ยนรหัสสองสามบรรทัดก็เพียงพอแล้ว และเครื่องจะเริ่มเพิกเฉยต่อกฎความปลอดภัย

เหตุใดปัญญาประดิษฐ์จึงเป็นภัยคุกคามร้ายแรงได้
เหตุใดปัญญาประดิษฐ์จึงเป็นภัยคุกคามร้ายแรงได้

นักวิทยาศาสตร์เชื่อว่าภัยคุกคามอาจเป็นดิจิทัล ทางกายภาพ และทางการเมือง

  • ปัญญาประดิษฐ์ถูกใช้เพื่อศึกษาช่องโหว่ของรหัสซอฟต์แวร์ต่างๆ แล้ว ในอนาคต แฮกเกอร์สามารถสร้างบอทที่จะข้ามการป้องกันได้
  • ด้วยความช่วยเหลือของ AI บุคคลสามารถทำให้กระบวนการต่างๆ เป็นไปโดยอัตโนมัติ ตัวอย่างเช่น ควบคุมฝูงโดรนหรือกลุ่มรถยนต์
  • ด้วยความช่วยเหลือของเทคโนโลยีเช่น DeepFake เป็นไปได้ที่จะโน้มน้าวชีวิตทางการเมืองของรัฐด้วยการเผยแพร่ข้อมูลเท็จเกี่ยวกับผู้นำโลกโดยใช้บอทบนอินเทอร์เน็ต

ตัวอย่างที่น่ากลัวเหล่านี้ยังคงมีอยู่เพียงสมมติฐานเท่านั้น ผู้เขียนการศึกษาไม่แนะนำให้ปฏิเสธเทคโนโลยีอย่างสมบูรณ์ แต่พวกเขาเชื่อว่ารัฐบาลแห่งชาติและบริษัทขนาดใหญ่ควรดูแลความปลอดภัยในขณะที่อุตสาหกรรม AI ยังอยู่ในช่วงเริ่มต้น

ผู้กำหนดนโยบายต้องศึกษาเทคโนโลยีและทำงานร่วมกับผู้เชี่ยวชาญในสาขานี้เพื่อควบคุมการสร้างและการใช้ปัญญาประดิษฐ์อย่างมีประสิทธิภาพ

ในทางกลับกัน นักพัฒนาจะต้องประเมินอันตรายที่เกิดจากเทคโนโลยีชั้นสูง คาดการณ์ผลที่เลวร้ายที่สุด และเตือนผู้นำโลกเกี่ยวกับสิ่งเหล่านี้ รายงานเรียกร้องให้นักพัฒนา AI ร่วมมือกับผู้เชี่ยวชาญด้านความปลอดภัยในสาขาอื่น ๆ และดูว่าหลักการที่รับรองความปลอดภัยของเทคโนโลยีเหล่านี้สามารถใช้เพื่อปกป้องปัญญาประดิษฐ์ได้หรือไม่

รายงานฉบับเต็มอธิบายปัญหาโดยละเอียดมากขึ้น แต่สิ่งที่สำคัญที่สุดคือ AI เป็นเครื่องมือที่ทรงพลัง ผู้มีส่วนได้ส่วนเสียทุกคนควรศึกษาเทคโนโลยีใหม่นี้และตรวจดูให้แน่ใจว่าไม่มีการนำเทคโนโลยีนี้ไปใช้เพื่อวัตถุประสงค์ทางอาญา