สิ่งที่ปัญญาประดิษฐ์สามารถทำได้จริงในปัจจุบัน
สิ่งที่ปัญญาประดิษฐ์สามารถทำได้จริงในปัจจุบัน
Anonim

การแจ้งเตือนสปอยเลอร์: ยังอีกนานก่อนการจลาจลของเครื่องจักร

สิ่งที่ปัญญาประดิษฐ์สามารถทำได้จริงในปัจจุบัน
สิ่งที่ปัญญาประดิษฐ์สามารถทำได้จริงในปัจจุบัน

เมื่อ Elon Musk เปิดตัวหุ่นยนต์ฮิวแมนนอยด์อย่าง Tesla Bot ดูเหมือนว่าการปฏิวัติทางวิทยาศาสตร์ครั้งใหม่จะอยู่ใกล้แค่เอื้อม อีกหน่อย - และปัญญาประดิษฐ์ (AI) จะแซงหน้ามนุษย์และเครื่องจักรจะมาแทนที่เราในที่ทำงาน อย่างไรก็ตาม ศาสตราจารย์ Gary Marcus และ Ernest Davis ซึ่งเป็นผู้เชี่ยวชาญด้าน AI ที่มีชื่อเสียง ถูกขอร้องไม่ให้รีบเร่งไปยังข้อสรุปดังกล่าว

ในการรีบูตปัญญาประดิษฐ์ นักวิจัยอธิบายว่าเหตุใดเทคโนโลยีสมัยใหม่จึงห่างไกลจากอุดมคติ โดยได้รับอนุญาตจากสำนักพิมพ์ "Alpina PRO" Lifehacker เผยแพร่ข้อความที่ตัดตอนมาจากบทแรก

ณ จุดนี้ มีช่องว่างขนาดใหญ่ - ช่องว่างที่แท้จริง - ระหว่างความทะเยอทะยานของเรากับความเป็นจริงของปัญญาประดิษฐ์ ช่องว่างนี้เกิดขึ้นเนื่องจากปัญหาสามอย่างที่ไม่ได้รับการแก้ไข ซึ่งแต่ละปัญหาต้องได้รับการจัดการอย่างตรงไปตรงมา

อย่างแรกคือสิ่งที่เราเรียกว่าใจง่าย ซึ่งอิงจากข้อเท็จจริงที่ว่ามนุษย์เราไม่ได้เรียนรู้ที่จะแยกแยะระหว่างมนุษย์กับเครื่องจักรจริงๆ และทำให้หลอกเราได้ง่าย เราถือว่าความฉลาดมาจากคอมพิวเตอร์เพราะเราเองได้พัฒนาและใช้ชีวิตท่ามกลางผู้คนซึ่งส่วนใหญ่ใช้การกระทำของตนบนพื้นฐานของสิ่งที่เป็นนามธรรม เช่น ความคิด ความเชื่อ และความปรารถนา พฤติกรรมของเครื่องจักรมักจะคล้ายคลึงกันเพียงผิวเผินกับพฤติกรรมของมนุษย์ ดังนั้นเราจึงกำหนดกลไกพื้นฐานประเภทเดียวกันให้เครื่องจักรอย่างรวดเร็ว แม้ว่าเครื่องจักรจะไม่มีก็ตาม

เราอดไม่ได้ที่จะนึกถึงเครื่องจักรในแง่ของการรู้คิด (“คอมพิวเตอร์ของฉันคิดว่าฉันลบไฟล์ของฉัน”) ไม่ว่ากฎเกณฑ์ง่ายๆ ที่เครื่องปฏิบัติตามจริงๆ แต่ข้อสรุปที่พิสูจน์ตัวเองเมื่อนำมาใช้กับมนุษย์อาจผิดพลาดอย่างสิ้นเชิงเมื่อนำไปใช้กับโปรแกรมปัญญาประดิษฐ์ ตามหลักการพื้นฐานของจิตวิทยาสังคม เราเรียกสิ่งนี้ว่าข้อผิดพลาดด้านความถูกต้องพื้นฐาน

ตัวอย่างแรกสุดของข้อผิดพลาดนี้เกิดขึ้นในช่วงกลางทศวรรษ 1960 เมื่อแชทบ็อตชื่อเอลิซ่าทำให้บางคนเชื่อว่าเขาเข้าใจสิ่งที่พวกเขากำลังบอกเขาจริงๆ อันที่จริง เอลิซาเพิ่งเลือกคีย์เวิร์ด พูดซ้ำในประโยคสุดท้ายที่คนๆ นั้นพูดกับเธอ และในสถานการณ์ที่จบไม่ลง เธอจึงใช้กลอุบายการสนทนาแบบมาตรฐาน เช่น "บอกฉันเกี่ยวกับวัยเด็กของคุณ" ถ้าคุณพูดถึงแม่ของคุณ เธอจะถามคุณเกี่ยวกับครอบครัวของคุณ แม้ว่าเธอไม่รู้ว่าจริงๆ แล้วครอบครัวคืออะไร หรือเหตุใดจึงสำคัญต่อผู้คน มันเป็นแค่กลอุบาย ไม่ใช่การสาธิตความฉลาดที่แท้จริง

แม้ว่า Eliza จะไม่เข้าใจผู้คนเลย แต่ผู้ใช้หลายคนก็หลงกลโดยบทสนทนากับเธอ บางคนใช้เวลาหลายชั่วโมงในการพิมพ์วลีบนแป้นพิมพ์ พูดแบบนี้กับเอลิซา แต่ตีความกลวิธีแชทบอทผิด เข้าใจผิดคำพูดของนกแก้วเพื่อขอคำแนะนำที่เป็นประโยชน์ จริงใจ หรือเห็นใจ

โจเซฟ ไวเซนบอม ผู้สร้างเอลิซา

คนที่รู้ดีว่ากำลังคุยกับเครื่องกลอยู่ไม่นานก็ลืมความจริงข้อนี้ไป เช่นเดียวกับที่คนรักละครละทิ้งความไม่เชื่อไปชั่วขณะหนึ่งแล้วลืมไปว่าการกระทำที่พวกเขาเห็นไม่มีสิทธิ์เรียกว่าเป็นของจริง

คู่สนทนาของ Eliza มักจะขออนุญาตสำหรับการสนทนาส่วนตัวกับระบบ และหลังจากที่การสนทนานั้นยืนยัน แม้จะมีคำอธิบายทั้งหมดของฉันแล้วก็ตาม เครื่องก็เข้าใจพวกเขาจริงๆ

ในอีกกรณีหนึ่ง ข้อผิดพลาดในการประเมินความถูกต้องอาจเป็นอันตรายถึงชีวิตในความหมายที่แท้จริงของคำ ในปี 2559 เจ้าของรถยนต์เทสลาแบบอัตโนมัติคนหนึ่งพึ่งพาความปลอดภัยของโหมดนักบินอัตโนมัติซึ่ง (ตามเรื่องราว) เขาหมกมุ่นอยู่กับการชมภาพยนตร์แฮร์รี่พอตเตอร์โดยสมบูรณ์ ปล่อยให้รถทำทุกอย่างด้วยตัวเอง

ทุกอย่างเป็นไปด้วยดี - จนกระทั่งถึงจุดหนึ่งมันก็แย่ เมื่อขับไปหลายร้อยหรือหลายพันไมล์โดยไม่เกิดอุบัติเหตุรถชน (ในทุกแง่มุมของคำ) กับสิ่งกีดขวางที่ไม่คาดคิด: รถบรรทุกสีขาวข้ามทางหลวงและเทสลารีบวิ่งไปที่รถเทรลเลอร์ฆ่าเจ้าของรถทันที. (ดูเหมือนรถจะเตือนคนขับหลายครั้งให้เข้าควบคุม แต่ดูเหมือนคนขับจะผ่อนคลายเกินกว่าจะตอบสนองอย่างรวดเร็ว)

คุณธรรมของเรื่องนี้มีความชัดเจน: การที่อุปกรณ์อาจดูเหมือน "ฉลาด" ชั่วขณะหนึ่งหรือสองเดือน (และแม้กระทั่งหกเดือน) ไม่ได้หมายความว่าเป็นเช่นนั้นจริงๆ หรือสามารถรับมือกับสถานการณ์ทั้งหมดที่ บุคคลจะตอบสนองอย่างเพียงพอ

ปัญหาที่สองที่เราเรียกว่าภาพลวงตาของความก้าวหน้าอย่างรวดเร็ว: เข้าใจผิดเกี่ยวกับความก้าวหน้าในปัญญาประดิษฐ์ เกี่ยวข้องกับการแก้ปัญหาง่าย ๆ สำหรับความก้าวหน้า เกี่ยวข้องกับการแก้ปัญหาที่ยากมาก ตัวอย่างเช่น สิ่งนี้เกิดขึ้นกับระบบ IBM Watson: ความคืบหน้าในเกม Jeopardy! ดูเหมือนมีแนวโน้มมาก แต่ในความเป็นจริง ระบบสามารถเข้าใจภาษามนุษย์ได้ไกลกว่าที่นักพัฒนาคาดไว้มาก

เป็นไปได้ว่าโปรแกรม AlphaGo ของ DeepMind จะใช้เส้นทางเดียวกัน เกมเช่นหมากรุกเป็นเกมข้อมูลในอุดมคติที่ผู้เล่นทั้งสองสามารถเห็นกระดานทั้งหมดได้ตลอดเวลาและคำนวณผลที่ตามมาจากการเคลื่อนไหวโดยใช้กำลังเดรัจฉาน

ในกรณีส่วนใหญ่ ในชีวิตจริง ไม่มีใครรู้อะไรอย่างแน่ชัด ข้อมูลของเรามักจะไม่สมบูรณ์หรือบิดเบี้ยว

แม้ในกรณีที่ง่ายที่สุด ก็ยังมีความไม่แน่นอนอยู่มาก เมื่อเราตัดสินใจว่าจะไปพบแพทย์ด้วยการเดินเท้าหรือขึ้นรถไฟใต้ดิน (เนื่องจากวันนั้นมีเมฆมาก) เราไม่รู้แน่ชัดว่าต้องรอนานแค่ไหนสำหรับรถไฟใต้ดิน ไม่ว่ารถไฟจะติดอยู่บนถนนหรือไม่ เราจะยัดเข้าไปในรถม้าเหมือนปลาเฮอริ่งในถัง มิฉะนั้น เราจะเปียกฝนข้างนอก ไม่กล้าขึ้นรถไฟใต้ดิน และแพทย์จะตอบสนองอย่างไรกับการมาสายของเรา

เราทำงานกับข้อมูลที่เรามีอยู่เสมอ การเล่นเกม Go ด้วยตัวมันเองหลายล้านครั้ง ระบบ DeepMind AlphaGo ไม่เคยจัดการกับความไม่แน่นอน เพียงแต่ไม่รู้ว่าการขาดข้อมูลหรือความไม่สมบูรณ์และความไม่สอดคล้องกันของข้อมูลนั้นเป็นอย่างไร ไม่ต้องพูดถึงความซับซ้อนของการปฏิสัมพันธ์ของมนุษย์

มีอีกตัวแปรหนึ่งที่ทำให้เกมฝึกสมองแตกต่างจากโลกแห่งความเป็นจริงอย่างมาก และสิ่งนี้เกี่ยวข้องกับข้อมูลอีกครั้ง แม้แต่เกมที่ซับซ้อน (หากกฎเข้มงวดเพียงพอ) สามารถสร้างแบบจำลองได้เกือบสมบูรณ์แบบ ดังนั้นระบบปัญญาประดิษฐ์ที่เล่นจึงสามารถรวบรวมข้อมูลจำนวนมหาศาลที่จำเป็นสำหรับการฝึกอบรมได้อย่างง่ายดาย ดังนั้นในกรณีของ Go เครื่องสามารถจำลองเกมกับผู้คนได้เพียงแค่เล่นกับตัวเอง แม้ว่าระบบต้องการข้อมูลเป็นเทราไบต์ แต่ระบบจะสร้างมันขึ้นมาเอง

โปรแกรมเมอร์จึงสามารถรับข้อมูลการจำลองที่สมบูรณ์โดยมีค่าใช้จ่ายเพียงเล็กน้อยหรือไม่มีเลย ในทางตรงกันข้าม ในโลกแห่งความเป็นจริง ไม่มีข้อมูลที่สมบูรณ์ ไม่มีจริง มันเป็นไปไม่ได้ที่จะจำลองมัน (เนื่องจากกฎของเกมมีการเปลี่ยนแปลงตลอดเวลา) และยิ่งยากกว่านั้นคือการรวบรวมข้อมูลที่เกี่ยวข้องหลายกิกะไบต์โดยการทดลอง และข้อผิดพลาด

ในความเป็นจริง เรามีความพยายามเพียงไม่กี่ครั้งในการทดสอบกลยุทธ์ต่างๆ

ตัวอย่างเช่น เราไม่สามารถไปพบแพทย์ซ้ำได้ 10 ล้านครั้ง ค่อยๆ ปรับพารามิเตอร์ของการตัดสินใจก่อนเข้ารับการตรวจแต่ละครั้ง เพื่อที่จะปรับปรุงพฤติกรรมของเราอย่างมากในแง่ของทางเลือกในการขนส่ง

หากโปรแกรมเมอร์ต้องการฝึกหุ่นยนต์เพื่อช่วยเหลือผู้สูงอายุ (เช่น เพื่อช่วยให้ผู้ป่วยเข้านอน) ข้อมูลทุกอย่างจะคุ้มค่าเงินจริงและเวลาของมนุษย์จริง ไม่มีทางที่จะรวบรวมข้อมูลที่จำเป็นทั้งหมดโดยใช้เกมจำลองสถานการณ์ แม้แต่หุ่นทดสอบการชนก็ไม่สามารถแทนที่คนจริงได้

จำเป็นต้องรวบรวมข้อมูลเกี่ยวกับผู้สูงอายุที่แท้จริงที่มีลักษณะการเคลื่อนไหวในวัยชราต่างกันบนเตียงประเภทต่างๆชุดนอนประเภทต่างๆบ้านประเภทต่างๆและที่นี่คุณไม่สามารถทำผิดพลาดได้เพราะการทิ้งคนแม้ในระยะห่างหลาย ๆ เซนติเมตรจากเตียงจะเป็นหายนะ ในกรณีนี้ ที่เดิมพันเป็นความคืบหน้าบางอย่าง (จนถึงระดับประถมศึกษาที่สุด) ในพื้นที่นี้ได้รับความสำเร็จโดยใช้วิธีการของปัญญาประดิษฐ์ที่แคบ ระบบคอมพิวเตอร์ได้รับการพัฒนาให้เล่นได้เกือบถึงระดับผู้เล่นที่เป็นมนุษย์ที่ดีที่สุดในวิดีโอเกม Dota 2 และ Starcraft 2 ซึ่งในช่วงเวลาใดก็ตามจะแสดงให้ผู้เข้าร่วมเห็นเพียงส่วนหนึ่งของโลกของเกม ดังนั้นผู้เล่นแต่ละคนจะต้องเผชิญกับ ปัญหาการขาดข้อมูล - ด้วยมือที่เบาของเคลาวิทซ์เรียกว่า "หมอกแห่งความไม่รู้" อย่างไรก็ตาม ระบบที่พัฒนาแล้วยังคงมีการโฟกัสที่แคบและไม่เสถียรในการทำงาน ตัวอย่างเช่น โปรแกรม AlphaStar ที่เล่นใน Starcraft 2 ได้เรียนรู้เพียงเผ่าพันธุ์เดียวจากตัวละครที่หลากหลาย และแทบไม่มีการพัฒนาใดที่สามารถเล่นได้เหมือนกับเผ่าพันธุ์อื่น และแน่นอน ไม่มีเหตุผลที่จะเชื่อได้ว่าวิธีการที่ใช้ในโปรแกรมเหล่านี้เหมาะสำหรับการทำให้การสรุปทั่วไปที่ประสบความสำเร็จในสถานการณ์จริงที่ซับซ้อนมากขึ้น ชีวิตจริง เนื่องจาก IBM ไม่ได้ค้นพบเพียงครั้งเดียว แต่เป็นสองครั้งแล้ว (ครั้งแรกในหมากรุก และต่อมาใน Jeopardy!) ความสำเร็จในปัญหาจากโลกที่ปิดไม่รับประกันความสำเร็จในโลกที่เปิดกว้าง

วงกลมที่สามของช่องว่างที่อธิบายคือการประเมินความน่าเชื่อถือสูงเกินไป ครั้งแล้วครั้งเล่า เราพบว่าทันทีที่ผู้ที่ได้รับความช่วยเหลือจากปัญญาประดิษฐ์พบวิธีแก้ปัญหาบางอย่างที่สามารถทำงานได้โดยไม่ล้มเหลวชั่วขณะหนึ่ง พวกเขาจะถือว่าทุกอย่างมีการแก้ไขโดยอัตโนมัติ (และด้วยข้อมูลจำนวนมากกว่าเล็กน้อย) จะทำงานได้อย่างน่าเชื่อถือ เวลา แต่นี่ไม่ใช่กรณีเสมอไป

เราใช้รถอีกครั้งโดยไม่มีคนขับ มันค่อนข้างง่ายที่จะสร้างการสาธิตของยานยนต์อัตโนมัติที่จะขับอย่างถูกต้องตามเลนที่ทำเครื่องหมายไว้อย่างชัดเจนบนถนนที่สงบ อย่างไรก็ตาม ผู้คนสามารถทำเช่นนี้ได้มากว่าศตวรรษ อย่างไรก็ตาม มันยากกว่ามากที่จะให้ระบบเหล่านี้ทำงานในสถานการณ์ที่ยากลำบากหรือไม่คาดคิด

ดังที่ Missy Cummings ผู้อำนวยการ Humans and Autonomy Laboratory ที่ Duke University (และอดีตนักบินรบของกองทัพเรือสหรัฐฯ) บอกเราทางอีเมลว่า คำถามไม่ได้อยู่ที่รถยนต์ไร้คนขับสามารถเดินทางได้โดยไม่มีอุบัติเหตุได้กี่ไมล์ แต่ในขอบเขต ที่รถเหล่านี้สามารถปรับตัวให้เข้ากับสถานการณ์ที่เปลี่ยนแปลงไป ตามที่ Missy Cummings ของเธอส่งอีเมลถึงผู้เขียนในวันที่ 22 กันยายน 2018 รถยนต์กึ่งอัตโนมัติที่ทันสมัย "มักจะใช้งานได้ในสภาพที่แคบมากเท่านั้น ซึ่งไม่ได้กล่าวถึงวิธีการทำงานภายใต้สภาวะที่เหมาะสม"

การดูน่าเชื่อถืออย่างสมบูรณ์ในการทดสอบไมล์นับล้านในฟีนิกซ์ ไม่ได้หมายความว่าทำงานได้ดีในช่วงมรสุมในบอมเบย์

ความแตกต่างพื้นฐานระหว่างลักษณะการทำงานของยานยนต์อัตโนมัติในสภาวะที่เหมาะสม (เช่น วันที่แดดจ้าบนถนนหลายเลนในเขตชานเมือง) และสิ่งที่พวกเขาอาจทำในสภาวะที่รุนแรง อาจกลายเป็นเรื่องของความสำเร็จและความล้มเหลวสำหรับอุตสาหกรรมทั้งหมดได้อย่างง่ายดาย

ด้วยการเน้นย้ำเพียงเล็กน้อยในการขับขี่แบบอัตโนมัติในสภาวะที่รุนแรง และวิธีการในปัจจุบันไม่ได้พัฒนาไปในทิศทางที่จะทำให้มั่นใจว่าระบบขับเคลื่อนอัตโนมัติจะทำงานอย่างถูกต้องในสภาวะที่เพิ่งเริ่มได้รับการพิจารณาจริง ในไม่ช้าก็จะเป็นที่ชัดเจนว่าเงินหลายพันล้านเหรียญสหรัฐ ได้ใช้ไปกับวิธีการสร้างรถยนต์ที่ขับเคลื่อนด้วยตัวเองซึ่งล้มเหลวในการส่งมอบความน่าเชื่อถือในการขับขี่เหมือนมนุษย์เป็นไปได้ว่าเพื่อให้บรรลุระดับความเชื่อมั่นทางเทคนิคที่เราต้องการ จำเป็นต้องมีวิธีการที่แตกต่างจากปัจจุบันโดยพื้นฐาน

และรถยนต์เป็นเพียงตัวอย่างหนึ่งของรถยนต์ที่คล้ายคลึงกัน ในการวิจัยสมัยใหม่เกี่ยวกับปัญญาประดิษฐ์ ความน่าเชื่อถือของปัญญาประดิษฐ์นั้นถูกประเมินไปทั่วโลกต่ำเกินไป ส่วนหนึ่งเป็นเพราะการพัฒนาในปัจจุบันส่วนใหญ่ในพื้นที่นี้เกี่ยวข้องกับปัญหาที่มีข้อผิดพลาดสูง เช่น การแนะนำการโฆษณาหรือการส่งเสริมผลิตภัณฑ์ใหม่

แน่นอน หากเราแนะนำผลิตภัณฑ์ห้าประเภทให้คุณ และคุณชอบเพียงสามประเภทเท่านั้น จะไม่มีอันตรายเกิดขึ้น แต่ในการใช้งาน AI ที่สำคัญจำนวนหนึ่งในอนาคต ซึ่งรวมถึงรถยนต์ไร้คนขับ การดูแลผู้สูงอายุ และการวางแผนด้านสุขภาพ ความน่าเชื่อถือเหมือนมนุษย์เป็นสิ่งสำคัญ

ไม่มีใครจะซื้อหุ่นยนต์ที่บ้านที่สามารถอุ้มปู่สูงอายุของคุณเข้านอนได้อย่างปลอดภัยเพียงสี่ครั้งในห้าครั้ง

แม้แต่ในงานที่ปัญญาประดิษฐ์สมัยใหม่ควรปรากฏในแสงที่ดีที่สุด ความล้มเหลวร้ายแรงก็เกิดขึ้นเป็นประจำ ซึ่งบางครั้งก็ดูตลกมาก ตัวอย่างทั่วไป: โดยหลักการแล้ว คอมพิวเตอร์ได้เรียนรู้วิธีรับรู้สิ่งที่เกิดขึ้น (หรือกำลังเกิดขึ้น) ในภาพนี้หรือภาพนั้นค่อนข้างดีแล้ว

บางครั้งอัลกอริธึมเหล่านี้ก็ใช้งานได้ดี แต่บ่อยครั้งก็สร้างข้อผิดพลาดอย่างเหลือเชื่อ หากคุณแสดงภาพต่อระบบอัตโนมัติที่สร้างคำบรรยายสำหรับภาพถ่ายในชีวิตประจำวัน คุณมักจะได้คำตอบที่คล้ายกับสิ่งที่มนุษย์จะเขียนอย่างน่าทึ่ง ตัวอย่างเช่น สำหรับฉากด้านล่างที่กลุ่มคนกำลังเล่นจานร่อน ระบบสร้างคำบรรยายที่ได้รับการประชาสัมพันธ์อย่างสูงของ Google ให้ชื่อที่ถูกต้องทุกประการ

รูปที่ 1.1 กลุ่มคนหนุ่มสาวกำลังเล่นจานร่อน (คำบรรยายภาพที่สร้างโดย AI โดยอัตโนมัติ)
รูปที่ 1.1 กลุ่มคนหนุ่มสาวกำลังเล่นจานร่อน (คำบรรยายภาพที่สร้างโดย AI โดยอัตโนมัติ)

แต่ห้านาทีต่อมา คุณจะได้รับคำตอบที่ไร้สาระอย่างแน่นอนจากระบบเดียวกัน เช่น กับป้ายถนนนี้ซึ่งมีคนติดสติกเกอร์: คอมพิวเตอร์ชื่อผู้สร้างระบบไม่ได้อธิบายว่าทำไมข้อผิดพลาดนี้จึงเกิดขึ้น แต่กรณีดังกล่าวไม่ใช่เรื่องแปลก เราสามารถสรุปได้ว่าระบบในกรณีพิเศษนี้จัดประเภทภาพถ่าย (อาจเป็นในแง่ของสีและพื้นผิว) คล้ายกับภาพอื่นๆ (จากที่ได้เรียนรู้) ที่ระบุว่า "ตู้เย็นที่เต็มไปด้วยอาหารและเครื่องดื่มมากมาย" โดยปกติคอมพิวเตอร์ไม่เข้าใจ (ซึ่งบุคคลสามารถเข้าใจได้ง่าย) ว่าคำจารึกดังกล่าวจะเหมาะสมเฉพาะในกรณีของกล่องโลหะสี่เหลี่ยมขนาดใหญ่ที่มีวัตถุต่างๆ (และไม่ใช่ทั้งหมด) อยู่ภายใน ฉากนี้คือ "ตู้เย็นที่มีอาหารและเครื่องดื่มมากมาย"

ข้าว. 1.2. ตู้เย็นที่เต็มไปด้วยอาหารและเครื่องดื่มมากมาย (พาดหัวข่าวสุดเหลือเชื่อ สร้างขึ้นโดยระบบเดียวกับด้านบน)
ข้าว. 1.2. ตู้เย็นที่เต็มไปด้วยอาหารและเครื่องดื่มมากมาย (พาดหัวข่าวสุดเหลือเชื่อ สร้างขึ้นโดยระบบเดียวกับด้านบน)

ในทำนองเดียวกัน รถยนต์ไร้คนขับมักจะระบุสิ่งที่พวกเขา "เห็น" ได้อย่างถูกต้อง แต่บางครั้งพวกเขาดูเหมือนจะมองข้ามสิ่งที่เห็นได้ชัด เช่นในกรณีของเทสลาซึ่งชนเข้ากับรถดับเพลิงหรือรถพยาบาลที่จอดอยู่เป็นประจำบนระบบขับเคลื่อนอัตโนมัติ จุดบอดเช่นนี้อาจเป็นอันตรายมากขึ้นหากอยู่ในระบบที่ควบคุมโครงข่ายไฟฟ้าหรือมีหน้าที่รับผิดชอบในการตรวจสอบด้านสาธารณสุข

ในการอุดช่องว่างระหว่างความทะเยอทะยานกับความเป็นจริงของปัญญาประดิษฐ์ เราต้องการสามสิ่ง: การตระหนักรู้อย่างชัดเจนถึงคุณค่าที่เดิมพันในเกมนี้ ความเข้าใจที่ชัดเจนว่าเหตุใดระบบ AI สมัยใหม่จึงไม่ทำหน้าที่ได้อย่างน่าเชื่อถือเพียงพอ และ ในที่สุด การคิดเครื่องจักรกลยุทธ์การพัฒนาใหม่

เนื่องจากเดิมพันด้านปัญญาประดิษฐ์นั้นสูงมากในแง่ของงาน ความปลอดภัย และโครงสร้างของสังคม จึงมีความจำเป็นเร่งด่วนสำหรับพวกเราทุกคน - ผู้เชี่ยวชาญด้าน AI, อาชีพที่เกี่ยวข้อง, พลเมืองธรรมดาและนักการเมือง - เพื่อทำความเข้าใจสถานการณ์ที่แท้จริง ในสาขานี้เพื่อเรียนรู้อย่างมีวิจารณญาณในการประเมินระดับและลักษณะของการพัฒนาปัญญาประดิษฐ์ในปัจจุบัน

เช่นเดียวกับการที่ประชาชนที่สนใจข่าวและสถิติต้องเข้าใจว่าการหลอกคนด้วยคำและตัวเลขนั้นง่ายเพียงใดจึงเป็นสิ่งสำคัญ ดังนั้น ความเข้าใจในแง่มุมที่สำคัญมากขึ้นเรื่อยๆ จึงทำให้เราทราบว่าปัญญาประดิษฐ์อยู่ที่ใด มีเพียงการโฆษณาเท่านั้น มันจริงตรงไหน; สิ่งที่เขาสามารถทำได้ในตอนนี้และสิ่งที่เขาไม่รู้ว่าอย่างไรและอาจจะไม่ได้เรียนรู้

สิ่งสำคัญที่สุดคือต้องตระหนักว่าปัญญาประดิษฐ์ไม่ใช่เวทมนตร์ แต่เป็นเพียงชุดของเทคนิคและอัลกอริธึม ซึ่งแต่ละอย่างมีจุดแข็งและจุดอ่อนของตัวเอง เหมาะสำหรับงานบางอย่างและไม่เหมาะกับงานอื่นๆ เหตุผลหลักประการหนึ่งที่เราตั้งใจจะเขียนหนังสือเล่มนี้ก็คือ สิ่งที่เราอ่านเกี่ยวกับปัญญาประดิษฐ์ส่วนใหญ่ดูเหมือนจะเป็นจินตนาการอย่างแท้จริง ซึ่งเติบโตจากความเชื่อมั่นที่ไม่มีมูลในพลังที่เกือบจะมหัศจรรย์ของปัญญาประดิษฐ์

ในขณะเดียวกัน นิยายเรื่องนี้ไม่เกี่ยวข้องกับความสามารถทางเทคโนโลยีสมัยใหม่ น่าเสียดายที่การอภิปรายเรื่อง AI ในหมู่ประชาชนทั่วไปได้รับอิทธิพลอย่างมากจากการเก็งกำไรและการพูดเกินจริง คนส่วนใหญ่ไม่รู้ว่าการสร้างปัญญาประดิษฐ์สากลเป็นเรื่องยากเพียงใด

ขอชี้แจงการอภิปรายเพิ่มเติม แม้ว่าการชี้แจงความเป็นจริงที่เกี่ยวข้องกับ AI จะต้องได้รับการวิพากษ์วิจารณ์อย่างจริงจัง แต่เราเองก็ไม่เคยเป็นฝ่ายตรงข้ามของปัญญาประดิษฐ์ แต่เราชอบความก้าวหน้าทางเทคโนโลยีในด้านนี้มาก เราได้ใช้ชีวิตเป็นส่วนสำคัญในชีวิตของเราในฐานะผู้เชี่ยวชาญในสาขานี้ และเราต้องการให้มันพัฒนาอย่างรวดเร็วที่สุด

นักปรัชญาชาวอเมริกัน Hubert Dreyfus เคยเขียนหนังสือเกี่ยวกับความสูงในความเห็นของเขา ปัญญาประดิษฐ์ไม่สามารถเข้าถึงได้ นี่ไม่ใช่สิ่งที่หนังสือเล่มนี้เป็นเรื่องเกี่ยวกับ โดยเน้นไปที่สิ่งที่ AI ไม่สามารถทำได้ในปัจจุบันและเหตุใดจึงสำคัญที่ต้องทำความเข้าใจ

เราไม่ต้องการให้ปัญญาประดิษฐ์หายไป เราต้องการให้มันปรับปรุง ยิ่งไปกว่านั้น อย่างสิ้นเชิง เพื่อให้เราสามารถวางใจได้จริงๆ และแก้ปัญหามากมายของมนุษยชาติด้วยความช่วยเหลือจากมัน เรามีการวิพากษ์วิจารณ์มากมายเกี่ยวกับสถานะปัจจุบันของปัญญาประดิษฐ์ แต่การวิจารณ์ของเราเป็นการแสดงให้เห็นถึงความรักในวิทยาศาสตร์ที่เราทำ ไม่ใช่การเรียกร้องให้ละทิ้งและละทิ้งทุกสิ่ง

กล่าวโดยสรุป เราเชื่อว่าปัญญาประดิษฐ์สามารถเปลี่ยนแปลงโลกของเราได้อย่างจริงจัง แต่เรายังเชื่อด้วยว่าสมมติฐานพื้นฐานมากมายเกี่ยวกับ AI จะต้องเปลี่ยนก่อนที่เราจะพูดถึงความก้าวหน้าที่แท้จริงได้ "การรีเซ็ต" ของปัญญาประดิษฐ์ที่เราเสนอไม่ใช่เหตุผลที่จะยุติการวิจัย (แม้ว่าบางคนอาจเข้าใจหนังสือของเราในจิตวิญญาณนี้อย่างแท้จริง) แต่เป็นการวินิจฉัย: ตอนนี้เราติดอยู่ที่ไหนและเราจะออกไปได้อย่างไร สถานการณ์วันนี้.

เราเชื่อว่าวิธีที่ดีที่สุดในการก้าวไปข้างหน้าคือการมองเข้าไปข้างใน หันหน้าเข้าหาโครงสร้างของจิตใจของเราเอง

เครื่องจักรที่ชาญฉลาดอย่างแท้จริงไม่จำเป็นต้องเป็นเครื่องจำลองของมนุษย์ แต่ใครก็ตามที่ดูปัญญาประดิษฐ์อย่างตรงไปตรงมาจะเห็นว่ายังมีอีกมากให้เรียนรู้จากมนุษย์ โดยเฉพาะอย่างยิ่งจากเด็กเล็กที่เหนือกว่าเครื่องจักรในหลายๆ ด้าน ความสามารถในการดูดซับและทำความเข้าใจแนวคิดใหม่

นักวิทยาศาสตร์ทางการแพทย์มักมองว่าคอมพิวเตอร์เป็นระบบ "ที่เหนือมนุษย์" (ไม่ทางใดก็ทางหนึ่ง) แต่สมองของมนุษย์ยังคงเหนือชั้นกว่ากลุ่มซิลิคอนอย่างมากมายในอย่างน้อย 5 ด้าน: เราสามารถเข้าใจภาษา เข้าใจโลก ยืดหยุ่นได้ ปรับให้เข้ากับสถานการณ์ใหม่ เราสามารถเรียนรู้สิ่งใหม่ได้อย่างรวดเร็ว (แม้จะไม่มีข้อมูลจำนวนมาก) และสามารถให้เหตุผลเมื่อเผชิญกับข้อมูลที่ไม่สมบูรณ์หรือขัดแย้งกัน ในทุกด้านเหล่านี้ ระบบปัญญาประดิษฐ์สมัยใหม่อยู่เบื้องหลังมนุษย์อย่างสิ้นหวัง

รีบูตปัญญาประดิษฐ์
รีบูตปัญญาประดิษฐ์

ปัญญาประดิษฐ์: Reboot จะสนใจผู้ที่ต้องการเข้าใจเทคโนโลยีสมัยใหม่และเข้าใจว่า AI รุ่นใหม่จะทำให้ชีวิตของเราดีขึ้นได้อย่างไรและเมื่อใด