ประเด็นเกี่ยวกับอนาคตของปัญญาประดิษฐ์ (AI) ยังคงร้อนแรงไปทั่วโลก
ประเด็นดังกล่าวกลายเป็นปัจจุบันมากขึ้นหลังจากผู้บริหารที่มีชื่อเสียงและนักวิทยาศาสตร์ที่มีชื่อเสียงตัดสินใจเปิดเผยข้อกังวลของพวกเขา บางคนถึงกับเชื่อในความสามารถของมนุษย์ที่จะทำลายล้างเมื่อเวลาผ่านไป
ดูเพิ่มเติม
ผู้เชี่ยวชาญกล่าวว่า AI เป็นพลังที่ดี
ในด้านการพัฒนา AI จีนก้าวหน้าในขณะที่สหรัฐฯ...
แต่เป็นไปได้ไหม
ดูเพิ่มเติม: ค้นพบ 5 อาชีพที่เกิดขึ้นเพราะปัญญาประดิษฐ์
จดหมายเปิดผนึกถึงอันตรายของ AI
จดหมายเปิดผนึกที่เผยแพร่เมื่อวันที่ 30 พฤษภาคม มีลายเซ็นของผู้รับผิดชอบในบริษัทขนาดใหญ่ เช่น OpenAI และ Google DeepMind ในความเป็นจริง Goffrey Hinton และ Yoshua Bengio ก็ลงนามเช่นกัน และทั้งสองคนนี้ถือเป็น "เจ้าพ่อ" ของ AI ยุคใหม่
เป้าหมายของผู้ลงนามมีเพียงประการเดียว: พยายามลดผลกระทบที่อาจเป็นอันตรายที่ AI สามารถก่อให้เกิดได้ ปัญหานี้ควรได้รับการปฏิบัติเหมือนเป็นเหตุฉุกเฉินทั่วโลก เทียบเท่ากับโรคระบาดและสงครามนิวเคลียร์
บทความของศูนย์ Ai Safaty ที่ไม่หวังผลกำไรได้ตอกย้ำความกลัวของผู้คนจำนวนมาก ซีอีโอขององค์กรคือ Dan Hendrycks ซึ่งเป็นนักวิชาการด้าน AI ที่ได้รับการยกย่อง
ชื่อเรื่องว่า “Natural Selection Favors AIs over Humans” ข้อความพูดถึงการคัดเลือกโดยธรรมชาติที่โปรดปราน AI มากกว่ามนุษย์
AI จะกำจัดมนุษย์ได้อย่างไร?
ประการแรก ทราบว่าความกังวลของนักวิชาการไม่ได้เกี่ยวกับเครื่องมือง่ายๆ เช่น ChatGPT และ AI อื่นๆ ที่สามารถสร้างรูปภาพได้ เป็นต้น
พวกเขาพูดถึงความฉลาดในอนาคตที่สามารถรับความรู้สึกตัวและดำเนินการตามสิ่งที่พวกเขา "ต้องการ" ไม่ใช่สิ่งที่พวกเขาได้รับคำสั่งให้ทำ
ตามที่นักวิจัยและผู้บริหาร AI ในระดับนี้จะสามารถดำเนินการได้ เช่น การสร้างหรือการปล่อยระดับสูง เป็นอันตรายต่อมนุษยชาติ, เผยแพร่เนื้อหาที่โกหกและทำให้เข้าใจผิดอย่างมีประสิทธิภาพ, จุดชนวนระเบิดนิวเคลียร์, เป็นต้น
โดยทั่วไปแล้ว เป็นที่กลัวว่าเครื่องจักรที่สรุปได้ว่ามนุษย์เป็นสิ่งชั่วร้ายที่ต้องต่อสู้จะทำลายล้างเผ่าพันธุ์จากพื้นโลกได้อย่างง่ายดาย
สถานการณ์ภัยพิบัติดังกล่าวจะนำหน้าด้วยความหายนะของ ตลาดงาน และโอกาสสำหรับผู้คน ท่ามกลางผลที่ตามมาจากการใช้ปัญญาประดิษฐ์ตามอำเภอใจ