นักวิทยาศาสตร์กล่าวว่าปัญญาประดิษฐ์ที่ฉลาดล้ำจะไม่สามารถควบคุมได้

ระบบอัจฉริยะกำลังถูกสร้างขึ้นและเผยแพร่ไปทั่วโลกเนื่องจากการแข่งขันทางเทคโนโลยี ด้วยเหตุนี้จึงมีคำถามเกิดขึ้น: เป็นไปได้ไหม ควบคุมปัญญาประดิษฐ์ ไกลแค่ไหน? เราพร้อมแค่ไหนที่จะสู้ก AI ที่ทำงานเกินความสามารถของมนุษย์? การสร้างโปรแกรมที่ผลที่ตามมาและผลกระทบยังไม่สามารถวัดได้นั้นมีจริยธรรมเพียงใด ดูข้อมูลเพิ่มเติมเกี่ยวกับคำถามเหล่านี้ที่นักวิทยาศาสตร์ถาม

อ่านเพิ่มเติม: 7 แอพพลิเคชั่นของปัญญาประดิษฐ์: บางส่วนเข้ามาแทนที่แรงงานมนุษย์แล้ว

ดูเพิ่มเติม

การแจ้งเตือน: พืชมีพิษนี้ทำให้ชายหนุ่มคนหนึ่งเสียชีวิตในโรงพยาบาล

Google พัฒนาเครื่องมือ AI เพื่อช่วยนักข่าวใน...

ปัญญาประดิษฐ์ที่มีความฉลาดหลักแหลม

ฟังดูเหมือนพล็อตเรื่องในนิยายวิทยาศาสตร์ แต่ความจริงก็คือปัญญาประดิษฐ์สามารถสร้างอิสระในการเรียนรู้คำสั่งที่สามารถต่อต้านมนุษย์ได้ในภายหลัง ไม่รับประกันว่าพวกเขาจะปฏิบัติตามกฎเช่น "ไม่ก่อให้เกิดอันตรายต่อมนุษยชาติ" เป็นต้น พวกเขาจะถูกตั้งโปรแกรมให้มีอิสระและสามารถหลีกเลี่ยงข้อจำกัดที่กำหนดโดย โปรแกรมเมอร์

ปัญหาการหยุดชะงักของ Alan Turing

เรียกว่า "ปัญหาการหยุดชะงัก" ปัญหานี้ให้ทางเลือกสองทางสำหรับคำสั่งที่กำหนดให้กับคอมพิวเตอร์: ทั้งสองอย่างจะ หาข้อสรุปและตอบสนองต่อมันด้วยการหยุด หรือมันจะดำเนินต่อไปในวงจรที่พยายามหาทางออก - จนกระทั่ง หาเธอ. ด้วยเหตุนี้ จึงเป็นไปไม่ได้เลยที่จะรู้ว่าปัญญาประดิษฐ์จะหยุดทำงานหรือไม่ หรือจะค้นหาและเก็บข้อสรุปที่เป็นไปได้ทั้งหมดไว้ในหน่วยความจำหรือไม่

ปัญหานี้คือไม่สามารถวัดได้หลังจากผ่านไประยะหนึ่งว่าเครื่องจะใช้วิธีแก้ปัญหาใดหรือทางเลือกอื่นสำหรับปัญหาที่กำหนด ด้วยวิธีนี้ พฤติกรรมของมันจะคาดเดาไม่ได้และไม่มีประโยชน์ที่จะสร้างอัลกอริทึมการกักกัน

ความแตกต่างระหว่างความคิดเห็นของนักวิทยาศาสตร์

นักวิทยาศาสตร์บางคนโต้แย้งว่าความก้าวหน้าทางเทคโนโลยีทั้งหมดต้องได้รับการออกแบบเพื่อส่งเสริมสินค้าส่วนรวมด้วยวิธีที่ปลอดภัยและควบคุมได้ ด้วยวิธีนี้ ซูเปอร์แมชชีนที่สามารถเก็บข้อมูลข่าวกรองได้ทุกประเภท ด้วยพลังการกักกันที่ไร้ประสิทธิภาพและความสามารถในการทำลายล้างที่ยังประเมินค่าไม่ได้ ดูเหมือนจะเป็นสิ่งที่อันตราย

ด้วยเหตุนี้ นักวิจัยด้านคอมพิวเตอร์จึงอ้างว่าเครื่องจักรอัจฉริยะระดับสูงอาจมีอันตรายมากกว่าประโยชน์ที่ได้รับ และควรหลีกเลี่ยงการก่อสร้าง โปรแกรมเมอร์หลายคนจัดการกับข้อเท็จจริงที่ว่าเครื่องจักรของพวกเขาเรียนรู้ที่จะทำในสิ่งที่ไม่เคยทำได้ สอนหรือสร้างคำสั่งเพื่อให้พวกเขาเรียนรู้ - และสิ่งนี้ขึ้นอยู่กับสิ่งที่พวกเขาเรียนรู้ สามารถเป็นสัญลักษณ์ ก เสี่ยง.

ปัญหาทางจริยธรรม

การจำกัดความสามารถด้านการข่าวกรองอาจเป็นทางเลือกที่ได้ผล ในการทำเช่นนี้ คุณสามารถตัดออกจากบางส่วนของอินเทอร์เน็ตหรือจากบางเครือข่ายได้ สิ่งเหล่านี้จะเป็นตัวอย่างของกลไกการกักกัน อย่างไรก็ตาม ยังไม่ทราบว่าทางเลือกเหล่านี้เป็นไปได้หรือไม่ หรือเครื่องจะสามารถเข้าถึงเนื้อหาเหล่านี้ด้วยวิธีที่ยังไม่ได้เปิดเผยหรือไม่

ดังนั้น หากมนุษยชาติยังคงก้าวหน้าด้วยปัญญาประดิษฐ์ ก็จำเป็นต้องระมัดระวังให้มากในระดับที่ปัญญาประดิษฐ์จะต้องเป็นอิสระ

ทำความเข้าใจว่าทำไมกาแฟถึงกลายเป็นเครื่องดื่มหลักในตอนเช้า

ธุรกิจ พวกเขาคือ สร้างขึ้น ใน กลึง ของเขามี ส่วน ทั้งหมด จากซูเปอร์มาร์เก็ตอุทิศ ถึงเขาและ บางประ...

read more

7 สิ่งที่คุณไม่ควรทำเพื่อผู้ชาย

เมื่อเรามีความรัก เราไม่ได้วัดทัศนคติของเราในขณะที่เราเข้าสู่สภาวะภวังค์ ดังนั้นจึงจำเป็นต้องให้ค...

read more

ประกาศของ Cofecub: Capes จะให้เงินทุนแก่โครงการมากถึง 35 โครงการ โดยแต่ละโครงการมีมูลค่า R$ 1.7 ล้าน

ในราชกิจจานุเบกษาอย่างเป็นทางการ (DOU) ของวันจันทร์นี้ (3) ประกาศฉบับที่ 8/2566 ของกระทรวงศึกษาธิ...

read more
instagram viewer