นักวิทยาศาสตร์กล่าวว่าปัญญาประดิษฐ์ที่ฉลาดล้ำจะไม่สามารถควบคุมได้

protection click fraud

ระบบอัจฉริยะกำลังถูกสร้างขึ้นและเผยแพร่ไปทั่วโลกเนื่องจากการแข่งขันทางเทคโนโลยี ด้วยเหตุนี้จึงมีคำถามเกิดขึ้น: เป็นไปได้ไหม ควบคุมปัญญาประดิษฐ์ ไกลแค่ไหน? เราพร้อมแค่ไหนที่จะสู้ก AI ที่ทำงานเกินความสามารถของมนุษย์? การสร้างโปรแกรมที่ผลที่ตามมาและผลกระทบยังไม่สามารถวัดได้นั้นมีจริยธรรมเพียงใด ดูข้อมูลเพิ่มเติมเกี่ยวกับคำถามเหล่านี้ที่นักวิทยาศาสตร์ถาม

อ่านเพิ่มเติม: 7 แอพพลิเคชั่นของปัญญาประดิษฐ์: บางส่วนเข้ามาแทนที่แรงงานมนุษย์แล้ว

ดูเพิ่มเติม

การแจ้งเตือน: พืชมีพิษนี้ทำให้ชายหนุ่มคนหนึ่งเสียชีวิตในโรงพยาบาล

Google พัฒนาเครื่องมือ AI เพื่อช่วยนักข่าวใน...

ปัญญาประดิษฐ์ที่มีความฉลาดหลักแหลม

ฟังดูเหมือนพล็อตเรื่องในนิยายวิทยาศาสตร์ แต่ความจริงก็คือปัญญาประดิษฐ์สามารถสร้างอิสระในการเรียนรู้คำสั่งที่สามารถต่อต้านมนุษย์ได้ในภายหลัง ไม่รับประกันว่าพวกเขาจะปฏิบัติตามกฎเช่น "ไม่ก่อให้เกิดอันตรายต่อมนุษยชาติ" เป็นต้น พวกเขาจะถูกตั้งโปรแกรมให้มีอิสระและสามารถหลีกเลี่ยงข้อจำกัดที่กำหนดโดย โปรแกรมเมอร์

ปัญหาการหยุดชะงักของ Alan Turing

เรียกว่า "ปัญหาการหยุดชะงัก" ปัญหานี้ให้ทางเลือกสองทางสำหรับคำสั่งที่กำหนดให้กับคอมพิวเตอร์: ทั้งสองอย่างจะ หาข้อสรุปและตอบสนองต่อมันด้วยการหยุด หรือมันจะดำเนินต่อไปในวงจรที่พยายามหาทางออก - จนกระทั่ง หาเธอ. ด้วยเหตุนี้ จึงเป็นไปไม่ได้เลยที่จะรู้ว่าปัญญาประดิษฐ์จะหยุดทำงานหรือไม่ หรือจะค้นหาและเก็บข้อสรุปที่เป็นไปได้ทั้งหมดไว้ในหน่วยความจำหรือไม่

instagram story viewer

ปัญหานี้คือไม่สามารถวัดได้หลังจากผ่านไประยะหนึ่งว่าเครื่องจะใช้วิธีแก้ปัญหาใดหรือทางเลือกอื่นสำหรับปัญหาที่กำหนด ด้วยวิธีนี้ พฤติกรรมของมันจะคาดเดาไม่ได้และไม่มีประโยชน์ที่จะสร้างอัลกอริทึมการกักกัน

ความแตกต่างระหว่างความคิดเห็นของนักวิทยาศาสตร์

นักวิทยาศาสตร์บางคนโต้แย้งว่าความก้าวหน้าทางเทคโนโลยีทั้งหมดต้องได้รับการออกแบบเพื่อส่งเสริมสินค้าส่วนรวมด้วยวิธีที่ปลอดภัยและควบคุมได้ ด้วยวิธีนี้ ซูเปอร์แมชชีนที่สามารถเก็บข้อมูลข่าวกรองได้ทุกประเภท ด้วยพลังการกักกันที่ไร้ประสิทธิภาพและความสามารถในการทำลายล้างที่ยังประเมินค่าไม่ได้ ดูเหมือนจะเป็นสิ่งที่อันตราย

ด้วยเหตุนี้ นักวิจัยด้านคอมพิวเตอร์จึงอ้างว่าเครื่องจักรอัจฉริยะระดับสูงอาจมีอันตรายมากกว่าประโยชน์ที่ได้รับ และควรหลีกเลี่ยงการก่อสร้าง โปรแกรมเมอร์หลายคนจัดการกับข้อเท็จจริงที่ว่าเครื่องจักรของพวกเขาเรียนรู้ที่จะทำในสิ่งที่ไม่เคยทำได้ สอนหรือสร้างคำสั่งเพื่อให้พวกเขาเรียนรู้ - และสิ่งนี้ขึ้นอยู่กับสิ่งที่พวกเขาเรียนรู้ สามารถเป็นสัญลักษณ์ ก เสี่ยง.

ปัญหาทางจริยธรรม

การจำกัดความสามารถด้านการข่าวกรองอาจเป็นทางเลือกที่ได้ผล ในการทำเช่นนี้ คุณสามารถตัดออกจากบางส่วนของอินเทอร์เน็ตหรือจากบางเครือข่ายได้ สิ่งเหล่านี้จะเป็นตัวอย่างของกลไกการกักกัน อย่างไรก็ตาม ยังไม่ทราบว่าทางเลือกเหล่านี้เป็นไปได้หรือไม่ หรือเครื่องจะสามารถเข้าถึงเนื้อหาเหล่านี้ด้วยวิธีที่ยังไม่ได้เปิดเผยหรือไม่

ดังนั้น หากมนุษยชาติยังคงก้าวหน้าด้วยปัญญาประดิษฐ์ ก็จำเป็นต้องระมัดระวังให้มากในระดับที่ปัญญาประดิษฐ์จะต้องเป็นอิสระ

Teachs.ru

นิสัยด้านลบ 4 อย่างนี้ทำร้ายความนับถือตนเองของคุณ

เมื่อของเรา ความนับถือตนเอง ต่ำ เราประสบกับอารมณ์เชิงลบที่หลากหลายซึ่งส่งผลต่อสุขภาพทางอารมณ์และค...

read more

4 เคล็ดลับที่ใช้ได้จริงเพื่อให้คู่รักของคุณรู้สึกปลอดภัยในความสัมพันธ์มากขึ้น

บางครั้งเราจำเป็นต้องปรับเปลี่ยนบางอย่างเพื่อให้คู่ของเรารู้สึกปลอดภัยในความสัมพันธ์ นั่นเป็นเพรา...

read more

5 นิสัยดูแลร่างกายและจิตใจให้อ่อนเยาว์นานขึ้น

เวลาผ่านไปและเรารู้ว่า อายุ เป็นเรื่องธรรมชาติของมนุษย์ อย่างไรก็ตาม มีความเป็นไปได้ที่จะพบคนจำนว...

read more
instagram viewer