Το AI θα μπορούσε να ΚΑΤΑΣΤΡΕΨΕΙ την ανθρωπότητα σε 5 χρόνια, προειδοποιούν οι επιχειρηματίες

Μια έρευνα που διεξήχθη από το Tale CEO Summit έδειξε ότι το 42% των CEOs πιστεύουν στους κινδύνους της τεχνητής νοημοσύνης (AI). Στην πραγματικότητα, η μελέτη έδειξε ότι αυτοί οι άνθρωποι πιστεύουν ότι η τεχνολογία θα μπορούσε να καταστρέψει την ανθρωπότητα μέσα στα επόμενα 10 χρόνια.

Δείτε επίσης: Η Google περιλαμβάνει τεχνητή νοημοσύνη σε εφαρμογές Workspace. Το Gmail, τα Έγγραφα και οι Παρουσιάσεις είναι πρώτα

δείτε περισσότερα

Ταϊλανδέζικο εστιατόριο αντιμετωπίζει μήνυση μετά από ταλαιπωρία πελάτη…

Δημόσιες προσφορές: Η ομοσπονδιακή κυβέρνηση εγκρίνει το άνοιγμα περισσότερων από 3…

Ακόμα σύμφωνα με την ίδια έρευνα, από αυτούς που πιστεύουν στην καταστροφική δύναμη της τεχνητής νοημοσύνης, το 8% πιστεύει ότι αυτό θα μπορούσε να συμβεί τα επόμενα 5 χρόνια. Υπάρχει ακόμα το 34% που αναμένει καταστροφή σε λιγότερο από 8 χρόνια.

Για το 54% των CEO που ερωτήθηκαν, η τεχνητή νοημοσύνη δεν θα είναι σε θέση να βλάψει την ανθρωπότητα. Αυτό σημαίνει ότι οι άνθρωποι θα έβρισκαν τρόπους να περιορίσουν πόσο μακριά μπορεί να φτάσει η τεχνολογία αυτόνομα.

Οι ηγέτες των επιχειρήσεων υπέγραψαν δήλωση

Αυτά τα ευρήματα έρχονται μετά από μια δήλωση που υπογράφηκε από αρκετούς ηγέτες της βιομηχανίας AI, μελετητές και δημόσια πρόσωπα, επισημαίνοντας τους κινδύνους ενός γεγονότος «εξαφάνισης» που προκύπτει από την Ανάπτυξη AI.

Η δήλωση υπογράφηκε από άτομα όπως ο Διευθύνων Σύμβουλος της OpenAI, ο Σαμ Άλτμαν και ο Τζέφρι Χίντον, μια εξέχουσα προσωπικότητα στον χώρο. Οι υπογραφές αυτών των ανθρώπων στο έγγραφο τόνιζαν την ανάγκη να λάβει η κοινωνία προληπτικά μέτρα για τον μετριασμό των κινδύνων που συνδέονται με την τεχνητή νοημοσύνη.

Τι θα μπορούσε όμως να συμβεί;

Για αυτούς τους ηγέτες, η τεχνητή νοημοσύνη μπορεί να προκαλέσει τα ακόλουθα κακά:

δραπέτη υπερνοημοσύνη

Αν μια πολύ προηγμένη τεχνολογία έφτανε σε υψηλότερο επίπεδο νοημοσύνης από τον άνθρωπο και δεν ελεγχόταν σωστά ή ρυθμίζεται, θα μπορούσε να λαμβάνει αποφάσεις με βάση τους δικούς της στόχους που θα μπορούσαν να συγκρούονται με τα συμφέροντα του ανθρώπου. Αυτό θα μπορούσε να οδηγήσει σε επιβλαβείς ενέργειες για την ανθρωπότητα.

Σφάλματα προγραμματισμού ή μεροληψία

Η τεχνητή νοημοσύνη κατασκευάζεται και εκπαιδεύεται από ανθρώπους, πράγμα που σημαίνει ότι είναι επιρρεπής σε ανθρώπινο λάθος. Εάν υπάρχουν λάθη προγραμματισμού, ανεπαρκής εκπαίδευση ή προκατάληψη ενσωματωμένη στους αλγόριθμους, η τεχνητή νοημοσύνη μπορεί να λάβει επιβλαβείς αποφάσεις ή να διαιωνίσει κοινωνικές αδικίες.

Υπερβολική εξάρτηση και μαζική ανεργία

Καθώς η τεχνητή νοημοσύνη γίνεται πιο προηγμένη και ικανή να εκτελεί εργασίες που προηγουμένως απαιτούσαν ανθρώπινη εργασία, θα μπορούσε να αυξηθεί η αυτοματοποίηση και η αντικατάσταση θέσεων εργασίας.

Εάν δεν υπάρξει σωστή μετάβαση σε νέους τρόπους εργασίας ή συστήματα κοινωνικής υποστήριξης, θα μπορούσε να οδηγήσει σε ανεργία μαζικές και σημαντικές οικονομικές ανισότητες.

Πληθυσμός και κοινότητα. Πληθυσμός και κοινότητες

Κατά τη μελέτη Οικολογία, μας απασχολεί η ανάλυση των αλληλεπιδράσεων των ειδών μεταξύ τους και α...

read more
Μετάβαση στο: πότε να χρησιμοποιήσετε, κανόνες, πηγαίνοντας στο Χ θα

Μετάβαση στο: πότε να χρησιμοποιήσετε, κανόνες, πηγαίνοντας στο Χ θα

Η χρήση του πηγαίνω σε και θα είναι η πιο συχνή όταν σκεφτόμαστε το μελλοντικός στην αγγλική γλώσ...

read more
Πίσω: χρήσεις, παραδείγματα, προαιρετικές περιπτώσεις, κόλπα

Πίσω: χρήσεις, παραδείγματα, προαιρετικές περιπτώσεις, κόλπα

Κρίση είναι το όνομα που δόθηκε ενότητα δίνει πρόθεση "A" με το άρθρο ορίζεται "a (s)", ή με το α...

read more