Οι κύριες εταιρείες τουΤεχνητή νοημοσύνη(AI) από τις Ηνωμένες Πολιτείες, η Google, η Microsoft και η OpenAI, κάνουν σημαντικά βήματα προς την υπεύθυνη ανάπτυξη τεχνολογίας.
Σε ανταπόκριση σε ένα κάλεσμα του Λευκού Οίκου, αυτές οι εταιρείες δεσμεύονται εθελοντικά να υιοθετήσουν βασικές δικλείδες ασφαλείας στις λύσεις τεχνητής νοημοσύνης τους.
δείτε περισσότερα
Το Kit από την Κίνα υπόσχεται να μεταμορφώσει το κλασικό Beetle σε ηλεκτρικό αυτοκίνητο
iPhone που δεν πέτυχαν: 5 λανσαρίσματα απορρίφθηκαν από το κοινό!
Η διοίκηση του Προέδρου Μπάιντεν έχει υπογραμμίσει έντονα τη σημασία της διασφάλισης ότι οι εταιρείες τεχνητής νοημοσύνης αναπτύσσουν τη δική τους ηθική τεχνολογία για να ωφελήσει την κοινωνία χωρίς να θέτει σε κίνδυνο την ασφάλεια, τα ατομικά δικαιώματα ή τις αξίες δημοκρατικός.
Τόσο η Αντιπρόεδρος Kamala Harris όσο και ο Πρόεδρος Joe Biden συμμετείχαν ενεργά συζητήσεις με τους ηγέτες του κλάδου της τεχνητής νοημοσύνης, τονίζοντας την επείγουσα ανάγκη προώθησης της λογοδοσίας σε αυτό πεδίο.
Η υπεύθυνη ανάπτυξη της τεχνητής νοημοσύνης ξεκινά από τις μεγαλύτερες εταιρείες
Σύμφωνα με πληροφορίες από προσχέδιο του εγγράφου που έλαβε το Bloomberg, οι εταιρείες τεχνολογίας καλούνται να συμμορφωθούν με οκτώ προτεινόμενα μέτρα που σχετίζονται με την ασφάλεια, την προστασία και κοινωνική ευθύνη. Τέτοιες ενέργειες αποσκοπούν στη διασφάλιση μιας πιο συνειδητής προσέγγισης κατά την ανάπτυξη και εφαρμογή της τεχνητής νοημοσύνης.
Μερικά από αυτά περιλαμβάνουν τη δυνατότητα σε ανεξάρτητους εμπειρογνώμονες να δοκιμάσουν μοντέλα τεχνητής νοημοσύνης για τον εντοπισμό πιθανών ακατάλληλη συμπεριφορά, επένδυση στην ασφάλεια στον κυβερνοχώρο και ενθάρρυνση τρίτων μερών να εντοπίσουν κενά στην ασφάλεια.
(Εικόνα: Αποκάλυψη)
Ως τρόπος αντιμετώπισης των κοινωνικών κινδύνων, συμπεριλαμβανομένων των μεροληψιών και των ακατάλληλων χρήσεων της Τεχνητής Νοημοσύνης, Οι εταιρείες κατευθύνουν τις προσπάθειές τους για τη διεξαγωγή εις βάθος και ενδελεχούς έρευνας σχετικά με τις επιπτώσεις αυτού του είδους τεχνολογία.
Επιπλέον, δεσμεύονται να μοιράζονται αξιόπιστες και σχετικές με την ασφάλεια πληροφορίες με άλλους εταιρείες και κρατικούς φορείς, προωθώντας μια συνεργατική προσέγγιση για την υπεύθυνη ανάπτυξη του ΟΛΑ ΣΥΜΠΕΡΙΛΑΜΒΑΝΟΝΤΑΙ.
Με τη διεξαγωγή λεπτομερούς έρευνας, οι εταιρείες επιδιώκουν να εντοπίσουν και να μετριάσουν πιθανά ηθικά και κοινωνικά προβλήματα που σχετίζονται με τη χρήση αυτού του εργαλείου.
Μια τέτοια προορατική προσέγγιση έχει σκοπό να διασφαλίσει ότι η τεχνητή νοημοσύνη εφαρμόζεται με τρόπο που προστατεύει τα ατομικά δικαιώματα, αποφεύγει την προκατάληψη και αποτρέπει ανεπιθύμητες αρνητικές συνέπειες.
Η εθελοντική προσέγγιση αυτής της συμφωνίας καθιστά σαφείς τις προκλήσεις που αντιμετωπίζουν οι υπεύθυνοι χάραξης πολιτικής για να συμβαδίσουν με τον γρήγορο ρυθμό των προόδων της τεχνητής νοημοσύνης.
Έχουν προταθεί αρκετά νομοσχέδια στο Συνέδριομε στόχο τη ρύθμιση της τεχνολογίας, επιδιώκοντας να αποτρέψει τις εταιρείες από το να επωφεληθούν Ενότητα 230 ασφάλειες και ευθύνη διαφυγής για επιβλαβές περιεχόμενο που δημιουργείται από αλγόριθμους του AI.
Επιπλέον, αυτές οι πρωτοβουλίες στοχεύουν επίσης να απαιτήσουν συγκεκριμένες αποκαλύψεις σε πολιτικές διαφημίσεις που χρησιμοποιούν γενετική τεχνητή νοημοσύνη.
Στην Trezeme Digital, κατανοούμε τη σημασία της αποτελεσματικής επικοινωνίας. Γνωρίζουμε ότι κάθε λέξη έχει σημασία, επομένως προσπαθούμε να παρέχουμε περιεχόμενο που είναι σχετικό, ελκυστικό και εξατομικευμένο για να καλύπτει τις ανάγκες σας.