Πιθανότατα χρησιμοποιείτε - ή τουλάχιστον έχετε ακούσει για το - ChatGPT. Το εργαλείο Τεχνητής Νοημοσύνης είχε μια «έκρηξη» τους τελευταίους μήνες και ήταν ένα «χέρι στο τιμόνι» για να απαντήσει σε ερωτήσεις ή ακόμα και να εκτελέσει πιο περίπλοκες εργασίες.
Ωστόσο, το σύστημα κρύβει ένα σκοτεινό μυστικό – και οι δημιουργοί του το γνωρίζουν. Όχι μόνο το γνωρίζουν, αλλά επωμίζονται την ευθύνη γι' αυτό.
δείτε περισσότερα
Η Google αναπτύσσει εργαλείο τεχνητής νοημοσύνης για να βοηθήσει τους δημοσιογράφους…
Το μη ανοιγμένο πρωτότυπο iPhone του 2007 πωλείται για σχεδόν 200.000 $. ξέρω...
Σύμφωνα με την OpenAI, εταιρεία που δημιούργησε το εργαλείο, η ChatGPT πάσχει από «παραισθήσεις». Δηλαδή, μπορεί να δώσει ψευδείς πληροφορίες κατά καιρούς.
Την κατάσταση ανακοίνωσε η εταιρεία την περασμένη Τετάρτη 31 Μαΐου. Επιπλέον, έχουν επίσης ανακοινώσει μια νεότερη και πιο ισχυρή μέθοδο για την εκπαίδευση του AI.
Γιατί είναι σημαντικό να διορθώσετε αυτήν την κακή συμπεριφορά του ChatGPT;
Η βασική εξήγηση είναι ότι οι άνθρωποι χρησιμοποιούν το εργαλείο πολύ στην καθημερινή τους ζωή. Επομένως, είναι επιτακτική ανάγκη το ChatGPT να διαβιβάζει αξιόπιστες πληροφορίες σε όσους το χρησιμοποιούν.
Για παράδειγμα, εάν χρησιμοποιείτε το Όλα συμπεριλαμβάνονταιΓια να βελτιώσετε ένα κείμενο σχολικής εργασίας ή για να αναζητήσετε συγκεκριμένες συνταγές, είναι απαραίτητο οι πληροφορίες εκεί να είναι σωστές.
Επιπλέον, με τον αυξανόμενο αριθμό χρηστών chatbot, οι ψευδείς πληροφορίες μπορούν να διαδοθούν εύκολα σαν να ήταν η αλήθεια.
Και αυτό θα μπορούσε να προκαλέσει τεράστιο πονοκέφαλο το επόμενο έτος, όταν αρχίσουν οι εκλογές στις Ηνωμένες Πολιτείες – και αυτό θα μπορούσε επίσης να διαχυθεί και εδώ στη Βραζιλία!
«Ακόμα και τα μοντέλα τελευταίας τεχνολογίας έχουν την τάση να παράγουν ψέματα - παρουσιάζουν την τάση να συνθέτουν γεγονότα σε στιγμές αβεβαιότητας. Αυτές οι παραισθήσεις είναι ιδιαίτερα προβληματικές σε τομείς που απαιτούν συλλογισμό πολλαπλών βημάτων, α αφού ένα μόνο λογικό λάθος είναι αρκετό για να εκτροχιάσει μια πολύ μεγαλύτερη λύση», είπε το OpenAI επικοινώνησε.
Τι να κάνετε για να διορθώσετε;
Το OpenAI ανέφερε ότι θα χρησιμοποιήσει μια νέα στρατηγική για την καταπολέμηση των «ψευδαισθήσεων» του ChatGPT: εκπαιδεύστε μοντέλα τεχνητής νοημοσύνης να επιβραβεύονται για κάθε σωστό βήμα. Αντί απλώς να την ανταμείψετε στο τέλος με την πλήρη απάντηση.
«Ο εντοπισμός και ο μετριασμός των λογικών σφαλμάτων ή των παραισθήσεων ενός μοντέλου είναι ένα κρίσιμο βήμα προς την οικοδόμηση μιας συνολικής ευθυγραμμισμένης τεχνητής νοημοσύνης. Το κίνητρο πίσω από αυτήν την έρευνα είναι να αντιμετωπίσει τις παραισθήσεις για να κάνει τα μοντέλα πιο ικανά επίλυση σύνθετων συλλογιστικών προβλημάτων», εξήγησε ο Karl Cobbe, μαθηματικός ερευνητής στο Εταιρία.
Πτυχιούχος Κοινωνικής Επικοινωνίας στο Ομοσπονδιακό Πανεπιστήμιο του Γκόγιας. Παθιασμένος με τα ψηφιακά μέσα, την ποπ κουλτούρα, την τεχνολογία, την πολιτική και την ψυχανάλυση.