Ο διευθυντής τελωνείων της ομάδας Child Exploitation Operations, Simon Peterson, αποκάλυψε μια ανησυχητική αύξηση σε υλικό από σεξουαλικής εκμετάλλευσης παιδιών που δημιουργήθηκε ψηφιακά στη Νέα Ζηλανδία.
Όπως αναφέρει το Stuff, τρεις κυβερνητικές υπηρεσίες, συμπεριλαμβανομένων των τελωνείων, της αστυνομίας και του Υπουργείου Εσωτερικών Υποθέσεων (DIA), επιβεβαίωσε ότι βρήκε απαράδεκτο περιεχόμενο που δημιουργήθηκε από Τεχνητή Νοημοσύνη στη χώρα, μετά από έρευνες που προέκυψαν από παρόμοιες υποθέσεις σε άλλες χώρες μέρη.
δείτε περισσότερα
Έρευνα αποκαλύπτει ότι οι εγκέφαλοι των εφήβων είναι «καλωδιωμένοι» για να…
Το PicPay θα χρεώνει τώρα ένα τέλος για αδράνεια. δείτε πώς θα λειτουργήσει
Σύμφωνα με τον Peterson, η Customs πρόσφατα υποκλοπή ενός παιχνιδιού του οποίου το περιεχόμενο απεικόνιζε σεξουαλική κακοποίηση παιδιών, ενισχύοντας τις ανησυχίες σχετικά με τη χρήση της τεχνητής νοημοσύνης σε αυτό το πλαίσιο. Επισήμανε ότι ενώ η έννοια τέτοιων πρακτικών δεν είναι νέα, η ικανότητα της τεχνητής νοημοσύνης να παράγει όλο και πιο ρεαλιστικές εικόνες κάνει την κατάσταση πιο προβληματική και ανησυχητική.
Ο Στιούαρτ Μιλς, ο οποίος είναι διευθυντής επιχειρήσεων υποκλοπών και τεχνολογίας και επιθεωρητής ντετέκτιβ, εξέφρασε τα δικά του ανησυχία για την κακή χρήση της τεχνητής νοημοσύνης για τη δημιουργία εικόνων που συμβολίζουν τη σεξουαλική κακοποίηση ανήλικοι.
«Αυτό είναι ένα ζήτημα που αντιμετωπίζει η επιβολή του νόμου διεθνώς», είπε ο ντετέκτιβ.
Κατασχέσαμε ένα σημαντικό ανεκτέλεστο υλικό που αφορά σεξουαλική εκμετάλλευση παιδιών, συμπεριλαμβανομένων εικόνων που παράγονται ψηφιακά», δήλωσε εκπρόσωπος της DIA.
Σύμφωνα με τον ίδιο, ψηφιακά δημιουργημένο υλικό κατάχρησης έχει κατασχεθεί από τα τελωνεία από τις αρχές της δεκαετίας του 2000, χρησιμοποιώντας παραδοσιακά εργαλεία όπως το Photoshop. Ωστόσο, το περιεχόμενο που παράγεται "εξ ολοκλήρου από AI" υποκλαπεί επί του παρόντος.
Διευκρινίζει ότι σχεδόν το ένα τέταρτο του συλλαμβανόμενου περιεχομένου παράγεται ψηφιακά.
«Η δυσκολία με την πλατφόρμα AI είναι η καθολική προσβασιμότητά της. Θα ήθελα να δηλώσω ότι είμαστε εξαιρετικά έμπειροι στον εντοπισμό απομιμήσεων, ωστόσο η τεχνητή νοημοσύνη μπορεί να είναι πολύ πειστική», είπε. «Είναι πιθανό κάποιος να χρησιμοποιεί τεχνητή νοημοσύνη για να δημιουργήσει κάτι και δεν μπορούμε να διακρίνουμε τη διαφορά», πρόσθεσε.
Επανέλαβε ότι η τεχνητή νοημοσύνη είναι απλώς το πιο πρόσφατο τεχνολογικό σύνορο στο οποίο εισβάλλουν παιδεραστές, ακολουθώντας το ίδιο μοτίβο με το διαδίκτυο και αργότερα τα μέσα κοινωνικής δικτύωσης.
«Έκανε την παιδική κακοποίηση πιο διαθέσιμη. Μια τρομακτική προοπτική», συνέχισε ο ειδικός. «Εκτός από την κοινή χρήση, την πώληση ή την εμπορία αυτών των εικόνων, οι εικόνες που δημιουργούνται από AI είναι πιθανό να χρησιμοποιείται από εγκληματίες για να χειραγωγήσουν και να εξαναγκάσουν νεαρά θύματα στο Διαδίκτυο σε περιπτώσεις αδικημάτων όπως η εκβιασμός», πεπερασμένος.