Η ανησυχία γύρω από το περιεχόμενο σεξουαλικής κακοποίησης παιδιών που παράγεται μέσω τεχνητής νοημοσύνης εντείνεται, όπως αποκαλύπτει η έρευνα του «Internet Watch Foundation». Σημαντικά δεδομένα δείχνουν ότι το πρώτο εξάμηνο του 2024, ο όγκος παράνομου περιεχομένου που σχετίζεται με το AI υπερέβη όλο το υλικό του 2023. Τα αποτελέσματα καταδεικνύουν ότι η κατάσταση έχει φτάσει σε κρίσιμο σημείο, καθώς το περιεχόμενο είναι τόσο ρεαλιστικό που καθιστά δύσκολο το έργο των Αρχών να διακρίνουν αν πρόκειται για πραγματική κακοποίηση ή προϊόν τεχνητής νοημοσύνης.
Ο προσωρινός διευθύνων σύμβουλος του Internet Watch Foundation, Derek Ray-Hill, τόνισε ότι οι εικόνες που δημιουργούνται από AI έχουν εκπαιδευτεί σε υλικό με πραγματικά θύματα, γεγονός που επιδεινώνει το πρόβλημα. Έχουν αναφερθεί 74 περιπτώσεις σεξουαλικής κακοποίησης παιδιών που παραβιάζουν ευθέως τη βρετανική νομοθεσία. Επιπλέον, το ίδρυμα εκτίθεται σε «deepfake» βίντεο, όπου γνωστά πρόσωπα εμφανίζονται σε σενάρια παιδικής κακοποίησης.
Σημαντικό είναι ότι πάνω από το μισό του επίμαχου περιεχομένου φιλοξενείται σε ιστοσελίδες από τις ΗΠΑ και τη Ρωσία, με την Ιαπωνία και την Ολλανδία να ακολουθούν. Το IWF συνεργάζεται με την τεχνολογική βιομηχανία, κοινοποιώντας τις σχετικές διευθύνσεις ιστοσελίδων, ώστε να αποτραπεί η πρόσβαση σε αυτές.
Παράλληλα, το Instagram προωθεί νέα μέτρα για την καταπολέμηση της διαδικασίας «sextortion», η οποία περιλαμβάνει την εξαπάτηση χρηστών να στείλουν προσωπικές φωτογραφίες. Στο πλαίσιο αυτό, η πλατφόρμα θα θολώνει κάθε γυμνή εικόνα που αποστέλλεται μέσω μηνυμάτων, προειδοποιώντας τους χρήστες να είναι προσεκτικοί. Με αυτόν τον τρόπο, προσφέρεται η δυνατότητα στους χρήστες να επιλέξουν αν θέλουν να δουν τη φωτογραφία ή όχι, ενώ τους ενημερώνει και για την επιλογή του μπλοκαρίσματος του αποστολέα.
Πηγή: ethnos.gr