Η OpenAI δημοσίευσε ένα πολιτικό σχέδιο που περιγράφει νέα μέτρα ασφαλείας που μπορεί να λάβει η βιομηχανία τεχνητής νοημοσύνης (AI) για να αποτρέψει τη χρήση της τεχνολογίας για τη δημιουργία υλικού σεξουαλικής κακοποίησης παιδιών.
«Η σεξουαλική εκμετάλλευση παιδιών είναι μία από τις πιο επείγουσες προκλήσεις της ψηφιακής εποχής», δήλωσε η OpenAI στην ανακοίνωσή της στις 8 Απριλίου. «Η τεχνητή νοημοσύνη αλλάζει ραγδαία τόσο τον τρόπο με τον οποίο εμφανίζονται αυτές οι βλάβες σε όλο τον κλάδο όσο και τον τρόπο με τον οποίο μπορούν να αντιμετωπιστούν σε μεγάλη κλίμακα.»
Με αυτό κατά νου, η εταιρεία αποκάλυψε το πολιτικό της σχέδιο, περιγράφοντας «μια πρακτική πορεία για την ενίσχυση των πλαισίων προστασίας παιδιών των ΗΠΑ στην εποχή της τεχνητής νοημοσύνης».
Το σχέδιο αντικατοπτρίζει και ενσωματώνει ανατροφοδότηση από διάφορους κορυφαίους οργανισμούς και ειδικούς στο οικοσύστημα ασφάλειας παιδιών, συμπεριλαμβανομένου του Εθνικού Κέντρου για Αγνοούμενα & Εκμεταλλευόμενα Παιδιά (NCMEC), της Συμμαχίας Γενικών Εισαγγελέων—μιας μη κερδοσκοπικής ομάδας κρατικών γενικών εισαγγελέων στις Ηνωμένες Πολιτείες—και του Thorn, ενός μη κερδοσκοπικού οργανισμού αφιερωμένου στην υπεράσπιση των παιδιών από τη σεξουαλική κακοποίηση, σύμφωνα με τον γίγαντα της τεχνητής νοημοσύνης.
«Καμία μεμονωμένη παρέμβαση δεν μπορεί να αντιμετωπίσει αυτή την πρόκληση μόνη της», δήλωσε η OpenAI. «Αυτό το πλαίσιο συγκεντρώνει νομικές, επιχειρησιακές και τεχνικές προσεγγίσεις για καλύτερο εντοπισμό κινδύνων, επιτάχυνση των αντιδράσεων και υποστήριξη της λογοδοσίας, ενώ διασφαλίζει ότι οι αρχές επιβολής παραμένουν ισχυρές καθώς εξελίσσεται η τεχνολογία.»
Η κίνηση έρχεται καθώς οι ανησυχίες έχουν αυξηθεί όλο και περισσότερο γύρω από την κατάχρηση εργαλείων τεχνητής νοημοσύνης, ιδιαίτερα των λειτουργιών δημιουργίας εικόνων, για την παραγωγή ρητών εικόνων γυναικών και παιδιών, συμπεριλαμβανομένων διασημοτήτων και δημόσιων προσώπων.
Νωρίτερα τον Ιανουάριο, ο εποπτικός φορέας επικοινωνιών του Ηνωμένου Βασιλείου, Ofcom, αναγκάστηκε να επικοινωνήσει επειγόντως με τις X και xAI «για να κατανοήσει ποια μέτρα έχουν λάβει για να συμμορφωθούν με τα νομικά τους καθήκοντα για την προστασία των χρηστών στο Ηνωμένο Βασίλειο», αφού προέκυψαν αναφορές ότι το chatbot τεχνητής νοημοσύνης Grok του Elon Musk χρησιμοποιούνταν για τη δημιουργία και τη διάδοση ρητών εικόνων παιδιών και γυναικών με τα ρούχα τους ψηφιακά αφαιρεμένα.
Παρόμοιες ανησυχίες εκφράστηκαν στην Ευρωπαϊκή Ένωση, με την ιταλική αρχή προστασίας δεδομένων να προειδοποιεί τους χρήστες και τους παρόχους εργαλείων τεχνητής νοημοσύνης για τους κινδύνους στα «θεμελιώδη δικαιώματα και ελευθερίες» που δημιουργούν τα deepfakes τεχνητής νοημοσύνης.
Για την αντιμετώπιση τέτοιων ανησυχιών, η OpenAI δήλωσε ότι είχε τρεις βασικές προτεραιότητες: εκσυγχρονισμό των νόμων για την καταπολέμηση του υλικού σεξουαλικής κακοποίησης παιδιών που δημιουργείται και τροποποιείται με τεχνητή νοημοσύνη, βελτίωση της αναφοράς και του συντονισμού των παρόχων για την υποστήριξη πιο αποτελεσματικών ερευνών, και ενσωμάτωση μέτρων ασφάλειας από το σχεδιασμό απευθείας στα συστήματα τεχνητής νοημοσύνης για την πρόληψη και τον εντοπισμό κατάχρησης.
«Μαζί, αυτά τα βήματα επιτρέπουν στον κλάδο να αντιμετωπίσει την ασφάλεια των παιδιών νωρίτερα και πιο αποτελεσματικά», δήλωσε η εταιρεία στην ανακοίνωσή της στις 8 Απριλίου. «Διακόπτοντας τις προσπάθειες εκμετάλλευσης νωρίτερα, βελτιώνοντας την ποιότητα των σημάτων που αποστέλλονται στις αρχές επιβολής του νόμου και ενισχύοντας τη λογοδοσία σε όλο το οικοσύστημα, αυτό το πλαίσιο στοχεύει στην πρόληψη της βλάβης πριν συμβεί και να βοηθήσει στη διασφάλιση ταχύτερης προστασίας για τα παιδιά όταν προκύπτουν κίνδυνοι.»
Η OpenAI δήλωσε ότι είναι επίσης δεσμευμένη να συνεχίσει να ενισχύει τα μέτρα προστασίας για την αποτροπή κατάχρησης των συστημάτων της, καθώς και να συνεργάζεται στενά με συνεργάτες όπως το NCMEC και τις αρχές επιβολής του νόμου για τη βελτίωση του εντοπισμού και της αναφοράς.
Σε κοινή δήλωση σχετικά με το σχέδιο ασφάλειας παιδιών, οι Γενικοί Εισαγγελείς Πολιτείας Jeff Jackson (της Βόρειας Καρολίνας) και Derek Brown (της Γιούτα), Συμπρόεδροι της Ομάδας Εργασίας για την Τεχνητή Νοημοσύνη της Συμμαχίας Γενικών Εισαγγελέων, δήλωσαν ότι «καλωσορίζουν αυτό το σχέδιο ως ένα σημαντικό βήμα προς την ευθυγράμμιση των πρακτικών ασφάλειας παιδιών του τεχνολογικού τομέα με τις πραγματικότητες επιβολής που αντιμετωπίζουν τα γραφεία μας κάθε μέρα.»
Το δίδυμο τόνισε ιδιαίτερα την αναγνώριση του πλαισίου ότι οι αποτελεσματικές διασφαλίσεις γεννητικής τεχνητής νοημοσύνης (GenAI) απαιτούν πολυεπίπεδες άμυνες—όχι έναν μόνο τεχνικό έλεγχο, αλλά έναν συνδυασμό εντοπισμού, μηχανισμών άρνησης, ανθρώπινης επίβλεψης και συνεχούς προσαρμογής στις αναδυόμενες τάσεις κατάχρησης.
«Αυτό αντικατοπτρίζει αυτό που βλέπουμε στην πράξη: η απειλή εξελίσσεται συνεχώς και οι στατικές λύσεις είναι ανεπαρκείς», δήλωσαν οι γενικοί εισαγγελείς των πολιτειών.
Η ανακοίνωση της OpenAI καλωσορίστηκε επίσης από τη Michelle DeLaune, Πρόεδρο και Διευθύνουσα Σύμβουλο του NCMEC, η οποία προειδοποίησε ότι η γεννητική τεχνητή νοημοσύνη «επιταχύνει το έγκλημα της διαδικτυακής σεξουαλικής εκμετάλλευσης παιδιών με βαθιά ανησυχητικούς τρόπους — μειώνοντας τα εμπόδια, αυξάνοντας την κλίμακα και επιτρέποντας νέες μορφές βλάβης.»
Η DeLaune πρόσθεσε ότι «ενθαρρύνεται να βλέπει εταιρείες όπως η OpenAI να αναστοχάζονται πώς αυτά τα εργαλεία μπορούν να σχεδιαστούν πιο υπεύθυνα, με μέτρα προστασίας ενσωματωμένα από την αρχή.»
Για να λειτουργήσει σωστά η τεχνητή νοημοσύνη (AI) εντός του νόμου και να ευδοκιμήσει απέναντι στις αυξανόμενες προκλήσεις, πρέπει να ενσωματώσει ένα σύστημα εταιρικού blockchain που διασφαλίζει την ποιότητα και την κυριότητα των δεδομένων εισόδου—επιτρέποντάς της να διατηρεί τα δεδομένα ασφαλή ενώ εγγυάται επίσης την αμεταβλητότητα των δεδομένων. Δείτε την κάλυψη του CoinGeek σχετικά με αυτή την αναδυόμενη τεχνολογία για να μάθετε περισσότερα γιατί το εταιρικό blockchain θα είναι η ραχοκοκαλιά της τεχνητής νοημοσύνης.
Παρακολουθήστε: Επίδειξη των δυνατοτήτων της σύντηξης του blockchain με την τεχνητή νοημοσύνη
Πηγή: https://coingeek.com/openai-blueprint-targets-ai-enabled-child-exploitation/








