OpenAI heeft een beleidsblauwdruk gepubliceerd waarin nieuwe veiligheidsmaatregelen worden beschreven die de kunstmatige intelligentie (AI) industrie kan nemen om het gebruik van de technologie voor het creëren van materiaal met seksueel misbruik van kinderen te voorkomen.
"Seksuele uitbuiting van kinderen is een van de meest urgente uitdagingen van het digitale tijdperk," zei OpenAI in zijn aankondiging van 8 april. "AI verandert snel zowel hoe deze schade ontstaat in de hele sector als hoe deze op grote schaal kan worden aangepakt."
Met dit in gedachten onthulde het bedrijf zijn beleidsblauwdruk, waarin "een praktisch pad voorwaarts voor het versterken van de Amerikaanse kinderbeschermingskaders in het tijdperk van AI" wordt geschetst.
De blauwdruk weerspiegelt en integreert feedback van verschillende toonaangevende organisaties en experts binnen het ecosysteem voor kinderveiligheid, waaronder het National Center for Missing & Exploited Children (NCMEC), de Attorney General Alliance—een non-profitgroep van staatsprocureurs-generaal in de Verenigde Staten—en Thorn, een non-profitorganisatie die zich inzet voor de bescherming van kinderen tegen seksueel misbruik, volgens de AI-gigant.
"Geen enkele interventie kan deze uitdaging alleen aan," zei OpenAI. "Dit raamwerk brengt juridische, operationele en technische benaderingen samen om risico's beter te identificeren, reacties te versnellen en verantwoordelijkheid te ondersteunen, terwijl wordt gewaarborgd dat handhavingsautoriteiten sterk blijven naarmate de technologie evolueert."
De stap komt op een moment dat de bezorgdheid over het misbruik van AI-tools, met name functies voor het genereren van afbeeldingen, om expliciete afbeeldingen van vrouwen en kinderen te produceren, waaronder beroemdheden en publieke figuren, steeds groter wordt.
Begin januari werd de Britse communicatietoezichthouder, Ofcom, gedwongen dringend contact op te nemen met X en xAI "om te begrijpen welke stappen zij hebben genomen om te voldoen aan hun wettelijke verplichtingen om gebruikers in het VK te beschermen," nadat berichten naar buiten kwamen dat Elon Musk's AI-chatbot Grok werd gebruikt om expliciete afbeeldingen van kinderen en vrouwen te creëren en te verspreiden waarbij hun kleding digitaal was verwijderd.
Soortgelijke bezorgdheden werden geuit in de Europese Unie, waarbij de Italiaanse gegevensbeschermingsautoriteit gebruikers en aanbieders van AI-tools waarschuwde voor de risico's voor "fundamentele rechten en vrijheden" die AI-deepfakes met zich meebrengen.
Om dergelijke zorgen aan te pakken, zei OpenAI drie belangrijke prioriteiten te hebben: het moderniseren van wetten om door AI gegenereerd en gewijzigd materiaal met seksueel misbruik van kinderen te bestrijden, het verbeteren van rapportage en coördinatie door aanbieders om effectievere onderzoeken te ondersteunen, en het direct in AI-systemen inbouwen van veiligheid-door-ontwerp-maatregelen om misbruik te voorkomen en te detecteren.
"Samen stellen deze stappen de industrie in staat om kinderveiligheid eerder en effectiever aan te pakken," zei het bedrijf in zijn verklaring van 8 april. "Door uitbuitingspogingen sneller te onderbreken, de kwaliteit van signalen die naar wetshandhaving worden gestuurd te verbeteren, en verantwoordelijkheid in het hele ecosysteem te versterken, heeft dit raamwerk tot doel schade te voorkomen voordat het gebeurt en te helpen zorgen voor snellere bescherming van kinderen wanneer risico's opduiken."
OpenAI zei ook toegewijd te zijn aan het blijven versterken van waarborgen om misbruik van zijn systemen te voorkomen, evenals nauw samen te werken met partners zoals de NCMEC en wetshandhaving om detectie en rapportage te verbeteren.
In een gezamenlijke verklaring over de blauwdruk voor kinderveiligheid zeiden staatsprocureurs-generaal Jeff Jackson (van North Carolina) en Derek Brown (van Utah), co-voorzitters van de AI Task Force van de Attorney General Alliance, dat ze "deze blauwdruk verwelkomen als een betekenisvolle stap in de richting van het afstemmen van de kinderveiligheidspraktijken van de technologiesector op de handhavingsrealiteiten waarmee onze kantoren dagelijks worden geconfronteerd."
Het duo benadrukte met name de erkenning van het raamwerk dat effectieve generatieve AI (GenAI) waarborgen gelaagde verdedigingen vereisen—niet een enkele technische controle, maar een combinatie van detectie, weigeringsmechanismen, menselijk toezicht en continue aanpassing aan opkomende misbruiktrends.
"Dit weerspiegelt wat we in de praktijk zien: de dreiging evolueert constant, en statische oplossingen zijn onvoldoende," zeiden de staatsprocureurs-generaal.
De aankondiging van OpenAI werd ook verwelkomd door Michelle DeLaune, president en CEO van de NCMEC, die waarschuwde dat GenAI "het misdrijf van online seksuele uitbuiting van kinderen op diep verontrustende manieren versnelt — het verlagen van barrières, het verhogen van de schaal, en het mogelijk maken van nieuwe vormen van schade."
DeLaune voegde toe dat ze "aangemoedigd was om te zien dat bedrijven zoals OpenAI nadenken over hoe deze tools verantwoordelijker kunnen worden ontworpen, met waarborgen die vanaf het begin zijn ingebouwd."
Om kunstmatige intelligentie (AI) goed te laten werken binnen de wet en te laten gedijen in het licht van groeiende uitdagingen, moet het een enterprise blockchain-systeem integreren dat de kwaliteit en eigendom van data-invoer waarborgt—waardoor het gegevens veilig kan houden terwijl ook de onveranderlijkheid van gegevens wordt gegarandeerd. Bekijk de berichtgeving van CoinGeek over deze opkomende technologie om meer te leren over waarom Enterprise blockchain de ruggengraat van AI zal zijn.
Kijk: Het potentieel demonstreren van de fusie van blockchain met AI
Bron: https://coingeek.com/openai-blueprint-targets-ai-enabled-child-exploitation/








