L’engagement d’OpenAI en faveur de la sécurité des enfants : adopter les principes de sécurité dès la conception
L’engagement d’OpenAI en faveur de la sécurité des enfants : adopter les principes de sécurité dès la conception


Communiqué d’OpenAI:
OpenAI, aux côtés des leaders du secteur, notamment Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI et Stability AI, s’est engagé à mettre en œuvre de solides mesures de sécurité des enfants dans le développement, le déploiement et la maintenance des technologies d’IA générative, comme énoncé dans les principes de la sécurité dès la conception. Cette initiative, menée par Thorn une organisation à but non lucratif dédiée à la défense des enfants contre les abus sexuels, et Alltechishuman, une organisation dédiée à la lutte contre les problèmes complexes de la technologie et de la société, vise à atténuer les risques que l’IA générative fait courir aux enfants. En adoptant des principes complets de sécurité dès la conception, OpenAI et nos pairs veillent à ce que la sécurité des enfants soit une priorité à chaque étape du développement de l’IA. À ce jour, nous avons déployé des efforts considérables pour minimiser le potentiel de nos modèles à générer du contenu préjudiciable aux enfants, définir des restrictions d’âge pour ChatGPT et collaborer activement avec le Centre national pour les enfants disparus et exploités (NCMEC), la Tech Coalition et d’autres gouvernements. et les intervenants de l’industrie sur les questions de protection de l’enfance et l’amélioration des mécanismes de signalement.
Dans le cadre de cet effort de sécurité dès la conception, nous nous engageons à :
Développer : développer, créer et former des modèles d’IA génératifs qui répondent de manière proactive aux risques pour la sécurité des enfants. Sourcer de manière responsable nos ensembles de données de formation, détecter et supprimer le matériel d’abus sexuel sur enfants (CSAM) et le matériel d’exploitation sexuelle d’enfants (CSEM) des données de formation, et signaler tout CSAM confirmé aux autorités compétentes. Intégrez des boucles de rétroaction et des stratégies de tests de résistance itératives dans notre processus de développement. Déployez des solutions pour lutter contre les abus contradictoires. Déployer : publiez et distribuez des modèles d’IA génératifs après qu’ils ont été formés et évalués pour la sécurité des enfants, offrant ainsi des protections tout au long du processus. Combattre et répondre aux contenus et comportements abusifs, et intégrer des efforts de prévention. Encouragez les développeurs à s’approprier la sécurité dès la conception. Maintenir : maintenir la sécurité du modèle et de la plate-forme en continuant à comprendre activement et à réagir aux risques liés à la sécurité des enfants. Engagé à supprimer de notre plateforme les nouveaux AIG-CSAM générés par de mauvais acteurs. Investissez dans la recherche et les solutions technologiques futures. Combattez CSAM, AIG-CSAM et CSEM sur nos plateformes.
Cet engagement marque une étape importante dans la prévention de l’utilisation abusive des technologies d’IA pour créer ou diffuser du matériel pédopornographique (AIG-CSAM) et d’autres formes de préjudices sexuels contre des enfants. En tant que membre du groupe de travail, nous avons également convenu de publier des mises à jour sur les progrès réalisés chaque année.
Nous nous soucions profondément de la sécurité et de l’utilisation responsable de nos outils, c’est pourquoi nous avons intégré des garde-corps et des mesures de sécurité solides dans ChatGPT et DALL-E. Nous nous engageons à travailler aux côtés de Thorn, All Tech is Human et de la communauté technologique au sens large pour respecter les principes de la sécurité dès la conception et poursuivre notre travail visant à atténuer les dommages potentiels causés aux enfants.
Chelsea Carlson, TPM pour la sécurité des enfants
Cette action collective souligne notre approche commune de la sécurité des enfants, démontrant un engagement commun en faveur de l’innovation éthique et du bien-être des membres les plus vulnérables de la société. Thorn a publié les principes sur https://teamthorn.co/gen-ai






