Découvrez la stratégie d’OpenAI pour les élections mondiales de 2024
Découvrez la stratégie d’OpenAI pour les élections mondiales de 2024


Communiqué d’OpenAI:
La protection de l’intégrité des élections nécessite la collaboration de tous les acteurs du processus démocratique, et nous voulons nous assurer que notre technologie ne soit pas utilisée d’une manière qui pourrait nuire à ce processus.
Nos outils permettent aux gens d’améliorer leur vie quotidienne et de résoudre des problèmes complexes, de l’utilisation de l’IA à améliorer les services de l’État à simplifier les formulaires médicaux pour les patients.
Nous voulons nous assurer que nos systèmes d’IA sont construits, déployés et utilisés en toute sécurité. Comme toute nouvelle technologie, ces outils comportent des avantages et des défis. Ils sont également sans précédent, et nous continuerons à faire évoluer notre approche à mesure que nous en apprendrons davantage sur la manière dont nos outils sont utilisés.
Alors que nous nous préparons pour les élections de 2024 dans les plus grandes démocraties du monde, notre approche consiste à poursuivre notre travail de sécurité des plateformes en améliorant l’exactitude des informations sur le vote, en appliquant des politiques mesurées et en améliorant la transparence. Nous déployons un effort interfonctionnel dédié au travail électoral, réunissant l’expertise de nos équipes de systèmes de sécurité, de renseignements sur les menaces, juridiques, d’ingénierie et politiques pour enquêter et traiter rapidement les abus potentiels.
Voici les principales initiatives dans lesquelles nos équipes investissent pour préparer les élections de cette année :
Prévenir les abus
Nous attendons et visons à ce que les gens utilisent nos outils en toute sécurité et de manière responsable, et les élections ne font pas exception. Nous nous efforçons d’anticiper et de prévenir les abus pertinents, tels que les « deepfakes » trompeurs, les opérations d’influence à grande échelle ou les chatbots se faisant passer pour des candidats. Avant de lancer de nouveaux systèmes, nous les regroupons, sollicitons les utilisateurs et les partenaires externes pour obtenir des commentaires et élaborons des mesures d’atténuation de sécurité pour réduire le risque de préjudice. Depuis des années, nous étudions des outils pour améliorer l’exactitude des faits, réduire les biais et refuser certaines demandes. Ces outils constituent une base solide pour notre travail en matière d’intégrité électorale. Par exemple, DALL·E dispose de garde-fous pour refuser les demandes demandant la génération d’images de personnes réelles, y compris de candidats.
Nous affinons régulièrement nos politiques d’utilisation de ChatGPT et de l’API à mesure que nous en apprenons davantage sur la manière dont les gens utilisent ou tentent d’abuser de notre technologie. Quelques points à souligner pour les élections :
Nous travaillons toujours à comprendre dans quelle mesure nos outils pourraient être efficaces pour la persuasion personnalisée. Jusqu’à ce que nous en sachions plus, nous n’autorisons pas les gens à créer des applications à des fins de campagne politique et de lobbying. Les gens veulent savoir et avoir confiance qu’ils interagissent avec une personne, une entreprise ou un gouvernement réel. Pour cette raison, nous n’autorisons pas les constructeurs à créer des chatbots qui prétendent être de vraies personnes (par exemple, des candidats) ou des institutions (par exemple, un gouvernement local). Nous n’autorisons pas les candidatures qui dissuadent les gens de participer aux processus démocratiques, par exemple en déformant les processus de vote et les qualifications (par exemple, quand, où ou qui a le droit de voter) ou qui découragent le vote (par exemple, prétendre qu’un vote n’a aucun sens). .Grâce à nos nouveaux GPT, les utilisateurs peuvent nous signaler des violations potentielles.
Avec nos nouveaux GPT, les utilisateurs peuvent nous signaler des violations potentielles.
Transparence autour du contenu généré par l’IA
Une meilleure transparence sur la provenance des images, y compris la capacité de détecter quels outils ont été utilisés pour produire une image, peut permettre aux électeurs d’évaluer une image avec confiance dans la façon dont elle a été créée. Nous travaillons sur plusieurs efforts de provenance. Au début de cette année, nous mettrons en œuvre le Coalition pour la provenance et l’authenticité du contenu les informations d’identification numériques (une approche qui code les détails sur la provenance du contenu à l’aide de la cryptographie) pour les images générées par DALL·E 3.
Nous expérimentons également un classificateur de provenance, un nouvel outil de détection des images générées par DALL·E. Nos tests internes ont montré des premiers résultats prometteurs, même lorsque les images ont été soumises à des types courants de modifications. Nous prévoyons de le mettre bientôt à la disposition de notre premier groupe de testeurs, comprenant des journalistes, des plateformes et des chercheurs, pour obtenir leurs commentaires.
Enfin, ChatGPT s’intègre de plus en plus aux sources d’informations existantes : par exemple, les utilisateurs commenceront à avoir accès à des reportages d’actualité en temps réel à l’échelle mondiale, y compris l’attribution et les liens. La transparence autour de l’origine de l’information et l’équilibre des sources d’information peuvent aider les électeurs à mieux évaluer l’information et à décider eux-mêmes à quoi ils peuvent faire confiance.
Améliorer l’accès à des informations de vote faisant autorité
Aux États-Unis, nous travaillons avec le Association nationale des secrétaires d’État (NASS), la plus ancienne organisation professionnelle non partisane d’agents publics du pays. ChatGPT dirigera les utilisateurs vers CanIVote.org, le site Web faisant autorité en matière d’informations sur le vote aux États-Unis, lorsqu’on leur posera certaines questions liées à la procédure électorale, par exemple, où voter. Les enseignements tirés de ce travail éclaireront notre approche dans d’autres pays et régions.
Nous aurons plus à partager dans les mois à venir. Nous sommes impatients de continuer à travailler avec nos partenaires et à apprendre de ceux-ci pour anticiper et prévenir les abus potentiels de nos outils à l’approche des élections mondiales de cette année.






