La stratégie d’Anthropic pour contrer la désinformation électorale
La stratégie d’Anthropic pour contrer la désinformation électorale


Dans le contexte de l’élection présidentielle américaine de 2024, Anthropic, la startup d’IA, déploie de manière proactive une technologie pionnière visant à lutter contre la désinformation entourant le discours politique. Nommée Prompt Shield, cette solution innovante exploite un mélange de modèles de détection d’IA avancés et de protocoles prédéfinis pour identifier les cas où les utilisateurs engagent le chatbot GenAI d’Anthropic dans des discussions politiques, les guidant ensuite vers des sources faisant autorité d’informations liées au vote.
Prompt Shield fonctionne en déclenchant une notification contextuelle chaque fois qu’un utilisateur basé aux États-Unis interroge Claude, le chatbot d’Anthropic, pour obtenir des conseils de vote. Cette notification propose une redirection vers TurboVote, une ressource fiable fournie par l’organisation non partisane Democracy Works, fournissant aux utilisateurs des informations électorales actuelles et précises. Anthropic cite la nécessité de Prompt Shield en raison des incapacités de Claude à gérer les enquêtes politiques, reconnaissant sa propension à générer des informations erronées, en particulier dans le domaine des élections.
« Nous avons mis en place un bouclier de prompt depuis la création de Claude pour signaler diverses formes de préjudice potentiel, conformément à notre politique d’utilisation acceptable », a informé un porte-parole à TechCrunch par courrier électronique. « Notre intervention rapide de bouclier spécifique aux élections sera déployée dans les semaines à venir, accompagnée d’un suivi rigoureux de son utilisation et de son efficacité. Tout au long du processus de développement, nous avons collaboré avec un large éventail de parties prenantes, notamment des décideurs politiques, des pairs du secteur, des organisations de la société civile et des consultants spécifiques aux élections. »
Bien qu’il soit en phase de test préliminaire, Prompt Shield semble prêt à être étendu. Notamment, lors d’une interaction récente, Claude s’est abstenu de présenter la notification contextuelle concernant les procédures de vote pour les prochaines élections lorsqu’on lui a demandé, fournissant plutôt un guide de vote générique. Anthropic affirme son perfectionnement continu de Prompt Shield alors qu’il se prépare à une mise en œuvre plus large.
Conformément à son engagement à prévenir l’utilisation abusive de sa technologie à des fins politiques, Anthropic interdit l’utilisation de ses outils dans des campagnes politiques ou des efforts de lobbying, s’alignant ainsi sur une tendance plus large du secteur parmi les fournisseurs de GenAI. Cette position proactive coïncide avec une recrudescence mondiale de l’activité électorale, avec un nombre sans précédent d’électeurs attendus aux élections nationales dans au moins 64 pays, représentant collectivement près de la moitié de la population mondiale.
La convergence d’une activité électorale accrue et des progrès technologiques a donné lieu à des initiatives à l’échelle du secteur pour sauvegarder l’intégrité des processus démocratiques. OpenAI, par exemple, a récemment annoncé des mesures visant à interdire la création de robots via sa plateforme ChatGPT qui usurpent l’identité de véritables candidats ou autorités, diffusent des informations erronées sur le vote ou dissuadent la participation des électeurs. Comme Anthropic, OpenAI applique des directives strictes interdisant l’utilisation de ses outils à des fins politiques.
S’inspirant du Prompt Shield d’Anthropic, OpenAI a déployé des mécanismes de détection pour guider les utilisateurs de ChatGPT recherchant des informations relatives au vote vers CanIVote.org, un site Web non partisan géré par l’Association nationale des secrétaires d’État. Ces mesures proactives soulignent l’engagement de l’industrie à favoriser un engagement civique éclairé tout en atténuant les risques posés par des acteurs malveillants cherchant à exploiter les technologies d’IA à des fins néfastes.
Malgré un soutien bipartisan croissant aux interventions législatives, les cadres réglementaires régissant l’intersection de l’IA et de la politique restent naissants, en particulier aux États-Unis. Néanmoins, une vague d’initiatives au niveau des États et des entreprises souligne une détermination collective à relever les défis émergents en matière d’intégrité électorale. Des plateformes telles que Google et Meta ont introduit des mesures pour réglementer l’utilisation des outils d’IA dans la publicité politique, reflétant une tendance plus large vers l’autoréglementation du secteur dans un paysage réglementaire en évolution.
Le déploiement de Prompt Shield par Anthropic reflète un engagement croissant de l’industrie à atténuer les risques de désinformation électorale. Alors que les technologies de l’IA continuent de recouper la politique, des mesures proactives sont essentielles pour préserver les processus démocratiques et la confiance des consommateurs. Les acteurs du marché doivent donner la priorité à l’utilisation éthique de l’IA et à la conformité réglementaire pour naviguer avec succès dans des paysages en évolution.






