D’anciens employés d’OpenAI veulent protéger les lanceurs d’alerte signalant les risques liés à l’IA
D’anciens employés d’OpenAI veulent protéger les lanceurs d’alerte signalant les risques liés à l’IA


Un groupe d’employés actuels et anciens d’OpenAI appelle le créateur de ChatGPT et d’autres sociétés d’intelligence artificielle à protéger les employés qui signalent des risques de sécurité liés à la technologie de l’IA.
Une lettre ouverte publiée mardi demande aux entreprises technologiques d’établir des protections plus strictes pour les lanceurs d’alerte afin que les chercheurs aient le « droit d’avertir » des dangers de l’IA sans crainte de représailles.
Le développement de systèmes d’IA plus puissants « évolue rapidement et il existe de nombreuses incitations fortes à avancer sans prudence », a déclaré Daniel Ziegler, ancien ingénieur d’OpenAI, l’un des organisateurs de la lettre ouverte.
Ziegler a déclaré mardi dans une interview qu’il n’avait pas peur de s’exprimer en interne pendant son séjour chez OpenAI entre 2018 et 2021, au cours duquel il a contribué au développement de certaines des techniques qui feraient plus tard le succès de ChatGPT. Mais il craint désormais que la course à la commercialisation rapide de la technologie ne fasse pression sur OpenAI et ses concurrents pour qu’ils ignorent les risques.
Un autre co-organisateur, Daniel Kokotajlo, a déclaré qu’il avait quitté OpenAI plus tôt cette année « parce que j’ai perdu l’espoir qu’ils agiraient de manière responsable », en particulier dans le cadre de la tentative de construire des systèmes d’IA meilleurs que les humains, connus sous le nom d’intelligence artificielle générale.
« Eux et d’autres ont adhéré à l’approche ‘agir vite et casser les choses’ et c’est le contraire de ce qui est nécessaire pour une technologie aussi puissante et aussi mal comprise », a déclaré Kokotajlo dans une déclaration écrite.
OpenAI a déclaré en réponse à la lettre qu’elle avait déjà mis en place des mesures permettant aux employés d’exprimer leurs préoccupations, notamment une ligne d’assistance téléphonique anonyme en matière d’intégrité.
« Nous sommes fiers de nos antécédents en matière de fourniture des systèmes d’IA les plus performants et les plus sûrs et croyons en notre approche scientifique pour gérer les risques », indique le communiqué de la société. « Nous convenons qu’un débat rigoureux est crucial étant donné l’importance de cette technologie et nous continuerons à collaborer avec les gouvernements, la société civile et d’autres communautés à travers le monde. »
La lettre compte 13 signataires, dont la plupart sont d’anciens employés d’OpenAI et deux qui travaillent ou ont travaillé pour DeepMind de Google. Quatre sont répertoriés comme employés actuels anonymes d’OpenAI. La lettre demande que les entreprises cessent d’obliger les travailleurs à conclure des accords de « non-dénigrement » qui peuvent les punir en leur retirant un avantage financier clé – leurs investissements en actions – s’ils critiquent l’entreprise après leur départ.
L’indignation des médias sociaux face au libellé des documents d’OpenAI concernant les travailleurs qui partent a récemment conduit l’entreprise à libérer tous ses anciens employés de ces accords.
La lettre ouverte bénéficie du soutien des scientifiques pionniers de l’IA Yoshua Bengio et Geoffrey Hinton, qui ont remporté ensemble la plus haute distinction en informatique, et de Stuart Russell. Tous trois ont mis en garde contre les risques que les futurs systèmes d’IA pourraient faire peser sur l’existence de l’humanité.
La lettre intervient alors qu’OpenAI a déclaré qu’il commençait à développer la prochaine génération de la technologie d’IA derrière ChatGPT. L’entreprise a formé un nouveau comité de sécurité juste après avoir perdu un groupe de dirigeants, dont le cofondateur Ilya Sutskever, qui faisaient partie d’une équipe axée sur le développement en toute sécurité des systèmes d’IA les plus puissants.
La communauté de recherche en IA au sens large se bat depuis longtemps sur la gravité des risques à court et à long terme de l’IA et sur la manière de les concilier avec la commercialisation de la technologie. Ces conflits ont contribué à l’éviction et au retour rapide du PDG d’OpenAI, Sam Altman, l’année dernière, et continuent d’alimenter la méfiance à l’égard de son leadership.
Plus récemment, une nouvelle présentation de produits a suscité la colère de la star hollywoodienne Scarlett Johansson, qui a déclaré qu’elle était choquée d’entendre la voix de ChatGPT sonner « étrangement similaire » à la sienne, bien qu’elle ait précédemment rejeté la demande d’Altman de prêter sa voix au système.
Plusieurs signataires de la lettre, dont Ziegler, ont des liens avec l’altruisme efficace, un mouvement social philanthropique qui embrasse des causes telles que l’atténuation des pires impacts potentiels de l’IA. Ziegler a déclaré que les auteurs de la lettre ne s’inquiètent pas seulement des risques futurs « catastrophiques » liés aux systèmes d’IA incontrôlables, mais aussi de l’équité, de l’utilisation abusive des produits, des suppressions d’emplois et de la possibilité qu’une IA très réaliste manipule les gens sans les garanties appropriées.
« Je suis moins intéressé à gronder OpenAI », a-t-il déclaré. « Je suis plus intéressé par le fait que cela soit une opportunité pour toutes les entreprises pionnières de l’IA de faire quelque chose qui augmente réellement la surveillance et la transparence et peut-être augmente la confiance du public. »






