OpenAI renforce les garde-fous éthiques pour l'utilisation militaire de ses IA
OpenAI encadre l'usage militaire de ses IA avec de nouvelles règles

OpenAI renforce les protections éthiques dans son partenariat avec le ministère américain de la Défense

Le dirigeant d'OpenAI, Sam Altman, a dévoilé ce lundi une série d'ajustements significatifs à l'accord récemment signé entre son entreprise et le ministère américain de la Défense concernant l'accès aux modèles d'intelligence artificielle développés par la société.

Des principes clarifiés pour protéger les libertés civiles

Dans une publication sur le réseau social X, Sam Altman a expliqué avoir collaboré avec ce qu'il appelle le « ministère de la Guerre » – une dénomination utilisée sous l'administration Trump – pour intégrer des éléments supplémentaires visant à préciser les principes éthiques d'OpenAI. « Nous avons travaillé avec le ministère de la Guerre pour ajouter quelques éléments à notre accord afin de clarifier nos principes », a-t-il écrit.

L'une des modifications majeures stipule explicitement que les systèmes d'intelligence artificielle d'OpenAI ne doivent en aucun cas être employés « intentionnellement » à des fins de « surveillance » des citoyens américains. Cette précision vise à garantir la protection des libertés civiles, une préoccupation centrale pour le créateur de ChatGPT.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Le Pentagone s'engage à limiter l'utilisation par les agences de renseignement

Le Pentagone a formellement assuré que les services d'OpenAI « ne seraient pas utilisés par les agences de renseignement du ministère de la Guerre », incluant notamment l'Agence de sécurité nationale (NSA). Sam Altman a souligné que toute utilisation future par ces entités nécessiterait une modification supplémentaire de l'accord, imposant ainsi un contrôle strict sur les applications militaires des technologies d'IA.

Un contexte marqué par le choix d'OpenAI face à Anthropic

Ces clarifications interviennent peu de temps après que le ministère américain de la Défense a opté pour les modèles d'IA d'OpenAI, écartant ainsi la société Anthropic, créatrice de l'assistant IA Claude. Anthropic avait refusé d'ouvrir ses modèles sans restrictions à l'armée américaine, invoquant des raisons éthiques, une décision qui avait provoqué la colère de l'ancien président Donald Trump.

Cette situation met en lumière les tensions croissantes entre l'innovation technologique, les impératifs de sécurité nationale et les considérations éthiques dans le domaine de l'intelligence artificielle. Les ajustements annoncés par Sam Altman représentent une tentative de concilier ces différents enjeux tout en préservant la réputation d'OpenAI comme entreprise responsable.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale