Sommet de l'IA en Inde : L'urgence de prioriser la sécurité face aux risques technologiques
Du 16 au 20 février 2026, New Delhi accueille le sommet international sur l'intelligence artificielle, un événement crucial qui suscite de vives inquiétudes parmi les experts. L'association Pause AI, soutenue par de nombreuses personnalités académiques et politiques, lance un appel pressant pour remettre la sécurité au premier plan de l'agenda international, dénonçant un recul préoccupant depuis le premier sommet de Bletchley en 2023.
Un recul alarmant depuis Bletchley
Le sommet inaugural de Bletchley en Angleterre avait abouti à la signature de la Déclaration de Bletchley par 28 pays, reconnaissant « la nécessité urgente de comprendre et de gérer collectivement les risques potentiels » des systèmes d'IA avancés. Cependant, le Sommet pour l'action sur l'IA à Paris en 2025 a marqué un net recul, selon le professeur Max Tegmark du MIT, qui a qualifié l'omission de la sécurité de « porte ouverte au désastre ».
La déclaration finale de Paris ne contenait aucun engagement substantiel sur la sécurité, malgré la publication du rapport international sur la sécurité de l'IA 2025, une évaluation scientifique de référence rédigée par plus de 100 experts internationaux. Ce rapport, comparable au GIEC pour le climat, documente pourtant les risques majeurs posés par l'intelligence artificielle.
Le sommet de New Delhi : Des préoccupations insuffisantes
Le Sommet de l'impact de l'IA en Inde semble poursuivre cette trajectoire préoccupante. De « sécurité » à « action » puis à « impact », l'évolution des intitulés est révélatrice. L'axe « IA sûre et de confiance » se concentre principalement sur l'« accès » aux « capacités » de gouvernance, tout en reconnaissant que les mécanismes existants sont déjà trop fragmentés.
Plutôt que de proposer une coordination robuste et systématique, le programme critique les instruments de réglementation comme étant des « freins » à l'innovation. Il met l'accent sur la disponibilité d'outils sans reconnaître que leur adoption est rendue extrêmement difficile par les dynamiques économiques liées à la course effrénée vers des systèmes toujours plus puissants.
Le temps presse face à l'intelligence artificielle générale
Alors qu'il y a quelques années, l'intelligence artificielle générale (IAG) – un système capable d'accomplir l'ensemble des tâches cognitives d'un humain adulte – semblait encore lointaine, les débats portent désormais sur le nombre d'années, voire de mois, qui nous séparent de ce seuil. Les IA surpassent déjà les performances humaines dans de nombreux tests intellectuels, comme en témoigne la médaille d'or remportée aux Olympiades internationales de mathématiques en 2025.
Là où l'intelligence humaine est limitée par la biologie, l'IA peut traiter l'information à une vitesse considérablement supérieure et se dupliquer, créant potentiellement des millions de copies à travers le monde. Que l'IA surpasse toutes les capacités cognitives humaines d'ici trois, cinq ou dix ans, ce délai reste terriblement court et l'humanité n'y est absolument pas préparée.
Les risques immédiats et futurs
L'IAG menace l'humanité de dangers sans précédent :
- La course aux armements autonomes
- La transformation radicale du travail
- La dépendance psychique et cognitive
- La possibilité d'une perte de contrôle irréversible sur notre destinée
Les prévisions sur l'IAG ne doivent pas faire oublier que les IA actuelles ont déjà un potentiel de nuisance alarmant. Dès aujourd'hui, l'IA abaisse drastiquement le seuil de compétence nécessaire pour mener des cyberattaques sophistiquées ou concevoir de nouvelles armes biologiques.
Un appel à la réglementation internationale
Alors que le nucléaire, l'aéronautique, la pharmacie et la plupart des activités économiques sont strictement encadrées, l'IA se développe dans un vide juridique presque total. Face aux risques considérables, cette faiblesse réglementaire constitue une anomalie inadmissible.
Les cosignataires de la tribune appellent les gouvernements réunis à New Delhi, et particulièrement la France, à changer de cap avec la signature d'un moratoire visant la mise en pause des modèles d'IA les plus avancés tant que les garde-fous nécessaires ne seront pas mis en place. Ces garde-fous incluent :
- Un régime de responsabilité clair et contraignant
- Des audits indépendants et standardisés
- Des protocoles d'interventions d'urgence
- Une obligation d'enregistrement et de classification des risques
- Une obligation de financement de la recherche en sécurité
- L'établissement de lignes rouges sur les usages de l'IA posant des risques inacceptables
- L'instauration d'une agence internationale de sécurité de l'IA similaire à l'AIEA
- Des mécanismes de contrôle démocratique
Pour une consultation démocratique
Les décisions concernant les IA avancées ne sauraient être prises par une poignée de dirigeants d'entreprises et d'actionnaires. Ce sont des questions de sécurité publique qui concernent l'ensemble de la société. Les signataires appellent donc la société civile à se mobiliser, à interpeller ses représentants et à soutenir activement les organisations dédiées à la maîtrise des risques liés à l'IA.
Le sommet de New Delhi représente un moment critique. Il est encore possible d'inverser la tendance et de faire remonter la sécurité au premier rang de l'agenda international. L'heure est à l'action concertée et à la responsabilité collective face à l'un des défis technologiques les plus importants de notre époque.



