Le Pape François mentionnera l’application de l’intelligence artificielle sur les armes au G7 (S.C.)

Lors du G7 du 14 juin en Pouilles, le Pape François “mentionnera l’application de l’intelligence artificielle sur les armes”. Cela a été anticipé par le cardinal secrétaire d’État, Pietro Parolin, en marge de la présentation du livre “Il senso cristiano dell’uomo secondo Reinhold Niebuhr”, thèse de doctorat de Don Luigi Giussani, à l’Université Pontificale Grégorienne. Ce que le Pape dira aux dirigeants sera certainement en ligne avec sa position contre la fabrication et la distribution d’armes de plus en plus meurtrières : François considère terrible de “gagner de l’argent avec la mort”, mais “malheureusement aujourd’hui les investissements les plus rentables sont les usines d’armes”, comme il l’a souvent répété en prenant position contre l’industrie des armes, qui génère des profits en construisant des instruments de mort.

Parolin a également confirmé qu’en marge du G7, le Pape pourrait avoir une rencontre en tête-à-tête avec le président américain Joe Biden. “Je pense que oui, le Pape consacrera du temps à certaines rencontres bilatérales avec les présidents et chefs d’État qui l’ont demandé. Donc, j’imagine qu’il y aura aussi cela”, a-t-il dit.

Les risques liés à l’utilisation militaire de l’IA

Aux yeux du Pape, l’utilisation de l’IA dans le contexte militaire soulève de nombreuses préoccupations éthiques. L’utilisation de l’IA dans la guerre, bien qu’elle promette efficacité et précision, comporte des risques significatifs qui méritent une attention particulière en raison des conséquences sur les personnes, mais aussi sous l’angle juridique et de la sécurité. Il existe en effet la possibilité de créer des armes autonomes létales (LAWs), capables d’identifier et d’attaquer des cibles sans intervention humaine. Ces systèmes pourraient prendre des décisions de vie ou de mort basées sur des algorithmes, soulevant des questions morales sur la responsabilité et la possibilité d’erreurs fatales. L’absence de contrôle humain direct pourrait conduire à des situations où des machines prennent des décisions éthiquement problématiques ou incorrectes, si tant est que l’on puisse définir comme justes des décisions concernant des armes qui tuent et détruisent.

L’IA peut également augmenter significativement la vitesse et l’efficacité des opérations militaires, pouvant potentiellement entraîner une escalade rapide des conflits. La capacité de répondre presque instantanément aux menaces perçues pourrait réduire le temps disponible pour la diplomatie et les décisions humaines réfléchies, augmentant le risque de guerres non intentionnelles. De plus, la conviction de posséder un avantage technologique pourrait inciter à des actions militaires préventives ou offensives. Enfin, les systèmes d’intelligence artificielle, comme toutes les technologies numériques, sont vulnérables aux cyberattaques. Les adversaires pourraient pirater ou manipuler ces systèmes, provoquant des conséquences dévastatrices. L’intégrité et la sécurité des données sont cruciales pour le fonctionnement de l’IA; une violation pourrait entraîner des dysfonctionnements, des attaques contre des cibles erronées ou la divulgation d’informations sensibles.

Les algorithmes d’IA sont aussi précis que les données sur lesquelles ils sont entraînés. Si les données contiennent des biais, des préjugés ou des erreurs, les décisions de l’IA refléteront également ces problématiques. Dans des contextes militaires, cela pourrait signifier que les armes autonomes ou les systèmes de surveillance commettent des erreurs discriminatoires, ciblant injustement des groupes spécifiques. Cela pourrait non seulement violer les droits humains, mais aussi alimenter des tensions sociales et politiques.

De plus, la dépendance croissante à l’IA pour les décisions de guerre pourrait entraîner une diminution du contrôle humain sur les opérations militaires. Cela soulève des préoccupations quant à la responsabilité des actions militaires et des conséquences qui en découlent. Maintenir l’élément humain est essentiel pour garantir que les décisions soient prises avec des considérations éthiques et stratégiques complètes.

L’intégration de l’IA dans les forces armées a déjà déclenché une nouvelle course aux armements technologiques. Les pays du monde entier investissent d’énormes ressources pour développer des systèmes d’IA militaires avancés. Cette course pourrait déstabiliser davantage l’équilibre mondial, conduisant à une situation où les nations se sentent obligées de développer ou d’adopter l’IA pour ne pas rester en arrière, augmentant le risque de conflits mondiaux.

En somme, les risques associés à l’utilisation de l’IA ne peuvent être ignorés. Il est essentiel que les gouvernements, les organisations internationales et la société civile travaillent ensemble pour créer des réglementations et des lignes directrices garantissant l’utilisation éthique et sécurisée de l’IA dans le contexte militaire. Ce n’est qu’à travers une approche réfléchie et responsable que nous pouvons espérer atténuer les dangers et maximiser les avantages de cette technologie émergente.

S.C.