Dans la mégamachine, que ce soit pour la guerre économique ou la guerre militaire, la morale a très peu de place, la priorité c’est l’efficacité et la rentabilité.
Alors, comme craint et anticipé, la réalité sinistre des guerres a vite pris le dessus sur les timides velléités éthiques et les voeux pieux hors sols sur les dangers de l’IA et des robots tueurs autonomes.
Une universitaire révèle ci-dessous l’engouement des armées pour les technologies de guerre automatisée.
Les humains ne peuvent pas suivre le rythme des machines, donc après le trading haute fréquence automatisé du volet finance du capitalisme, voici les IA militaires qui désignent en cadence accélérée des cibles à la pelle et qui permettent aux robots d’aller au bout de leur mission meurtrière en toute autonomie. Les militaires adorent finalement (même si certains ont peur de perdre leur job, comme dans les soutes de l’économie de marché), et de toute façon, dans le modèle de société en vigueur, tout le monde doit adopter les nouvelles technologies des concurrents/ennemis pour ne pas être dépassé/écrasé.
Pour ses crimes de guerre et génocide à Gaza, l’armée israélienne a démultiplié ses bombardements meurtriers à l’aide d’IA qui désignent des cibles par milliers (sans que les humains aient le temps ou la volonté de vérifier quoi que ce soit), au mépris des civils et des principes de précaution/proportionnalité.
Dans la guerre déclenchée par la Russie contre l’Ukraine, divers types de drones sont expérimentés.
Les fabriquants d’armes technologiques aiment pouvoir expérimenter leurs produits sur les champs de bataille : le « vu sur le terrain » fait vendre.
L’IA et les robots militiaires autonomes permettent des combats « low cost », avec des armes modernes accessibles pour tout le monde, ce qui peut faciliter et multiplier les conflits armés en tous genres.
La disponibilité, la facilité d’utilisation et l’efficacité de ces armes promet davantage encore de dévastations.
Suivront bientôt les essaims autonomes de drones (déjà en cours d’expérimentation), qui communiquent entre eux et peuvent continuer leur mission même si quelques uns sont détruits.
La guerre se fera entre machines, toujours plus incontrôlables, et les humains seront encore plus vulnérables.
Pour finir, les grandes entreprises et multinationales du privé (GAFAM et autres startup) n’hésite(ront) pas à collaborer encore plus activement avec les Etats et leurs armées, achevant la fusion/complémentarité Etats/recherche/entreprises et capitalisme/guerres.
Evidemment, ces technologies militaires autonomes sont et seront transposées pour la répression et la surveillance policière. Voyez déjà en France l’autorisation des drones flics et récemment la surveillance algorithimique par caméras qui déjà utilise et capte des données biométriques dans l’espace dit public.
Après la dépendance totale aux machines pour notre subsistance, voici la vulnérabilité totale aux machines guerrières/policières ultra-puissantes et ultra-rapides (même si parfois un lance-pierre suffit à les dérouiller). H24 les robots flics connectés aux caméras et capteurs patrouilleront impitoyablement, n’ayant besoin ni de dormir ni d’avoir un semblant de vie sociale.
Accepter la civilisation industrielle et la laisser continuer, ce n’est pas seulement signer l’arrêt de mort du climat et de la biosphère sur fond de précarité croissante, c’est aussi permettre aux machines de mener les guerres et de décider de nous tuer efficacement après une froide évaluation algorithmique multifacteur.
« Sur le champ de bataille, l’IA dépasse les attentes des militaires
« Sur le champ de bataille, l’IA dépasse les attentes des militaires »
« Entretiens de l’IA ». Pour Laure de Roucy-Rochegonde, autrice de « La Guerre à l’ère de l’intelligence artificielle », l’apparition d’armes plus autonomes peut remettre en cause le contrôle de l’usage de la force.
(...)
on a vraiment vu une accélération, un point de bascule, parce que tous ces acteurs ont bénéficié de quelque chose de très rare jusque-là : les données opérationnelles sur le terrain. Sur le champ de bataille, aujourd’hui, l’IA dépasse plutôt les attentes des militaires.
(...)
Il y a dix ans, à l’époque de l’invasion de la Crimée, en 2014, les drones avaient une grande vulnérabilité : quand on coupait leur liaison avec l’opérateur – ce que les Russes font très bien –, ils finissaient par tomber. C’est là que l’IA joue aujourd’hui un rôle, car elle permet d’autonomiser la navigation, le ciblage, le réajustement d’une trajectoire, etc. Les drones peuvent désormais de plus en plus souvent continuer à opérer sans interrompre leur mission.
(...)
La prochaine frontière, ce sont les essaims de drones, qui fonctionneront avec une intelligence collective, un peu comme un banc de poissons.
(...)
D’après les enquêtes menées par des médias israéliens, comme le très sérieux + 972 Magazine, marqué à gauche, et les déclarations de l’armée israélienne, l’IA utilisée pour aider au ciblage de membres du Hamas va de pair avec un système de surveillance de masse.
(...)
L’armée israélienne a pu ensuite considérer que des habitants étaient des combattants du Hamas ou du Jihad islamique. L’IA a aussi très largement été employée pour identifier des cibles, ce qui a contribué à l’intensité des bombardements.
(...)
Cette façon de recourir à l’IA pose question au regard du droit international humanitaire. D’abord, le principe de précaution, qui impose de mettre les civils à l’abri avant de cibler un objectif. Ensuite, le principe de distinction [entre civils et militaires]. Le programme, appelé « Where’s Daddy », permet, par exemple, selon le + 972 Magazine qui s’en est fait l’écho, d’identifier les combattants du Hamas quand ils sont chez eux, où il est possible que soient aussi présents leur famille ou des voisins, à proximité. Enfin, le principe de proportionnalité, selon lequel une frappe ne doit pas être excessive par rapport à l’avantage militaire concret et direct attendu. Mais ce principe de proportionnalité est assez subjectif. Chaque Etat en fait sa propre évaluation, selon les situations
(...)
Le nombre de victimes collatérales consenti pour atteindre un membre du Hamas a considérablement augmenté, en comparaison des précédentes opérations menées dans la bande de Gaza. Cette évolution est liée à un changement de perception du conflit mais aussi à l’IA, car ces programmes ont permis davantage de frappes.
(...)
L’IA accélère encore le rythme de la guerre. Le risque est ici que le temps de réaction humain soit trop long pour que de vraies capacités de surveillance puissent s’exercer.
Il y a de plus le biais d’automatisation, lié à une surconfiance. Les humains ont tendance à se dire que la machine fait des calculs beaucoup plus sophistiqués qu’eux. Ils savent que les IA utilisent des images satellites, des images de drones ou des écoutes téléphoniques, mais ils n’ont pas accès aux données comme le contenu de l’écoute téléphonique qui a permis de penser que la cible était légitime. L’humain risque alors de servir de blanc-seing à la machine. Il y a une forme de simple droit de veto de l’humain, qui s’exerce de moins en moins.
(...)
Le recours à des moyens de combat déshumanisés tend à amoindrir la capacité de faire jouer ces garde-fous démocratiques.
(...)
Depuis des années, des débats existent pour réglementer les armes létales autonomes ou les « robots tueurs ». Ces projets sont-ils condamnés à rester dans les limbes ?
Effectivement, les débats ont commencé il y a plus de dix ans. D’ailleurs, la France a beaucoup porté, au départ, cette question, en pensant qu’il y aurait forcément une interdiction car, du point de vue du droit international humanitaire, il y avait des questions assez évidentes. Mais cela ne s’est pas du tout passé comme prévu.
(...)
la tendance actuelle est plutôt à la désinhibition sur le recours à des armes qui étaient considérées comme taboues : les armes à sous-munitions, le phosphore blanc, les mines antipersonnel…
(...)
L’IA risque-t-elle de démocratiser l’usage offensif hors des armées par des acteurs non étatiques, terroristes, etc. ?
Oui, complètement. (...) Cela pose la question des questions de prolifération et de vérification. On ne peut pas compter le nombre d’algorithmes… Et quand un drone fait une frappe, c’est pratiquement impossible de dire s’il était piloté par une IA.
(...)
aujourd’hui, l’IA permet de faire des choses que l’on n’aurait pas du tout soupçonnées il y a quatre ou cinq ans. Dans l’utilisation en Ukraine ou à Gaza, les militaires sont plutôt bluffés que déçus.
(...)
A l’heure où les Etats effectuent des coupes budgétaires, la course à l’IA n’est-elle pas nourrie par la promesse d’une militarisation low cost ?
Si. Cela s’ajoute à la réduction du format des armées et au besoin d’honorer des engagements extérieurs, malgré tout. Toutes ces tendances se combinent et rendent l’autonomisation et l’IA toujours plus attractives.
Forum de l’article