CREC 5/7 - Conscience artificielle et monde militaire

L’objet de cet article est de réfléchir au concept de conscience artificielle, et de voir si celui-ci pourrait être appliqué à des systèmes militaires, afin de rendre conscientes des machines autonomes déployées sur le champ de bataille.

Artificial intelligence © DR

Visualiser et télécharger le document

Ce document ne constitue pas une position officielle de l’armée de Terre.

Conscience artificielle et monde militaire

De nombreux chercheurs sont persuadés qu’un état mental conscient est la résultante de phénomènes biologiques localisés dans le cerveau, et que donc la modélisation de ces phénomènes et leur implémentation au travers d’algorithmes virtuels ou embarqués permettra de créer une conscience artificielle. La question fait débat.

Intelligence n’est pas conscience. En préambule, il convient avant tout de distinguer intelligence de la machine et conscience de soi par une machine. Actuellement, il est déjà notable qu’une machine peut donner une impression d’intelligence dans son comportement ou son raisonnement. C’est dès à présent le cas avec l’intelligence artificielle faible qui surpasse déjà l’Homme dans certaines tâches telles que le programme Deep Blue d’IBM qui bat Gary Kasparov aux échecs en 1997, le jeu de Go avec le programme AlphaGo de Google DeepMind qui devint champion du monde en 2016, et simulateur de vol de combat Alpha de l’université de Cincinnati qui bat le colonel américain Gene Lee en simulation de combat aérien. D’autres machines peuvent générer des compositions artistiques qui pour certaines s’avèrent pertinentes comme le tableau numérique « The Next Rembrandt », qui a été dévoilé le 5 avril 2016, à la galerie Looiersgracht 60 d’Amsterdam.
Mais excellentes sur l’exécution d’une fonction donnée, ces machines programmées pour exécuter certaines fonctions sont essentiellement esclaves de leurs composants et des contraintes de programmation et ne peuvent faire preuve de créativité hors des bornes qu’on leur a données.

Elles apparaissent en tout cas ne pas avoir conscience d’elles-mêmes au sens où nous l’entendons humainement et le sens de leur création ou de leur action leur échappe. Elles ne peuvent comprendre les principes qui les structurent et qui ont été élaborés par l’Homme. Tout au plus pourront-elles donner l’impression de simuler un comportement qui s’apparente à celui que pourrait avoir un humain, en se fondant sur des langages formels qui décrivent une représentation mathématique de la réalité, langages spécifiés par l’homme et par conséquent restreints aux choix des spécifications retenues.

Les différents types de conscience. Selon Stanislas Dehaene, le mot « conscience » est polysémique, mais la plupart des chercheurs conviennent de distinguer, au minimum, l’état de conscience et le contenu de la conscience.

Selon lui, « le premier usage, intransitif, du mot « conscience » renvoie aux variations graduelles de l’état de vigilance : veille, sommeil, anesthésie, coma, état végétatif... Le second usage, intransitif, fait référence à la prise de conscience d’une information particulière. On parle alors de « conscience d’accès », ou d’accès d’une information à la conscience ».

Traduit dans le monde des machines, un parallèle pourrait être fait entre état de vigilance et un mode actif de la machine permettant de traiter physiquement une information. Tout simplement un mode où les capteurs sont alimentés et actifs et où le processeur traite les informations reçues. C’est le bouton « ON » activé de la machine qui la rend vigilante.

Suit dans le processus décrit par le professeur Dehaene, l’accès de l’information à la conscience, ce qui pour la machine se traduirait par une prise de conscience qu’elle traite de l’information. Pour cette étape, les limites d’une caractérisation anthropomorphique de cet état à une machine sont dès cette étape criantes, car tout au plus une machine sera capable de classer, stocker et mettre en corrélation des informations, mais on ne pourra jamais parler de conscience propre ou d’état mental conscient dans la mesure où un jugement moral fait appel à des interprétations que l’on ne peut mettre en équation, car elles deviendraient alors des règles de droit figées (ce que n’est pas la morale). Selon le professeur Dominique Lambert, « l’usage d’un vocabulaire anthropomorphique à propos d’une machine et donc la confusion intentionnelle entre l’être humain et cette dernière pose une question éthique car cette identification n’est pas défendable. Ce n’est pas parce qu’un système imite, simule, représente une ou même toutes les fonctions de l’humain que l’on peut l’identifier purement et simplement à une personne humaine ».

Nous rajouterons ici un troisième état de conscience qui concerne la conscience de ses choix ou le jugement de l’action que la machine peut effectuer. Ce troisième état nous ramène, pour une machine militaire, à la possibilité de mesurer les conséquences éthiques ou morales de son action, et de vérifier le respect des règles ou des droits du monde militaire (les règles d’engagement, le Droit International Humanitaire), ce qui se heurte à la très difficile, voire impossible transcription de règles morales sous forme d’algorithmes, ou de possibilité de libre arbitre face à des choix complexes.

[…]

 

Auteur : Gérard de Boisboissel, directeur de l’observatoire « Enjeux, des nouvelles technologies pour les forces », ingénieur de recherche au CReC.

Intelligence artificielle © Domaine public (CC0)

Contenus associés