Journal De Bruxelles - Pour les militaires, Thales conçoit une IA pas comme les autres

Euronext
AEX -0.86% 901.33
BEL20 0.36% 4258.02
PX1 0.44% 7927.62
ISEQ 0.41% 10106.67
OSEBX -0.92% 1489.14 kr
PSI20 -0.25% 6503.73
ENTEC -0.41% 1416.23
BIOTK 0.83% 3118.97
N150 -0.15% 3369.78
Pour les militaires, Thales conçoit une IA pas comme les autres
Pour les militaires, Thales conçoit une IA pas comme les autres / Photo: Thomas SAMSON - AFP/Archives

Pour les militaires, Thales conçoit une IA pas comme les autres

Comment entraîne-t-on les algorithmes lorsque des vies humaines sont en jeu? Au sein de Thales, plus de 600 experts développent une intelligence artificielle pour les domaines de défense et de sécurité, avec des contraintes sans commune mesure avec l'IA grand public.

Taille du texte:

"Cet environnement critique nous amène des devoirs qui n'existent pas dans un environnement grand public. La contrainte est injectée dès la conception de l'algorithme d'IA qui ne peut pas fonctionner comme une boîte noire et où l'humain est absolument essentiel", explique à l'AFP Philippe Keryer, directeur stratégie, recherche et technologies de Thales, premier détenteur de brevets en IA des systèmes critiques en Europe.

Système de lutte anti-drones aériens éprouvé pendant les Jeux olympiques à Paris, capteurs intelligents pour détecter les mines sous-marines, pilotage d'essaims de drones, optimisation des trajectoires de vol ou prévention de la fraude d'identité: en amont du Sommet pour l’action sur l’IA, qui se tiendra à Paris les 10 et 11 février, Thales a ouvert cette semaine ses laboratoires de recherche à Palaiseau, en région parisienne.

L'impact de ces innovations est "énorme pour les enjeux de sécurité, de souveraineté et d'efficacité énergétique", souligne Patrice Caine, PDG de Thales, qui équipe 50 armées dans le monde et dont les systèmes gèrent 40% de l'espace aérien mondial.

- "Glaive et bouclier" -

"Nous avons la responsabilité de repenser en profondeur le fonctionnement de l'IA ainsi que des modèles d'apprentissage", relève Philippe Keryer.

Le nombre des données dans ces domaines sensibles étant limité, le groupe génère sur la base de son expertise des données synthétiques pour entraîner ses algorithmes.

Il emploie des "hackers éthiques" pour anticiper les menaces, inventer les attaques les plus sophistiquées et soumettre les logiciels à un "crash test de résilience" avant d'être validés.

Un principe "du glaive et du bouclier" déjà appliqué pour les systèmes d'armement (drones et systèmes anti-drones). "C'est en pensant au mal avec les attaques les plus perfides qu'on va créer le bien", affirme Philippe Keryer.

Autre défi: sur un champ de bataille, "on est contraint en taille, en poids, en puissance, mais aussi par le type de réseau auquel on est connecté", signale Fabien Flacher, responsable de la cybersécurité au sein de Thales.

Sur une frégate, dans un Rafale ou un tank, on ne dispose pas de "fermes de serveurs" comme Google, ajoute-t-il.

Et si les intelligences artificielles sont généralement entraînées sur des données "figées longtemps", cela ne peut pas marcher pour les conflits modernes.

"On réapprend instantanément à l'IA à être plus pertinente" après chaque mission, par exemple d'un avion de reconnaissance où elle est intégrée.

- L'humain l'emporte -

"On juge les IA plus sévèrement que les humains", estime Christophe Meyer, directeur technique de CortAIx Labs, chargé de l'IA pour Thales.

Mais la décision cruciale revient toujours à l'humain. "S'il y a des drones avec des capacités de tirer, il y aurait une décision humaine pour dire +Je valide cette suggestion que tu me fais, avec mes critères qui sont des critères humains+", note-t-il.

Les solutions proposées par ce type d'IA contiennent également une explication rationnelle.

Les calculs qu'elle fournit permettent à l'opérateur de soulager sa charge cognitive et parfois de rester moins de temps dans une zone où sa vie est en danger.

Ainsi, un radar intelligent "va reconnaître la dimension de centaines de cibles en quelques dizaines de secondes, là où il nous fallait des dizaines de minutes auparavant", précise Nicolas Léger, expert radars à Thales.

Pareil dans la lutte contre les mines: les antennes qui détectent les engins suspects sont de plus en plus performantes, mais produisent une quantité de données impossible à digérer pour un humain.

Les algorithmes aident à "accélérer la classification et évaluer la pertinence de produire des opérations d'identification et de neutralisation", explique Benoît Drier de Laforte, conseiller dans la lutte anti-mines. Cette technique permet d'avoir seulement "1% à 2%" de fausses alarmes, quand "les Américains se contentaient de 20% de marge d'erreur sur certaines opérations" de ce type, selon lui.

Pourtant les algorithmes ne sont pas encore prêts à remplacer "les grandes oreilles" humaines. "Si l'algorithme n'a pas été entraîné sur une menace nouvelle, il risque de manquer de performance", signale l'expert.

R.Michel--JdB