

La tech américaine et Trump alignés sur la dérégulation de l'IA, le reste du monde prend acte
Les géants américains de l'intelligence artificielle (IA), sollicités par le gouvernement Trump, l'encouragent à poursuivre la dérégulation de l'IA, donnant le la au monde entier dans un contexte ultra-concurrentiel.
Dès sa prise de fonctions, le nouveau président américain a annulé un décret pris par son prédécesseur qui imposait aux entreprises du secteur de communiquer leurs données lorsque leurs programmes présentaient des "risques sérieux".
Donald Trump a aussi enjoint toutes les agences publiques fédérales de ne plus suivre les recommandations de bonnes pratiques introduites par Joe Biden.
"Le président Trump a fait une priorité du positionnement des Etats-Unis aux avant-postes de l'IA", précise l'un des décrets pris fin janvier.
Ces textes ne font pas mention des risques associés à l'IA, relevés par de nombreux observateurs, telles les menaces que peuvent présenter les interfaces d'intelligence artificielle générative en cas de détournement ou de perte de contrôle.
"On ne gagnera pas dans l'IA de demain si on se fait des noeuds au cerveau avec la sécurité", a martelé le vice-président JD Vance lors du sommet de l'IA à Paris.
Ce revirement américain résonne bien au-delà des Etats-Unis.
"On va voir un ralentissement marqué des initiatives en matière de régulation, dans le monde entier", annonce David Danks, professeur d'analyse de données et de philosophie à l'université de Californie à San Diego.
"On le voit même en Europe", dit-il, où l'accent est davantage mis sur l'accompagnement de l'IA et les investissements que sur les contraintes imposées par l'Union européenne avec son règlement IA Act, en application depuis août.
La Commission européenne a décidé, en février, de reporter sine die les discussions sur une nouvelle directive qui instaurerait un régime de responsabilité pour les dommages éventuels causés par l'IA.
"On s'éloigne clairement de l'idée d'une approche cohérente et globale de la régulation de l'IA", abonde Karen Silverman, du cabinet de conseil Cantellus Group.
- "Course contre la Chine" -
Le gouvernement Trump a lancé un appel à contributions sur le sujet, dans lequel se sont engouffrés promptement les grands acteurs de l'IA, en premier lieu OpenAI.
Tout comme le chef de l'Etat, la start-up fait de l'IA un enjeu de souveraineté, pour "empêcher d'abandonner à la Chine notre position de leader".
La montée en puissance de la République populaire sur ce créneau a été illustrée par l'arrivée de la start-up chinoise DeepSeek, dont l'interface R1, lancée en janvier, a démontré des performances similaires aux grands modèles bien qu'ayant été conçu avec des moyens financiers et techniques nettement moindres.
Pour résister à la Chine, selon OpenAI, l'intelligence artificielle "made in America" devrait être "protégée des régimes autoritaires qui pourraient priver les gens de libertés et de couches de réglementation et de bureaucratie qui l'empêcheraient" de rendre l'IA la plus avancée disponible pour le plus grand nombre.
OpenAI affirme même qu'"avoir à se conformer à des législations excessivement lourdes des Etats" ferait aussi le jeu des Chinois.
Selon Karen Silverman, "au moins 30 Etats (américains) ont une forme de régulation" de l'IA en place.
OpenAI suggère aussi aux autorités américaines d'assouplir les règles d'utilisation de contenu soumis au droit de la propriété intellectuelle pour développer les modèles d'IA générative tels ChatGPT ou Gemini de Google.
"Sans accès raisonné" à ce matériau, "les Etats-Unis seront perdants, tout comme l'IA démocratique", selon la jeune entreprise, alors que de nombreux artistes ont saisi la justice pour faire valoir leurs droits face à l'utilisation indue de leur production.
Meta a aussi mis en avant "la course contre la Chine" et la nécessité de "s'assurer de la domination de l'IA américaine".
La plupart des grands noms de cette technologie émergente assurent avoir mis en place, en interne, de puissants garde-fous, à même d'éviter qu'un modèle ne dérape ou soit utilisé de façon nocive.
"Je n'ai jamais vu une société qui investisse autant dans la sécurité et l'intégrité (de ses produits) avant tout lancement", a martelé le responsable produit d'OpenAI Kevin Weil lors de la conférence sur l'IA HumanX.
Pour David Danks, les vedettes de l'IA redoutent "la mauvaise presse", "et si votre technologie entraîne des catastrophes, l'opinion publique va vous tomber dessus".
Pour autant, si l'auto-régulation peut produire des résultats, reconnaît l'universitaire, "elle n'inclut pas les retours extérieurs, qui sont vraiment très importants".
I.Servais--JdB