Peut-on encore encadrer l’intelligence artificielle ? L’Europe y croit et s’y colle avant tout le monde

Imprimer

➡ Le monde a-t-il basculé dans une nouvelle ère en novembre 2022, lors du lancement de ChatGPT ?
➡ Aujourd'hui, tout le monde parle de cet agent conversationnel, d’autant qu’il n’est pas le seul dans la course.
➡ ChatGPT, Bard, Midjourney, etc. savent tout faire ou presque : production de textes, d’images, de vidéos, de musiques, de voix… Il s’agit d’intelligences artificielles (IA) dites génératives.
➡ États-Unis, Royaume-Uni, Chine, mais aussi l’Union européenne (UE) tentent d’encadrer cette technologie. Cette volonté n’est pas neuve : l’UE travaille depuis un moment à une régulation appelée l’AI Act.
➡ Les eurodéputés ont approuvé ce mercredi un projet européen de régulation de l'IA, ce qui ouvre la voie à une négociation avec les Etats membres pour finaliser ce texte qui doit limiter les risques des systèmes comme ChatGPT.
➡ Antoinette Rouvroy, Chercheuse qualifiée FNRS, UNamur, CRIDS, n’a aucune hésitation. "Il y a sur le plan réglementaire un véritable exceptionnalisme numérique difficilement justifiable."
➡ La chercheuse constate que l’on tolère le déploiement d’intelligences artificielles génératives qui sont "des produits éventuellement dangereux, dont on n’a pas encore fait le tour de tous les dangers, l’inventaire est en cours. Et cela sans aucune réglementation, sans que ces produits ne passent aucun test d’innocuité, de robustesse, etc."
➡ Elle ajoute qu’on ne tolère pas cela dans d’autres secteurs industriels tels que les médicaments, l’agroalimentaire, le nucléaire, etc. Bref, pratiquement tous les secteurs. Et de rappeler qu’avant de déployer de nouveaux produits, ceux-ci doivent recevoir une série d’agréments, passer des tests et recevoir des autorisations.

En savoir plus...