Page 67 - Demo
        P. 67
     
                                
                                    67%u2013 FNRS.NEWS 135-OCTOBRE 2025' L'HEURE DE L'I sciences cognitives. Les NBIC constituent donc un moyen pour l%u2019IA de s%u2019appliquer au domaine du vivant, par exemple de la g%u00e9n%u00e9tique, et aujourd%u2019hui %u00e0 notre cerveau. Le cerveau, c%u2019est l%u2019%u00e9picentre de votre personnalit%u00e9, de votre identit%u00e9, et c%u2019est ce qui vous permet de d%u00e9clencher l%u2019ensemble de vos mouvements. Or, les neurotechnologies sont capables dor%u00e9navant de collecter les donn%u00e9es de votre cerveau et, gr%u00e2ce %u00e0 l%u2019intelligence artificielle, de leur donner sens. Et ce qui est %u00e9videmment extr%u00eamement important, c%u2019est que la combinaison de ces deux technologies est aussi capable de modifier, %u00e9ventuellement d%u2019influencer, le fonctionnement de votre cerveau. Depuis quelque temps, il existe m%u00eame des implants corporels qui activent la m%u00e9moire, qui limitent votre stress. En d%u2019autres termes, on est d%u00e9sormais en mesure de non seulement d%u00e9coder la structure du cerveau, mais aussi de d%u00e9coder son fonctionnement, c%u2019est-%u00e0-dire la pens%u00e9e, et donc de la manipuler.Si je vous entends bien, les risques de ces nouvelles technologies, ce sont le profilage, la commercialisation de nos donn%u00e9es, le risque de discrimination sur base de la sant%u00e9 mentale, les discriminations collectives%u2026C%u2019est tout %u00e0 fait cela. Le profilage, qui risque de porter atteinte au principe d%u2019%u00e9galit%u00e9 ; la collecte de donn%u00e9es g%u00e9n%u00e9tiques, et avec elle la possibilit%u00e9 de pr%u00e9dire certains d%u00e9veloppements, ce qui entraine un risque de discrimination (vous savez par exemple que telle ou telle personne avec un bagage g%u00e9n%u00e9tique sp%u00e9cifique risque d%u2019%u00eatre atteinte de la maladie d%u2019Alzheimer, alors vous ne l%u2019engagez pas%u2026). Il y a aussi une menace sur notre libert%u00e9 de penser. Prot%u00e9ger la libert%u00e9 d%u2019expression n%u2019est d%u00e8s lors plus suffisant, il faut prot%u00e9ger cette libert%u00e9 de penser, puisqu%u2019on est d%u00e9sormais capable de d%u00e9coder le fonctionnement du cerveau, de manipuler, de pr%u00e9dire, et donc de comprendre, par exemple, qu%u2019une personne est en col%u00e8re, avant m%u00eame qu%u2019elle manifeste cette col%u00e8re.Quels sont les autres niveaux de risques ?Il y a des risques soci%u00e9taux, des risques pour le fonctionnement de 1 UNESCO, Recommandation sur l%u2019%u00e9thique de l%u2019IA, adopt%u00e9e par l%u2019AG de l%u2019UNESCO le 13 novembre 2021et la r%u00e9cente proposition de recommandation de l%u2019UNESCO sur l%u2019%u00e9thique de la neurotechnologie (DRAFT RECOMMENDATION ON THE ETHICS OF NEUROTECHNOLOGY) introduite le 11 juillet 2025. Voir d%u00e9j%u00e0 sur l%u2019%u00e9thique et les neurotechnologies, le Rapport pour le Comit%u00e9 international de bio%u00e9thique de l%u2019UNESCO, Aspects %u00e9thiques des neuro-technologies, rapport, d%u00e9cembre 2021, publi%u00e9 %u00e0 l%u2019adresse , https://doi.org/10.54678/QNKB6229.2 UNESCO, D%u00e9claration sur les responsabilit%u00e9s des g%u00e9n%u00e9rations pr%u00e9sentes envers les g%u00e9n%u00e9rations futures, D%u00e9claration dite de la Laguna, Paris 12 novembre 19973 R%u00c8GLEMENT (UE) 2024/1689 DU PARLEMENT EUROP%u00c9EN ET DU CONSEIL du 13 juin 2024 %u00e9tablissant des r%u00e8gles harmonis%u00e9es concernant l%u2019intelligence artificielle et modifiant les r%u00e8glements (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (en abr%u00e9g%u00e9, AI Act).la soci%u00e9t%u00e9 tout enti%u00e8re, li%u00e9s tant %u00e0 la d%u00e9mocratie - pensez %u00e0 la d%u00e9sinformation, notamment en p%u00e9riode %u00e9lectorale, et %u00e0 la polarisation croissante de nos soci%u00e9t%u00e9s en raison du fonctionnement m%u00eame des algorithmes de recommandation et au fonctionnement des Big tech - qu%u2019%u00e0 l%u2019%u00c9tat de droit, puisqu%u2019on d%u00e9l%u00e8gue %u00e0 des machines au fonctionnement opaque toute une s%u00e9rie de d%u00e9cisions potentielles.Et vous parlez d%u2019un troisi%u00e8me niveau de risque, notamment le risque accru d%u2019une soci%u00e9t%u00e9 %u00e0 deux vitessesDans la recommandation de l%u2019UNESCO sur l%u2019%u00e9thique de l%u2019IA et le projet de recommandation sur la bio%u00e9thique et les neurotechnologies1, c%u2019est affirm%u00e9 de mani%u00e8re assez nette. Il y a notamment la domination de la culture anglophone (les big data am%u00e9ricaines se nourrissent de sources am%u00e9ricaines) sur les autres cultures, y compris francophones. Pointons aussi l%u2019impact sur les g%u00e9n%u00e9rations futures2, avec des technologies %u00ab%u00a0d%u2019humain augment%u00e9%u00a0%u00bb qui, dans une %u00e9conomie de la sant%u00e9 de plus en plus privatis%u00e9e, seraient r%u00e9serv%u00e9es aux personnes nanties ; ou bien encore des manipulations g%u00e9n%u00e9tiques qui d%u00e9termineraient nos enfants. Pensons enfin aux menaces sur l%u2019identit%u00e9 humaine, en raison de la possibilit%u00e9 de manipulation g%u00e9n%u00e9tique et la normalisation croissante de nos comportements induite par les applications technologiques.Le projet de recommandation de l%u2019UNESCO que vous citez a %u00e9t%u00e9 diffus%u00e9 r%u00e9cemment. Pose-t-il les bases d%u2019un nouvel %u00ab%u00a0ordre juridique%u00a0%u00bb li%u00e9 aux neurotechnologies, %u00e0 l%u2019IA, et donc %u00e0 la dignit%u00e9 humaine ?En tout cas, ce projet affirme d%u00e9sormais clairement la responsabilit%u00e9 de l%u2019%u00c9tat par rapport aux nouvelles technologies. Ensuite, ce texte introduit la notion de %u00ab%u00a0neuro-droits%u00a0%u00bb. Nous sommes donc bien face %u00e0 des droits nouveaux, sur base du principe de dignit%u00e9. La recommandation insiste aussi sur le fait qu%u2019il faut d%u00e9sormais parler de droit %u00e0 l%u2019int%u00e9grit%u00e9 mentale, qui pr%u00e9suppose un consentement en cas d%u2019intervention sur le cerveau de la personne. Mais est-ce qu%u2019un consentement expr%u00e8s individuel est suffisant ? Je n%u2019en suis pas certain. Je crois qu%u2019il est extr%u00eamement important d%u2019avoir un consentement collectif quand on lance une nouvelle technologie, que l%u2019adoption de l%u2019innovation n%u00e9cessite une discussion multi stakeholders : c%u2019est un point tr%u00e8s pr%u00e9sent dans les recommandations de l%u2019UNESCO, mais pas dans les textes europ%u00e9ens, comme l%u2019AI Act3. Il faut un office of technology assessment, qui puisse v%u00e9ritablement %u00e9valuer les choix qui sont faits et les applications majeures de ces nouvelles technologies, de fa%u00e7on %u00e0 pouvoir alerter la population.Que peut apporter la recherche fondamentale %u00e0 cet %u00e9norme d%u00e9fi que vous abordez dans cet ouvrage ?La recommandation de l%u2019UNESCO insiste pr%u00e9cis%u00e9ment sur le principe d%u2019une recherche ind%u00e9pendante et multidisciplinaire. La recherche fondamentale est vraiment n%u00e9cessaire. Ainsi, simple exemple, il faut combiner recherche informatique, recherche %u00e9thique, recherche %u00e9conomique et recherche sociale, pour comprendre comment fonctionnent et nous impactent les algorithmes de recommandation mis en place par les plateformes qui g%u00e8rent nos r%u00e9seaux sociaux et nos moteurs de recherche.  St%u00e9phanie Tuetey
                                
     	
