Implants neuronaux : de l’homme réparé à l’homme augmenté ?

Depuis quelques années, sont développées des interfaces capables de « lire » la volonté de mouvement, et de la retraduire.                Illustration - Elodie Mezière et Britt van Niekerk / Photos - Adobe Stock            

                                      (Le Figaro 11/1/26)                                           

                                                                                                                                          

                                     À ce jour, moins d’une centaine de personnes dans le monde bénéficient d’une « interface cerveau machine ». Cela pourrait-il néanmoins devenir une routine neurochirurgicale ? 

 En janvier 2024, Elon Musk annonçait qu’un premier patient avait reçu l’implant cérébral développé par sa société fondée huit ans plus tôt, Neuralink. Malgré une technologie avancée, rien de bien impressionnant encore. Fin mars, le patient, un homme de 29 ans devenu tétraplégique après un accident, pouvait seulement déplacer un curseur sur un écran d’ordinateur. D’autres équipes de recherche, elles, ont déjà réussi à faire remarcher des patients ou à leur rendre la parole ! Mais pour le champion américain du transhumanisme, c’était un premier pas vers l’« homme augmenté » qu’il appelle de ses vœux. « Avec le temps, je pense que nous assisterons probablement à une fusion plus étroite entre l’intelligence biologique et l’intelligence numérique », lançait-il par exemple à Dubaï en 2020. Fin décembre, il annonçait sur X la « production à grande échelle » de son dispositif, déjà implanté sur 12 patients, selon Neuralink.                                                                    

 Pourtant, si la longue marche des implants neuronaux est bel et bien lancée, l’homme augmenté devra attendre : les interfaces cerveau-machine ont beau avoir fait d’immenses progrès depuis une dizaine d’années, elles restent encore cantonnées aux laboratoires de recherche et ne sont implantées que dans le cadre d’essais cliniques. Il faut dire qu’elles sont encore loin de réaliser les prouesses auxquelles parvient chaque jour le cerveau dont mère nature nous a dotés...

                                                                                                                                                    Parmi les écueils à franchir, l’un est de taille : il faudrait pouvoir assurer le retour de toutes les informations que nous apportent le toucher et le sens de « proprioception » (capacité que nous avons de toujours savoir où notre corps se situe dans l’espace). Les patients souffrant d’une lésion de la moelle épinière n’ont plus ni retour sensoriel ni proprioception, et la science peine encore à leur rendre. Or « ces deux sens sont essentiels, explique Luc Estebanez, chargé de recherche à l’Institut NeuroPSI (Saclay), membre de l’équipe Touch&Move. On ne pense pas consciemment au retour sensoriel, mais c’est central. Quand on marche ou que l’on saisit un objet, même si l’on ne regarde pas ce que l’on fait, des informations proprioceptives et de toucher nous reviennent sans cesse sur la posture, la vitesse, les forces exercées, les matériaux touchés... Tout cela nous donne une vraie estimation de la façon dont le monde réagit aux forces que nous appliquons dessus. »                                                                 

Le problème de la sensation

La proprioception nous permet d’attraper un objet sans le regarder, d’amener notre fourchette à notre bouche, ou de poser le pied au bon endroit d’une marche d’escalier. Si elle pouvait être rendue aux patients tétraplégiques, elle leur permettrait de guider le contrôle moteur d’une prothèse sans avoir besoin de garder en permanence l’œil dessus. « On sait qu’avec un retour sensitif, l’apprentissage de l’utilisation d’une interface cerveau-machine est meilleur. Deux enjeux des futurs systèmes seront donc, d’une part de capter la sensation (par exemple, la pression), d’autre part de renvoyer l’information au cerveau », estime Guillaume Charvet, responsable de l’unité de recherche biomédicale en neurotechnologie au Centre Clinatec (CEA, Grenoble). « On pense aussi que cela aurait un effet sur l’appropriation, le sentiment d’appartenance de la prothèse au corps du patient, et permettrait de réduire les douleurs fantômes, ressenties par les patients dans le membre qu’ils ont perdu », ajoute Luc Estebanez. Le cerveau garde cependant ses mystères : certains des patients tétraplégiques opérés par l’équipe de Grégoire Courtine, neuroscientifique à l’Ecole polytechnique de Lausanne (EPFL), et Jocelyn Bloch, neurochirurgienne au CHU de Lausanne, affirment avoir récupéré quelques sensations lorsqu’ils utilisent l’interface pour marcher, alors que celle-ci ne leur renvoie pourtant aucune information.                                                                

        Une belle démonstration en laboratoire, c’est très différent d’un usage à la maison, au quotidien            Guillaume Charvet, responsable de l’unité de recherche biomédicale en neurotechnologie au Centre Clinatec (CEA, Grenoble)    

 « Pour le toucher, on a une idée de ce qu’il faut faire, estime Luc Estebanez. À la surface du cortex, la représentation topographique est cohérente et connue depuis longtemps, c’est l’homonculus de Penfield. Si l’on stimule électriquement cette zone cérébrale, qui est proche du cortex moteur, les gens disent percevoir une stimulation tactile sur la région du corps correspondante. Mais cela reste très basique, et encore difficile à mettre en œuvre chez l’homme. »

 Quant à la proprioception, des recherches sont en cours chez la souris. « Nous avons mis en point une interface bidirectionnelle, capable de lire l’activité neuronale du cortex moteur pour piloter une prothèse développée spécifiquement pour les membres supérieurs de la souris, mais aussi de stimuler le cortex sensoriel pour lui fournir des informations d’ordre proprioceptif, indique Luc Estebanez. Nous sommes en train de tester ces deux éléments ensemble, et s’il est trop tôt pour avoir des résultats, il paraît improbable que cela n’apporte pas quelque chose. En revanche, il reste à trouver un code vraiment très efficace pour fournir les informations proprioceptives dans toute leur complexité. » 

Le concept serait en théorie transposable à l’homme, car « le cortex somatosensoriel est une zone fondamentale présente chez tous les mammifères, et située juste à côté du cortex moteur ». Mais il ne s’agit encore que de spéculation et la technique utilisée chez la souris (de l’optogénétique, qui implique de manipuler génétiquement l’animal pour que ses neurones réagissent à la lumière) ne sera pas utilisable : « Il faudra vraisemblablement passer par des stimulations électriques, qui ne sont pas très précises spatialement. »                                                                

La question de l’utilisation à domicile

 Par ailleurs, si la plupart des études menées ont montré la capacité des dispositifs à décoder efficacement les signaux neuronaux et à effectuer la tâche demandée, aucun n’a encore passé le filtre des autorisations réglementaires : ils ne sont posés que dans le cadre d’essais cliniques, menés sur un nombre de patients très réduit (71 des 112 études analysées n’ont concernés qu’un unique patient). « Une belle démonstration en laboratoire, c’est très différent d’un usage à la maison, au quotidien », souligne Guillaume Charvet. La plupart ne sont d’ailleurs pas mûrs pour être utilisés hors du laboratoire de recherche. « Nous sommes les seuls à avoir mis au point un dispositif que les patients peuvent utiliser chez eux. Le premier patient à l’avoir fait a été implanté en 2022, et nos deux dernières patientes, atteintes d’une lésion complète de la moelle épinière, nous ont envoyé des photos d’elles, debout, en famille ! », s’émerveille Grégoire Courtine.

Les défis technologiques restent nombreux. « Il faut des systèmes totalement implantés et qui résistent au temps, indique Grégoire Courtine. Normalement, pour que les autorités sanitaires autorisent la mise sur le marché d’un système médical, il doit fonctionner pendant au moins dix ans. Notre premier patient implanté en est à sept ans d’utilisation. » Il faudra aussi mettre au point des dispositifs plus puissants pour des décodages de plus en plus complexes, peu gourmands en énergie, miniaturisés, et des logiciels suffisamment fiables et robustes. « Comme dans tout processus d’apprentissage, l’utilisation d’une interface cerveau-machine entraîne un processus de neuroplasticité, précise Guillaume Charvet. Il faut donc que les modèles de décodage BCI puissent s’adapter dans le temps, sans demander l’intervention trop régulière d’ingénieurs pour les mettre à jour. »                                                                

        Nous venons de recevoir une habilitation pour implanter des gens 4 semaines après leur lésion de la moelle, et si l’on en croit les données recueillies sur des rongeurs, le résultat (...) devrait être bien meilleur que lorsque la lésion est ancienne            Grégoire Courtine, neuroscientifique à l’Ecole polytechnique de Lausanne (EPFL).    

 En outre, l’utilisation de l’interface demande un long apprentissage. « L’implant en lui-même est le même pour tous les patients, explique Guillaume Charvet. Mais chacun a une activité cérébrale qui lui est propre, il faut donc des algorithmes capables de créer des modèles spécifiques pour chaque patient. »                                                                « La calibration en elle-même ne prend pas forcément du temps, nuance Grégoire Courtine. Grâce aux énormes bases de données que nous avons accumulées, nous avons nourri un modèle d’intelligence artificielle que nous avons nommé “BrainGPT” : il comprend la grammaire neuronale comme les grands modèles de langage comprennent la grammaire humaine, et de même que ChatGPT parvient à vous répondre même si vous avez fait de nombreuses fautes en tapant votre question, notre système arrive à décoder des signaux même de mauvaise qualité. Avec l’implant Wimagine, en 2 minutes on arrive à décoder les intentions de mouvements du patient, et en une journée il peut tendre ou fléchir la jambe. » Mais pour parvenir à marcher, il faut plusieurs semaines, voir mois de réhabilitation, ne serait-ce que pour rééduquer les muscles qui n’ont pas fonctionné pendant longtemps. « Nous venons de recevoir une habilitation pour implanter des gens 4 semaines après leur lésion de la moelle, et si l’on en croit les données recueillies sur des rongeurs, le résultat sur la repousse des nerfs et la récupération neurologique devrait être bien meilleur que lorsque la lésion est ancienne », espère Grégoire Courtine.

Les prouesses des interfaces cerveau-machine sont à chaque fois saluées, tant parce qu’elles impressionnent, que parce qu’elles nous racontent de jolies histoires de patients très gravement handicapés, et qui récupèrent des fonctions que l’on pensait perdues à jamais. Mais on est encore loin d’une routine de neurochirurgiens... « Clairement, la technologie n’est pas du tout mature pour le rêve transhumaniste d’Elon Musk, juge Grégoire Courtine. Mais c’est le genre de prédiction que je n’aime pas faire... La chirurgie plastique est née pour réparer les “gueules cassées”, puis a permis l’essor de la chirurgie esthétique. Aujourd’hui, avec les implants neuronaux on répare l’homme abîmé. Mais si ces technologies deviennent très robustes et sûres, il pourrait être difficile de ne pas aboutir un jour à une sorte de neurochirurgie cosmétique, par exemple pour augmenter notre mémoire ou ouvrir un nouveau canal de communication digital avec le monde qui nous entoure. Une sorte de sixième sens... »