Des implants cérébraux qui peuvent aider les patients SLA

Des implants cérébraux qui peuvent aider les patients SLA

2023-08-26 07:52:54

AGI – Des implants micro-cérébraux testés avec succès, capables de déchiffrer les paroles de personnes ayant des troubles de la parole sur un écran d’ordinateur. C’est ce qui est décrit dans un article qui vient de paraître dans Nature par des chercheurs de l’université de Stanford. Dans le prestigieux magazine, l’histoire de Pat Bennett, patiente volontaire, est racontée il a accepté qu’un ensemble de capteurs de la taille d’une aspirine soit implanté dans son cerveaupour résoudre un problème qui la frustre depuis des années : la perte de la capacité de parler de manière intelligible.

L’histoire de Pat Bennett

Les appareils transmettent des signaux de certaines régions du cerveau liées au langage à un logiciel de pointe qui décode l’activité cérébrale de Bennett et la convertit en texte affiché sur un écran d’ordinateur. Bennett, aujourd’hui âgée de 68 ans, est une ancienne directrice des ressources humaines et une ancienne sportive qui faisait du jogging quotidiennement.

En 2012, on lui a diagnostiqué une maladie neurodégénérative progressive appelée sclérose latérale amyotrophique (SLA), qui affecte les neurones responsables du mouvement, provoquant une faiblesse physique et une paralysie. »

Quand vous pensez à la SLA, vous pensez à l’impact sur vos bras et vos jambes”, a écrit Bennett dans une interview par courrier électronique. “Mais dans un groupe de patients SLA, cela commence par des troubles de l’élocution. Je ne peux pas parler”

Habituellement, la SLA se manifeste d’abord à la périphérie du corps, c’est-à-dire les bras et les jambes, les mains et les doigts. Dans le cas de Bennett, la détérioration n’a pas commencé dans la moelle épinière, comme c’est typique, mais dans le tronc cérébral. Il peut toujours se déplacer, s’habiller et utiliser ses doigts pour taper, bien qu’avec des difficultés croissantes. Mais il ne peut plus utiliser les muscles des lèvres, de la langue, du larynx et des mâchoires pour prononcer clairement les phonèmes, c’est-à-dire les unités sonores comme le « sh », qui sont les éléments de base du langage.

Une solution possible

Même si le cerveau de Bennett peut encore formuler des instructions pour générer ces phonèmes, ses muscles ne peuvent pas exécuter de commandes. Le 29 mars 2022, un neurochirurgien de Stanford Medicine a inséré deux minuscules capteurs dans deux régions distinctes, toutes deux impliquées dans la production de la parole, à la surface du cerveau de Bennett.

Les capteurs sont des composants d’une interface intracorticale cerveau-ordinateur, ou iBCI. En combinaison avec un logiciel de décodage de pointe, ils sont conçus pour traduire l’activité cérébrale liée aux tentatives de parole en mots affichés sur un écran. Environ un mois après l’opération, une équipe de scientifiques de Stanford a commencé des séances de recherche bihebdomadaires pour entraîner le logiciel qui interprétait son discours.

Après quatre mois, les tentatives de Bennett étaient converties en mots sur un écran d’ordinateur à une vitesse de 62 mots par minute, soit plus de trois fois plus rapide que le précédent record de communication assistée par BCI.

Scénarios futurs

“Ces premiers résultats ont prouvé le concept, et éventuellement la technologie évoluera pour la rendre facilement accessible aux personnes qui ne savent pas parler”, a écrit Bennett. “Pour ceux qui ne parlent pas, cela signifie être capable de rester connecté au monde dans son ensemble, peut-être de continuer à travailler, d’entretenir des relations avec ses amis et sa famille.”

Le rythme de Bennett commence à atteindre le rythme d’environ 160 mots par minute, typique des conversations naturelles entre anglophones, a déclaré Jaimie Henderson, le chirurgien qui a pratiqué l’opération. “Nous avons montré qu’il est possible de décoder le langage intentionnel enregistrer l’activité d’une petite zone à la surface du cerveau” Henderson a déclaré. Henderson, professeur de neurochirurgie au département de neurochirurgie John et Jean Blume-Robert et Ruth Halperin, est l’un des co-auteurs principaux de l’article.

L’autre co-auteur principal, Krishna Shenoy, professeur de génie électrique et de bio-ingénierie, est décédé avant la publication de l’étude. Frank Willett, scientifique au laboratoire de neuroprothèses translationnelles affilié au Howard Hughes Medical Institute, fondé par Henderson et Shenoy en 2009, partage la paternité principale avec les étudiants Erin Kunz et Chaofei Fan.

Comment est née la collaboration avec Bennett

En 2021, Henderson, Shenoy et Willett ont co-écrit une autre étude, également publiée dans Nature, décrivant leur succès dans la conversion de l’écriture imaginaire d’une personne paralysée en texte sur un écran à l’aide d’un iBCI, atteignant une vitesse de 90 caractères, ou 18 mots, par minute – un record mondial jusqu’à présent pour une méthodologie liée à un iBCI.

En 2021, Bennett a pris connaissance des travaux de Henderson et Shenoy. Elle a contacté Henderson et s’est portée volontaire pour participer à l’essai clinique. Les capteurs implantés par Henderson dans le cortex cérébral de Bennett, la couche la plus externe du cerveau, sont des réseaux carrés de minuscules électrodes de silicium.

Chaque réseau contient 64 électrodes, disposées en grilles de 88 et séparées les unes des autres par une distance environ la moitié de l’épaisseur d’une carte de crédit. Les électrodes pénètrent dans le cortex cérébral jusqu’à une profondeur égale à environ deux quarts empilés. Les matrices implantées sont fixées à de fins fils d’or qui sortent par des socles vissés au crâne, qui sont ensuite reliés par câble à un ordinateur.

Un algorithme d’intelligence artificielle reçoit et décode les informations électroniques du cerveau de Bennett, apprenant finalement à distinguer les activités cérébrales distinctes associées à ses tentatives de formuler chacun des 39 phonèmes qui composent l’anglais parlé. Il fournit ses meilleures suppositions sur la séquence de phonèmes que Bennett a tentée dans un soi-disant modèle de langage, essentiellement un système de correction automatique sophistiqué, qui convertit les flux de phonèmes en séquence de mots qu’ils représentent.

Comment fonctionne l’algorithme

“Ce système est formé pour savoir quels mots doivent venir en premier et quels phonèmes composent quels mots”, a expliqué Willett. “Si certains phonèmes ont été mal interprétés, une bonne hypothèse peut encore être faite.”

Pour apprendre à l’algorithme à reconnaître quels schémas d’activité cérébrale étaient associés à quels phonèmes, Bennett s’est engagée dans environ 25 séances de formation, chacune d’une durée d’environ quatre heures, au cours desquelles elle a tenté de répéter des phrases choisies au hasard parmi un vaste ensemble de données composé d’échantillons de conversations entre les gens parlent au téléphone.

Alors qu’il tentait de réciter chaque phrase, l’activité cérébrale de Bennett, traduite par le décodeur en un flux de phonèmes puis assemblée en mots par le système de correction automatique, était affichée sur l’écran sous l’original. Ensuite, une nouvelle phrase apparaîtra à l’écran. Bennett a répété 260 à 480 phrases par séance d’entraînement.

L’ensemble du système a continué à s’améliorer à mesure qu’il se familiarisait avec l’activité cérébrale de Bennett lors de ses tentatives de parler. La capacité de traduction vocale de l’iCBI a été testée sur des phrases autres que celles utilisées lors des sessions de formation. Lorsque les phrases et le modèle de langage d’assemblage de mots étaient limités à un vocabulaire de 50 mots (auquel cas les phrases utilisées étaient tirées d’une liste spéciale), le taux d’erreur du système de traduction était de 9,1 %.

Lorsque le vocabulaire a été étendu à 125 000 mots (assez grand pour épeler presque tout ce que l’on voudrait dire), le taux d’erreur est passé à 23,8 % : loin d’être parfait, mais un pas de géant par rapport à l’état de l’art précédent.

“Il s’agit d’une preuve de concept scientifique, pas d’un véritable appareil que les gens peuvent utiliser dans la vie quotidienne”, a déclaré Willett. “Mais c’est un grand pas vers la restauration d’une communication rapide pour les personnes paralysées qui ne peuvent pas parler.”

“Imaginez”, a écrit Bennett, “à quel point ce sera différent de mener des activités quotidiennes comme faire les courses, se présenter à des rendez-vous, commander de la nourriture, aller à la banque, parler au téléphone, exprimer son amour ou sa gratitude – et même se disputer – quand cela n’est pas verbal”. les gens peuvent communiquer leurs pensées en temps réel. L’appareil décrit dans cette étude est autorisé uniquement pour la recherche scientifique et n’est pas disponible dans le commerce.



#Des #implants #cérébraux #qui #peuvent #aider #les #patients #SLA
1693097171

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.