De l’autre côté du miroir : si l’on se fie aux nouvelles scientifiques de cette semaine, il ne faudra pas longtemps avant que Big Brother ne nous regarde dans la tête. Dans la foulée de scientifiques américains révélant un modèle GPT qui décode les pensées humaines en mots, des chercheurs suisses ont démontré un modèle d’apprentissage automatique qui traduit l’activité neuronale chez la souris en vidéo.
Des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL) ont développé un algorithme d’apprentissage automatique appelé CEBRA – prononcé zebra mais court pour Consistent EmBeddings of high-dimensional Recordings using Auxiliary variables. En termes simples, CEBRA est un modèle capable de décoder les images du cerveau d’une souris.
L’équipe a travaillé sur le projet pendant plus de dix ans avec des percées précoces dans le décodage de formes rudimentaires à partir de l’activité des ondes cérébrales chez les humains et les animaux. Désormais, grâce à l’apprentissage automatique avancé, des scientifiques de l’EPFL ont déchiffré des extraits de films entiers à partir des schémas de pensée de souris.
Dans ses expériences, l’équipe a utilisé des mesures de deux types de souris – celles avec des électrodes insérées dans leur cortex visuel et un ensemble de souris génétiquement modifiées dont les neurones brillent en vert lorsqu’ils sont actifs. Certaines souris ont vu un clip en noir et blanc d’un homme courant vers une voiture et récupérant quelque chose dans le coffre. Les données de ce sous-ensemble de souris ont été utilisées pour entraîner CEBRA à corréler l’activité cérébrale avec chaque image vidéo.
Un deuxième groupe a vu le même film pendant que CEBRA traitait l’activité cérébrale. Mis à part quelques saccades, probablement causés par les souris se déplaçant et ne prêtant pas toute leur attention, la vidéo décodée correspondait au clip réel.
Cela indique-t-il que nous nous rapprochons d’une technologie capable de projeter les souvenirs ou les rêves d’une personne sur un écran de cinéma ou un écran d’ordinateur ? Pas exactement. N’oubliez pas que CEBRA ne pouvait le faire que parce qu’il avait été formé à l’avance avec le clip vidéo. Bien qu’il ne soit pas difficile d’imaginer que le modèle avance suffisamment pour reconnaître les images sans le pré-entraînement spécifique vu ici, c’est loin d’être atteint pour l’instant.
Les scientifiques voient davantage leur percée comme un nouvel outil de recherche. Ils disent que CEBRA fournira des informations sur les fonctions neurologiques et sur la façon dont le cerveau interprète les stimuli. Ils croient que cela s’avérera utile pour aider à diagnostiquer et à traiter les troubles cérébraux comme la maladie d’Alzheimer ou le syndrome de Gilles de la Tourette.
Cela dit, d’autres recherches publiées cette semaine ont révélé que nous sommes plus proches de la lecture des pensées avec des machines que nous ne l’avons jamais été. Des scientifiques de l’Université du Texas à Austin ont développé un modèle GPT qui analyse l’activité cérébrale dans les IRMf et les décode en mots avec une précision assez étonnante. La technologie est loin d’être parfaite, mais c’est la première fois qu’une machine est capable de décoder les pensées en descriptions verbales complexes plutôt qu’en mots simples ou en phrases très courtes.
Vous pouvez consulter une version pré-imprimée de l’étude CEBRA sur arXiv de l’Université Cornell. Ils ont également publié les fichiers du logiciel sur GitHub pour que d’autres neuroscientifiques puissent les utiliser.
Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :