Alors dans l’article précédent, nous avons évoqué la possibilité pour Intelligence artificielle de lire dans nos pensées. Ici, je vais tenter d’expliquer quels technologies IA utilise et comment cela est possible. Je tiens de préciser encore que je ne suis pas scientifique et comme beaucoup d’entre vous j’ai découvert très récemment les technologies basées sur Intelligence artificielle. Cependant, je suis très curieuse de savoir plus et comment IA pourra impacter notre monde, quelles directions cette technologie prendra et comment elle pourra améliorer ou dégrade notre vie. Bref, je suis absolument fascinée par ces capacités et je veux en savoir plus !
L’idée de lire dans les pensées semble être l’un des rêves fantastiques, parmi les plus fous et pourtant on est plus proche que jamais de le réaliser ! Ces recherches sont basées sur l’activité cérébrale et son décryptage et dirigées pour renforcer l’interaction entre le cerveau et l’ordinateur.
Technologies d’Intelligence artificielle pour lire dans nos pensées
Des études ont été menées à l’université d’Osaka, où les chercheurs japonais ont réussi à développer un réseau neuronal capable de reconstruire l’image qui avait été observé par un volontaire.
Pour cela, ils ont utilisé les données d’activité cérébrale captée par résonance magnétique fonctionnelle obtenue grâce à des appareils puissants avec une induction des champs magnétiques (IRM).
Lorsque nous observons une image donnée ou utilisons notre imagination, le flux de molécules d’oxygène, dont les neurones ont besoin pour fonctionner, active les différentes zones de notre cerveau. En enregistrant cette activité en corrélation simultanée avec les images présentées à des volontaires, les chercheurs ont réussi à créer une base de données suffisamment large qui a permis au logiciel de décrire le «perçu» en analysant «la pensée», donc les signaux cérébraux.
Ensuite, la même technique a été emploie pour les vidéos en couleur, permettant ensuite au logiciel de synthétiser des images, à partir de toutes les archives de mémoire, vue lors d’entraînement.
Pour aller plus loin et obtenir plus de précision dans les détails et les différents styles, dans les recherches suivantes ont été intégrés des outils basés sur des générateurs d’images à partir d’un texte sémantique, comme par exemple Stable Diffusion. L’idée était à établir des analogies et des corrélations entre signaux du cerveau humain et le fonctionnement de l’intelligence artificielle en utilisant un langage universel de mathématique.
«Pour générer une image, Stable Diffusion réalise une cascade d’opérations mathématiques pour traiter ces tableaux de nombres. Lorsqu’on enregistre l’activité cérébrale, les données générées sont également des tableaux de nombres…» explique Yu Takagi, un des chercheurs.
Pour parvenir à ce résultat, l’Intelligence artificielle lors de sa «formation» a appris à chercher des patterns entre l’activité cérébrale de plusieurs participantes qui regardaient différentes photos accompagnées d’une description textuelle. En utilisant ces bases de données, l’Intelligence artificielle a du établir des modèles mathématiques qui permettaient ensuite d’interpréter «des pensées» donc les signaux captés par IRM et de recréer des images précises avec l’aide de descriptions sémantiques de genre des «prompts».
Donc je vais tenter peut-être de simplifier des choses en disant que les bases de données étaient encodées de manière suivante :
Modèle mathématique de l’IA =Décrispation sémantique codée = Photo ou image = Signaux IRM captés
Voilà comment mon schéma simplifié a été interprété sur un langage humain par chat GPT, paradoxale n’est-ce pas ? :
En d’autres termes, les données ont été encodées de la manière suivante : le modèle mathématique de l’IA correspond à la description sémantique codée, qui correspond elle-même à la photo ou à l’image, qui correspond finalement aux signaux IRM captés.
En gros, en présentant ensuite uniquement les données IRM, l’Intelligence artificielle peut trouver le «prompt» correspondant et aider à «Stable Diffusion» à générer l’image imaginée par le volontaire.
Si corrélation entre des signaux cérébraux et photos tout au début des expériences permettaient de créer les images simples, la combinaison de l’information visuelle et sémantique (car la dernière active d’autres zonez cérébrales), permettait d’affiner ces images, en ajoutant plus de précision, plus de détails, en aidant même de récréer la couleur initiale d’image.
« Nous montrons que notre méthode basée sur l’activité du cerveau humain est capable de reconstruire des images avec une résolution suffisante et une grande précision sémantique », précisent les chercheurs.
Des recherches de Pays-Bas ont mené l’expérience suivante :
En montrant à des volontaires des photos de diverses personnes en scannant simultanément leur cerveau, le système a enregistré leur réaction neuronale « pixel par pixel » pour ensuite, la traduire en code informatique et rétablir sa base de données en créant une association avec des images. Lors de la deuxième étape du test, ils ont choisi des photos, jamais vues ni par les volontaires ni par l’IA. En reconstruisant les images à l’aide de l’IA, ils ont noté une ressemblance impressionnante !
En conclusion
Dans les plans de divers scientifiques est de poursuivre leurs recherches en tentant de décrypter et de récréer des expériences subjectives, des souvenirs, des rêves et même déchiffrer des émotions en utilisant des signaux d’activité cérébrale.
Telles innovations basées sur la communication entre le cerveau et l’ordinateur, ouvrent de nombreuses perspectives pour l’interaction d’homme-machine, permettent d’obtenir l’information significative sans être dépendant de la communication verbale et à aider ainsi à beaucoup de personnes ayant des capacités limitées à améliorer leur existence.
Voilà, c’est fini, si vous avez aimé cet article, n’hésitez pas de la partager avec vos amis
Je vous souhaite une excellente journée
à très bientôt