En la última década, se han producido un sin fin de avances en el diseño de interfaces cerebro-máquina, no obstante, la mayoría de estos necesitaban abrir el cráneo y colocar una serie de electrodos directamente en el cerebro. (Foto: Getty Images)
En la última década, se han producido un sin fin de avances en el diseño de interfaces cerebro-máquina, no obstante, la mayoría de estos necesitaban abrir el cráneo y colocar una serie de electrodos directamente en el cerebro. (Foto: Getty Images)

Durante un experimento realizado a tres personas -a quienes se les pidió sintonizar el mismo programa- se pudo obtener información con ayuda de lapara conocer lo que piensan los cerebros e interpretar los pensamientos en textos.

Según los sus resultados, publicados en la revista científica Nature Neuroscience, este descodificador que han llamado “semántico” fue capaz también de verbalizar lo que pensaban y, aún más, lo que les pasaba por la cabeza de los pacientes.

El objetivo de la decodificación del es hacer grabaciones de la actividad cerebral del usuario y con ellas predecir las palabras que estaba oyendo o imaginando, explicó en una rueda de prensa virtual el coordinador del estudio, Alexander Huth, de la Universidad de Texas en Austin ().

LEA TAMBIÉN: Cinco claves para crear un currículum con ChatGPT

Ante estas prácticas invasivas, se logró idear una nueva manera de poder lograr el objetivo con la técnica de imagen por resonancia magnética funcional.

¿Cómo se pueden leer los pensamientos con una máquina?

Esta interfaz logra, mediante un gorro lleno de electrodos que se colocan sobre la cabeza, detectar los cambios en el nivel de oxígeno que provocan los pensamientos en la sangre que circula por el cerebro.

Sin embargo, esta método planteaba problemas de resolución, dado el acceso desde fuera y los tiempos con un intervalo de 10 segundos para detectar las señales del cerebro.

Estos problemas fueron resueltos por un grupo de investigadores de la Universidad de Texas en , quienes a través del sistema de inteligencia artificial, , lograron entrenar el cerebro de las tres personas del experimento y hacer corresponder lo que veían con su representación a través de pensamientos del cerebro.

“Se trata del GPT original, no como el nuevo (ChatGPT se apoya en la última versión de GPT, la 4]). Recopilamos una tonelada de datos y luego construimos este modelo, que predice las respuestas cerebrales a las historias”, dijo en una conferencia Alexander Huth, neurocientífico de la Universidad de Texas.

LEA TAMBIÉN: GPT-4: Detalles y novedades de la nueva versión de inteligencia artificial de OpenAI

El nuevo dispositivo “no recupera las palabras exactas, eso es muy difícil usando este enfoque, pero se puede recuperar la idea general”, agregó otro de los firmantes, Jerry Tang, del mismo centro educativo.

Aproximadamente la mitad de las veces, cuando el descodificador ha sido entrenado para monitorizar la actividad cerebral de un participante, la máquina produce un texto que se acerca mucho, y a veces con precisión, al significado previsto de las palabras originales.

El equipo espera que, con el tiempo, esta tecnología pueda ayudar a volver a comunicarse a las personas mentalmente conscientes que han perdido la capacidad de hablar por un accidente cerebrovascular o por una enfermedad, dijo Huth.

Otros que han usado grabaciones no invasivas de la actividad cerebral se limitaban a decodificar palabras sueltas o frases cortas, pero este puede traducir el sentido del lenguaje continuo y natural.

El descodificador, que requiere horas de entrenamiento previo con el usuario, parte de las representaciones semánticas corticales (como se representan las palabras en el cerebro) registradas mediante IRMf y genera secuencias de palabras inteligibles que recuperan el sentido del habla percibida, imaginada o incluso de vídeos mudos.

La información señala que una vez entrenado el modelo, los lo probaron con media docena más de personas que tuvieron que oír textos diferentes a los usados en el entrenamiento del sistema. La máquina descodificó las imágenes fMRI con una gran aproximación a lo que contaban las historias.

¿Cuáles son los peligros de esta interface?

Ante el avance de esta tecnología, el neurobiólogo español de la Universidad de Columbia de (Estados Unidos) Rafael Yuste lleva tiempo alertando de los peligros que comportan los avances de su propia disciplina.

“Esta investigación, y el estudio de Facebook, demuestran la posibilidad de descodificar el habla usando neurotecnología no invasiva. Ya no es ciencia ficción”, opinó para El País mediante un correo.

Asimismo, agregó que estos métodos tendrán enormes aplicaciones científicas, clínicas y comerciales, pero, al mismo tiempo, presagian la posibilidad de descifrar los procesos mentales, ya que el habla interna se usa a menudo para pensar.

Debido a esto, aparece el argumento sobre la protección urgente de la privacidad mental como un derecho humano fundamental, dado que de replicarse estos experimentos en decenas o centenares de pacientes, el peligro puede ser real.

(Con información de EFE)

LEA TAMBIÉN: ¿Por qué líderes tecnológicos como Elon Musk piden que se pause el crecimiento de la IA?
¡Beneficios ilimitados con tu suscripción a Gestión! Disfruta de hasta 70% de dscto. en más de 300 promociones del Club de Suscriptores, que además podrás usar todas las veces que quieras. Conócelos aquí ¿Aun no eres suscriptor?, adquiere tu plan aquí



NOTICIAS SUGERIDAS

Contenido GEC