¡Usa ondas cerebrales para comunicarte! Los científicos usan la inteligencia artificial para convertir la actividad cerebral en texto, con una tasa de precisión del 97%
El desarrollo de asistentes inteligentes en empresas como Amazon y Google en los últimos años ha sido capaz de reconocer con precisión los comandos de voz de las personas. Pero otro hito aún más increíble puede estar a la vista, lo que reducirá el reconocimiento del habla: la inteligencia artificial (IA) puede convertir la actividad cerebral en palabras sin requerir que el usuario hable.
Un equipo dirigido por Edward Chang, neurocirujano de la Universidad de California en San Francisco (UCSF), utiliza un nuevo método para decodificar electroencefalogramas corticales, que son recibidos por electrodos implantados en el cerebro Registro de pulso eléctrico de la corteza cerebral.
El estudio reclutó a cuatro pacientes con epilepsia para participar en el experimento, estos pacientes han implantado electrodos en el cerebro para controlar el estado de las convulsiones. El método experimental es que los participantes lean en voz alta y repitan de 30 a 50 oraciones diferentes mientras registran su actividad cerebral, y luego ingresan los datos en la red neuronal de inteligencia artificial.
Esta red neuronal analizará los patrones de actividad cerebral correspondientes a ciertas características del habla, como vocales, consonantes o movimientos orales, en función de los archivos de sonido recopilados durante el experimento. Y use redes neuronales para recopilar actividad cortical de oraciones repetidas para analizar las características de rendimiento y luego intente predecir lo que se dice.
El resultado aún no es estable.
Los resultados experimentales muestran que la tasa de error es en promedio inferior al 3%, pero las oraciones utilizadas más allá del conjunto de entrenamiento producirán malos resultados. Sin embargo, bajo condiciones experimentales estrictamente definidas, este puede ser el experimento más cercano en la historia de la IA para leer la mente.
En el documento, el equipo detalló muchos ejemplos de las oraciones pronunciadas por los participantes, así como los resultados de predicción producidos por AI. Algunos errores obvios son muy diferentes de las voces escuchadas por el oído humano. Esto puede deberse a la cantidad limitada de datos introducidos en AI.
Prometedor
A pesar de los errores extraños y obvios, en general, este sistema de IA todavía puede convertirse en un nuevo punto de referencia para interpretar la actividad cerebral, equivalente a un sistema profesional de voz a texto con una tasa de error de una sola palabra del 5%. Por supuesto, un sistema de voz a texto que maneja conversaciones generales debe tener un vocabulario de miles de palabras. En contraste, el sistema solo aprende las características corticales de aproximadamente 250 palabras en oraciones cortas limitadas, por lo que no es justo comparar las dos.
El equipo de investigación cree que el sistema puede convertirse en una oportunidad para que las personas con discapacidades del lenguaje se comuniquen con el mundo exterior en el futuro. El autor explica: «La cantidad de datos disponibles para los sujetos que han sido implantados con electrodos durante mucho tiempo serán órdenes de magnitud mayores que el discurso utilizado en este estudio durante aproximadamente media hora, lo que significa que el vocabulario y la flexibilidad se ampliarán considerablemente Posibilidad «.
Materiales de referencia:
Makin, JG, Moses, DA y Chang, EF (2020). Traducción automática de la actividad cortical a texto con un marco codificador-decodificador. Nature Neuroscience, 23 (4), 575–582. Doi: 10.1038 / s41593-020- 0608-8
Dockrill, P. (2020, 1 de abril). El nuevo sistema de IA traduce las señales del cerebro humano en texto con una precisión de hasta el 97%. Recuperado el 8 de abril de 2020.