Científicos de la NASA están desarrollando un sistema de reconocimiento del lenguaje que es capaz de comprender y retransmitir palabras que no se han dicho en voz alta.
El sistema utiliza electrodos que se colocan sobre la garganta para detectar señales biológicas que ocurren mientras una persona lee o se habla a sí misma. Las señales luego se pueden convertir a texto o lenguaje sintetizado.
‘‘El reconocimiento de lenguaje subvocal es básicamente la comprensión de palabras sin necesidad de sonido’’, explicó Chuck Jorgensen, científico del Centro de Investigación Científica ‘Ames’ de la NASA en Moffett Field, California, y cuyo equipo está desarrollando el sistema.
‘‘Estamos observando cómo se envían los patrones neuromusculares a través del sistema nervioso e infiriendo, de esos patrones, las palabras que saldrían en voz alta si una persona realmente produjera los sonidos’’.
La tecnología podría ser utilizada un día para comunicarse en ambientes de mucho ruido o en llamadas celulares ‘‘silenciosas’’.
Aun cuando una persona lee o simula las palabras en silencio, las señales eléctricas se envían del cerebro a la lengua y a las cuerdas vocales. Se utiliza una tecnología en desarrollo para leer señales similares directamente del cerebro que le permiten a una persona con gorro especial operar, por ejemplo, una computadora con sus pensamientos.
Pero el equipo de la NASA se enfoca más bien en los músculos que reciben las señales del cerebro. El problema es análogo a tener a una persona sorda sentada frente a una orquesta y que trate de adivinar, con sólo ver a un flautista mover sus dedos, qué música está tocando.
De hecho, en nuestro caso, las posiciones del dedo son las señales que nos llegan de los músculos que controlan las articulaciones del lenguaje’’.
En experimentos preeliminares, los científicos utilizaron pequeños censores colocados bajo la barbilla y sobre la garganta para recibir señales nerviosas. Las señales se mandaron a un procesador y, posteriormente, a un software especial programado para reconocer palabras en inglés tales como ‘‘alto’’, ‘‘siga’’, ‘‘izquierda’’, ‘‘derecha’’, y los dígitos del ‘‘cero’’ al ‘‘nueve’’.
Los resultados iniciales de reconocimiento de palabras fueron 92 por ciento acertados. Pero, por el momento, el sistema sólo puede reconocer de 25 a 30 palabras. En el futuro, a los científicos les gustaría enfocarse en detectar fonemas, las unidades de sonido que forman las palabras.
Cuando se logra hacer eso, la cantidad de palabras [que el software pueda reconocer] se vuelve irrelevante.
Reducir el ruido de fondo de las llamadas por teléfono es apenas la punta del iceberg cuando se trata de aplicaciones para reconocimiento de lenguaje subvocal.
La tecnología puede ser utilizada por los astronautas, cuyas voces se distorsionan dentro de una nave espacial, o por buzos, quienes podrían hablar bajo el agua aún cuando usen una boquilla.
Tales aparatos también podrían permitirles a los bomberos, que trabajan en un ruidoso incendio, comunicarse con el capitán estacionado afuera. ‘‘El sistema es inmune al ruido de fondo.
Un equipo diferente de científicos de la Universidad Carnegie Mellon en Pittsburgh, Pennsylvania, está usando tecnología subvocal para desarrollar un traductor portátil. Su dispositivo utiliza electrodos pegados a los músculos en la cara y cuello para recoger patrones de voz y convertir las señales en texto. Ese texto luego se traduce a un idioma diferente y el aparato lo habla sintéticamente.
En el futuro, este aparato podría descifrar no sólo qué palabras dice la gente, sino también cómo las dice.
Muchas cosas pasan por el sistema nervioso aparte de una palabra en particular.
Se podría detectar si te acabas de tomar una taza de café o si te sientes contento o triste.
El sistema utiliza electrodos que se colocan sobre la garganta para detectar señales biológicas que ocurren mientras una persona lee o se habla a sí misma. Las señales luego se pueden convertir a texto o lenguaje sintetizado.
‘‘El reconocimiento de lenguaje subvocal es básicamente la comprensión de palabras sin necesidad de sonido’’, explicó Chuck Jorgensen, científico del Centro de Investigación Científica ‘Ames’ de la NASA en Moffett Field, California, y cuyo equipo está desarrollando el sistema.
‘‘Estamos observando cómo se envían los patrones neuromusculares a través del sistema nervioso e infiriendo, de esos patrones, las palabras que saldrían en voz alta si una persona realmente produjera los sonidos’’.
La tecnología podría ser utilizada un día para comunicarse en ambientes de mucho ruido o en llamadas celulares ‘‘silenciosas’’.
Aun cuando una persona lee o simula las palabras en silencio, las señales eléctricas se envían del cerebro a la lengua y a las cuerdas vocales. Se utiliza una tecnología en desarrollo para leer señales similares directamente del cerebro que le permiten a una persona con gorro especial operar, por ejemplo, una computadora con sus pensamientos.
Pero el equipo de la NASA se enfoca más bien en los músculos que reciben las señales del cerebro. El problema es análogo a tener a una persona sorda sentada frente a una orquesta y que trate de adivinar, con sólo ver a un flautista mover sus dedos, qué música está tocando.
De hecho, en nuestro caso, las posiciones del dedo son las señales que nos llegan de los músculos que controlan las articulaciones del lenguaje’’.
En experimentos preeliminares, los científicos utilizaron pequeños censores colocados bajo la barbilla y sobre la garganta para recibir señales nerviosas. Las señales se mandaron a un procesador y, posteriormente, a un software especial programado para reconocer palabras en inglés tales como ‘‘alto’’, ‘‘siga’’, ‘‘izquierda’’, ‘‘derecha’’, y los dígitos del ‘‘cero’’ al ‘‘nueve’’.
Los resultados iniciales de reconocimiento de palabras fueron 92 por ciento acertados. Pero, por el momento, el sistema sólo puede reconocer de 25 a 30 palabras. En el futuro, a los científicos les gustaría enfocarse en detectar fonemas, las unidades de sonido que forman las palabras.
Cuando se logra hacer eso, la cantidad de palabras [que el software pueda reconocer] se vuelve irrelevante.
Reducir el ruido de fondo de las llamadas por teléfono es apenas la punta del iceberg cuando se trata de aplicaciones para reconocimiento de lenguaje subvocal.
La tecnología puede ser utilizada por los astronautas, cuyas voces se distorsionan dentro de una nave espacial, o por buzos, quienes podrían hablar bajo el agua aún cuando usen una boquilla.
Tales aparatos también podrían permitirles a los bomberos, que trabajan en un ruidoso incendio, comunicarse con el capitán estacionado afuera. ‘‘El sistema es inmune al ruido de fondo.
Un equipo diferente de científicos de la Universidad Carnegie Mellon en Pittsburgh, Pennsylvania, está usando tecnología subvocal para desarrollar un traductor portátil. Su dispositivo utiliza electrodos pegados a los músculos en la cara y cuello para recoger patrones de voz y convertir las señales en texto. Ese texto luego se traduce a un idioma diferente y el aparato lo habla sintéticamente.
En el futuro, este aparato podría descifrar no sólo qué palabras dice la gente, sino también cómo las dice.
Muchas cosas pasan por el sistema nervioso aparte de una palabra en particular.
Se podría detectar si te acabas de tomar una taza de café o si te sientes contento o triste.
No hay comentarios:
Publicar un comentario