Buscar

2011/06/27

"Los teléfonos móviles van a reemplazar a nuestra memoria"

Tanja Schultz trabaja en el Instituto de Tecnología deKarlsruhe (Alemania), en el departamento de Antropomática, la ciencia que estudia la simbiosis entre los seres humanos y las máquinas. Una de sus investigaciones se centra en el "discurso silencioso". Dice que en cinco o diez años llegará al mercado un teléfono móvil que permitirá comunicarse en silencio, gracias a unos sensores que identifican las palabras por los impulsos de los músculos faciales. Schultz ofreció recientemente una conferencia en Bilbao, invitada por Zientzia Foroa.
Los sistemas de reconocimiento de voz aún cometen errores. ¿Qué falta para que sean fiables?


Funcionan bien en entornos controlados. Sin embargo, si hay ruido, cometen errores. El problema del cambio de una palabra por otra, como en lugar de playa (beach, en inglés) poner puta (bitch), es causado por la falta de contexto de la máquina. La mente, en cambio, sí lo tiene. Estamos trabajando en el desarrollo de modelos mentales para que la máquina tenga un contexto.
¿La tecnología del móvil que permitirá comunicarse en silencio puede ser una solución al ruido?
Sí. Estamos perfeccionando los sensores. Antes iban adheridos a la cara, pero ahora van ya integrados en el teléfono. Basta con pegar el teléfono a la cara para que capten los impulsos de los músculos faciales y, en silencio, reconozcan las palabras.

¿Cuándo puede llegar ese móvil al mercado?
Llegará al mercado en cinco o diez años.
¿De qué depende? 


En la parte técnica hay que incorporar innovaciones. Además, la gente quiere este sistema, pero sin pagar más. Sería necesario que interesase a compañías de telefonía móvil.
Los expertos creen que un error habitual al diseñar interfaces de voz es forzar a las personas a hablar como la máquina y no al revés.
Los seres humanos debemos adaptarnos a cómo hablan las máquinas y viceversa, pero mi idea es que el ordenador se adapte más a cómo hablamos las personas. Todos acabaremos hablando con ordenadores. Es importante que comprendan a las personas.
¿Hasta qué punto la gramática y la fonética de los idiomas frenan el desarrollo de los sistemas de procesamiento?
Depende. El inglés es sencillo a nivel gramatical, pero su fonética es más compleja. Todo lo contrario ocurre con el japonés. Y el chino es de los más difíciles, porque cuando la gente habla sigue una línea continua. No hay segmentación, por lo que hay que buscar las unidades de comunicación.
¿Y cómo se adapta el español a las máquinas?
Se han hecho investigaciones con el español castellano y el español suramericano y, como hay muchas diferencias, es un gran reto. Pero la gran ventaja del español es que su pronunciación se ajusta a su escritura y eso facilita su reconocimiento. También sé que se investigan el catalán y el euskera.
¿Logrará la tecnología lo que no pudo el esperanto?
La idea no es que esta tecnología sea para traducir, pero sí ayudará.
El PC lo cambió todo. ¿Cuándo llegará la revolución de la voz?
El cuándo va a depender de qué se haga. Toda esta tecnología se orientará a que las máquinas hagan lo que el ser humano no puede. Un ejemplo serían las prótesis totales, es decir, prótesis conectadas a las extremidades nerviosas. También habrá robots humanoides que hagan lo que las personas no pueden hacer.
Pero ¿cuándo?
En 20, 30, 50 años... Esto empezará con utensilios personales, como el móvil, que ofrecerá más servicios. Servirá como mando de la tele, para encender la luz... Los móviles van a ser más inteligentes y van a ir reemplazando a nuestra memoria. Por lo tanto, es importante que sepan cómo es nuestra mente.
¿No teme que haya una excesiva dependencia hacia esa tecnología?
Sí, pero lo mismo ocurrió con los coches. La verdad es que sí da algo de miedo.
¿Esto abrirá más la brecha entre los países desarrollados y los subdesarrollados?
Quizá ya ocurre ahora.

Publico

No hay comentarios: