Buscar

2011/08/22

Teléfonos inteligentes dan mayor independencia a los ciegos


Tomar una fotografía con un teléfono inteligente puede ofrecer más que una imagen bonita si uno es ciego. Con la aplicación correcta, puede ayudarte a incrementar tu independencia.
Saber qué alimento hay dentro de un paquete o los detalles de un sobre recién llegado a la puerta de la casa son cosas cotidianas que la gente da por sentadas.

Tradicionalmente, las personas ciegas debían preguntarle sobre estas cosas a amigos y familiares, o a un asistente personal pago.
Pero esto implicaba tener que encajar en la vida personal de otros y sus tiempos o gastar mucho dinero.
Ahora hay cada vez más alternativas.
A medida que los teléfonos inteligentes se vuelven más accesibles (algunos hasta tienen incorporado sistemas de lectura en voz alta y de Braille) se hace más fácil a las personas que no pueden ver, el recibir algo de asistencia visual cuando no hay nadie cerca a quién preguntar.
¿Quieres saber de qué color es tu camisa? Utiliza una aplicación detectora de color. ¿Quieres saber si todavía es de día afuera? Abre la aplicación detectora de luz. ¿Quieres leer una nota en la pizarra de información de tu oficina? Para eso, por supuesto, ejecuta la aplicación de reconocimiento de texto.

¿Qué hay en este tarro?

El más reciente programa de asistencia visual para celulares es VizWiz. Además de brindar reconocimiento automático de imágenes, envía tus preguntas a un pequeño grupo de voluntarios humanos conectados a internet; una "nube" humano, dispuesta a donar diez segundos de su tiempo aquí y allá para describir las fotos que les van llegando.
En su sitio web, VizWiz se describe como: "Toma una foto, formula una pregunta y recibe una respuesta".
La aplicación y el servicio, gratuitos fueron desarrollados pro la Universidad de Rochester, en Estados Unidos. Ha recibido entre diez y 12.000 preguntas en sus primeros dos meses de vida.
Los voluntarios reciben una alerta sonora cuando llega una pregunta, a través de Twitter, como mensaje de texto o vía web. Escriben una respuesta y esta le llega a quien envió la consulta.
"El tipo más popular de pregunta más popular suele ser sobre algún producto que tienen, con texto, con una etiqueta con instrucciones. La gente quiere saber lo que dice, cómo cocinar algo o cuándo vence", dijo Jeff Bigham, creador del servicio.

"Podemos identificar cada momento del día con claridad", explicó.
"En la mañana la gente pregunta acerca de la ropa, el color o el estampado. Algunos preguntan si su camiseta combina bien con los pantalones".
"A la una o dos de la tarde (hora de EE.UU.) empezamos a recibir consultas sobre vino, que creemos que vienen del Reino Unido, en las que preguntan sobre la etiqueta, el año, ese tipo de cosas".
Son este tipo de respuestas subjetivas las que un software no puede proveer, pero un servicio humano sí. Pero los humanos necesitan descansar. Bigham admite que aunque los científicos informáticos son conocidos por acostarse tarde, a veces les resulta difícil llenar el hueco de 6 a 7 de la mañana con voluntarios de la universidad.

Nube humana

"Este es un momento en que trabajar en tecnología de accesibilidad es muy interesante", dijo Bigham. "La gente que está en la web es un muy buen recurso; todos están conectados y podemos hacer muchas cosas muy interesantes con esto".
"La gente ha estado usando términos como 'nube humana' por un tiempo, y 'muchedumbre en la nube'".
"En el pasado, muchos trabajos en los que intervenían multitudes tomaban tiempo. Como Wikipedia, donde 'llevó tiempo' en que emergieran los artículos. Lo interesante de nuestro servicio es el elemento de tiempo real. Alguien necesita ayuda de la nube y, casi en tiempo real, la reciben".
Los usuarios saben que hay humanos del otro lado y esto ha generado algunas preguntas "locas" que jamás podrían haber sido respondidas por software automatizado.
"Una vez alguien empezó a tomar fotos del cielo y preguntar cada cinco minutos '¿qué es esto?', por un par de horas", contó Bigham.
"Yo no tenía idea de qué estaba pasando. Sucede que también monitoreamos, vagamente, Twitter. Más tarde alguien puso el siguiente mensaje allí: 'VizWiz me acaba de ayudar a ver el amanecer'".

Fotografía

En una vuelta de tuerca propia del siglo XXI, la gente ciega ahora se da cuenta de que tiene que aprender nociones básicas de fotografía para poder aprovechar el creciente número de servicios de reconocimiento de texto e imágenes para teléfonos inteligentes.

¿Cómo se debe sostener la cámara? ¿Y cuán cerca hay que colocar el objeto del que uno quiere saber más? Ángulo, perspectiva, distancia y luz son conceptos que no tienen naturalmente las personas que nunca han podido ver.
Steve Nutt es un consultor informático del Reino Unido, ciego de nacimiento. Le llevó dos semanas perfeccionar la técnica del encuadre, algo que hace de manera muy funcional y distinta a la de las personas que ven.
Explica: "Si uno está, por ejemplo, tomando una foto de una lata, debe asegurarse de que toda la lata entre en cuadro. Yo la pongo de forma que puedo tomar todos los lados, con la etiqueta, y saco la foto desde unos 20cm".
"Si uno toma una foto de un texto, hay que centrar la cámara sobre el papel, levantarla unos 25 cms y mantener la mano bien firme y recta".
"Uno también debe tener en cuenta el tamaño del objeto a fotografiar. Cuanto más pequeño, más cerca hay que colocarse; mentiría si dijera que es fácil".
El equipo de Jeff Bigham recibe los resultados de usuarios como Nutt. No todos lo hacen bien en el primer intento.
"No siempre es fácil encuadrar las fotos. A veces el centro queda fuera de la imagen. Si nos están preguntando qué hay en una etiqueta de una lata de sopa, generalmente les decimos 'no podemos decir qué es esto, la etiqueta está del otro lado, probablemente'".



No hay comentarios: