"El problema de la investigación de mercado es que la gente no sabe lo que siente, no dice lo que piensa y no hace lo que dice".
Así lo dijo el publicista David Ogilvy, y sus palabras llegaron al corazón del que aún hoy sigue siendo el mayor desafío del mundo empresarial: ¿cómo se puede averiguar si a la gente le gusta lo que le están tratando de vender?La tecnología ofrece una respuesta a la pregunta de Ogilvy, quien falleció en 1999, probablemente nunca previó.
Los investigadores de mercado ya están experimentando con aplicaciones de computadores y teléfonos inteligentes que prometen revelar la capa subconsciente del cerebro del consumidor.
Además, dado que esta tecnología puede funcionar de automáticamente y a tiempo real, podría usarse para evaluar la respuesta emocional de millones de personas antes de que cualquier producto vea la luz.
Y, con una pequeña salvedad, este poder podría transformar la investigación de mercado y el mundo de los negocios en general, para siempre.
(Por cierto, la "pequeña salvedad": para seguir adelante con esto, uno tiene que estar dispuesto a creer que los computadores pueden descifrar las complejidades de la emoción humana).
Fallas del mercado
Los estudios de mercado tradicionales son sencillos y sin emoción: uno consigue un grupo de enfoque y le pregunta qué piensa de un concepto, producto o marca en concreto.
Pero las encuestas y grupos de enfoque asumen que la gente sabe qué pasa dentro de sus cabezas... y esa es una premisa arriesgada.
"El 80% de los nuevos productos fracasan en el mercado, sobre todo debido a fallas en las técnicas tradicionales", señala Rob Stevens, cofundador de Bunnyfoot, una empresa británica de investigación de mercado.
"No se me ocurre otro sector en el mundo de los negocios en el que un nivel tal de error sea considerado aceptable, pero por alguna razón, en investigación de mercado lo es".
También utilizan tecnología de seguimiento ocular para saber exactamente dónde se fija la mirada del sujeto durante una prueba de producto.
Aunque son relativamente antiguas y de baja tecnología (la codificación facial se remonta a Charles Darwin), éstas técnicas revelan algunos datos útiles.
"Cuando le preguntas a alguien que está probando un producto si se fijó en una característica concreta en un sitio web, normalmente dice que sí", comenta Mark Batty, de la tienda de ropa online Boden.
"Pero cuando miras el seguimiento ocular, descubres que no lo han visto."
Boden está en medio de un estudio de usabilidad (en jerga informatica: la facilidad con la que una persona puede emplear una herramienta) de su página web, y como su gerente de comercio electrónico, Mark Batty, ha aprendido a no confiar plenamente en las respuestas explícitas de los probadores.
"Muchas veces su veredicto sobre la web en su conjunto depende de lo que hayan tenido que hacer al final de la prueba", añade.
"Si disfrutaron de su tarea final suelen llenar de elogios la página, aún si sus expresiones faciales revelan que no les gustó nada en un principio".
Eso significa que los estudios están necesariamente limitados a una pequeña muestra de probadores.
El estudio de usabilidad de Boden, por ejemplo, tiene una muestra de sólo 30 personas en tres países.
Pero es posible que ese inconveniente desaparezca pronto, pues las computadoras harán la mayor parte del trabajo más simple.
"Las expresiones faciales pueden ser leídas por un computador: son sólo movimiento de píxeles en un trozo de video", dice el doctor Roberto Valenti, de la Universidad de Amsterdam.
Valenti y su compañero, el doctor Theo Gevers, confían tanto en el reconocimiento emocional computarizado, que han creado una nueva empresa, ThirdSight, para sacar provecho de ello.
"Un investigador se cansa, tiene que tener un salario, tienen que ser entrenado".
"Nuestro programa nunca se cansa y puede analizar miles y miles de rostros al mismo tiempo".
El último logro de ThirdSight ha sido conseguir un programa de codificación facial automática para teléfonos inteligentes, utilizando la cámara del teléfono para registrar las expresiones de quien está probando el producto.
Y hasta ahora, lo que ThirdSight ofrece respecto a la precisión es relativamente humilde.
Reconocen que aún se necesita un investigador humano para supervisar el programa, pues éste no distingue el contexto o significados ocultos: califica tanto a una sonrisa feliz como una sonrisa de desconcierto, como algo positivo.
Pero otros científicos son menos conservadores.
"Podemos distinguir diferentes emociones con una gran precisión", asegura el profesor Peter Robinson del Laboratorio Computacional de la Universidad de Cambridge.
"La precisión de nuestros computadores es de dos tercios o superior, lo que es tan bueno como lo que hace la mayoría de la gente".
En vez de eso, lo están programando para digerir muchos tipos de expresiones humanas: facial y movimientos oculares, manos y gestos corporales, el tono de voz.
A través de una técnica llamada "aprendizaje estadístico de máquina", el programa se entrena a sí mismo para reconocer cuáles indicadores son importantes y cuáles no.
Si este tipo de poder y precisión pudiese ser incorporado en un tipo de teléfono inteligente con Third-Sight o una aplicación de internet, las emociones de millones de personas podrían ser descodificadas detalladamente.
"Si haces un experimento en Facebook, puedes tener muestras de miles de millones de personas", dice el profesor Robinson.
"Esto significa que las estadísticas se vuelven bastante representativas, ya que estás probando el producto con casi toda la población para obtener un resultado".
Por lo tanto, teóricamente al menos, podría llegar el día en el que ningún producto fuese condenado al fracaso, pues los negocios tendrían acceso a una certeza casi absoluta sobre su mercado.
BBC Mundo
Pero las encuestas y grupos de enfoque asumen que la gente sabe qué pasa dentro de sus cabezas... y esa es una premisa arriesgada.
"El 80% de los nuevos productos fracasan en el mercado, sobre todo debido a fallas en las técnicas tradicionales", señala Rob Stevens, cofundador de Bunnyfoot, una empresa británica de investigación de mercado.
"No se me ocurre otro sector en el mundo de los negocios en el que un nivel tal de error sea considerado aceptable, pero por alguna razón, en investigación de mercado lo es".
Miénteme
El equipo de Bunnifoot está entrenado para detectar pistas en la expresión facial de los que prueban los productos, las cuales revelan sus sentimientos interiores, un proceso conocido como "codificación facial".También utilizan tecnología de seguimiento ocular para saber exactamente dónde se fija la mirada del sujeto durante una prueba de producto.
Aunque son relativamente antiguas y de baja tecnología (la codificación facial se remonta a Charles Darwin), éstas técnicas revelan algunos datos útiles.
"Cuando le preguntas a alguien que está probando un producto si se fijó en una característica concreta en un sitio web, normalmente dice que sí", comenta Mark Batty, de la tienda de ropa online Boden.
"Pero cuando miras el seguimiento ocular, descubres que no lo han visto."
Boden está en medio de un estudio de usabilidad (en jerga informatica: la facilidad con la que una persona puede emplear una herramienta) de su página web, y como su gerente de comercio electrónico, Mark Batty, ha aprendido a no confiar plenamente en las respuestas explícitas de los probadores.
"Muchas veces su veredicto sobre la web en su conjunto depende de lo que hayan tenido que hacer al final de la prueba", añade.
"Si disfrutaron de su tarea final suelen llenar de elogios la página, aún si sus expresiones faciales revelan que no les gustó nada en un principio".
Mira en mi teléfono
El problema con las técnicas manuales, como la codificación facial, es que requieren de la revisión de videos, un proceso lento que toma horas, para registrar cada fruncimiento de ceño y cada leve movimiento de las pupilas.Eso significa que los estudios están necesariamente limitados a una pequeña muestra de probadores.
El estudio de usabilidad de Boden, por ejemplo, tiene una muestra de sólo 30 personas en tres países.
Pero es posible que ese inconveniente desaparezca pronto, pues las computadoras harán la mayor parte del trabajo más simple.
"Las expresiones faciales pueden ser leídas por un computador: son sólo movimiento de píxeles en un trozo de video", dice el doctor Roberto Valenti, de la Universidad de Amsterdam.
Valenti y su compañero, el doctor Theo Gevers, confían tanto en el reconocimiento emocional computarizado, que han creado una nueva empresa, ThirdSight, para sacar provecho de ello.
"Un investigador se cansa, tiene que tener un salario, tienen que ser entrenado".
"Nuestro programa nunca se cansa y puede analizar miles y miles de rostros al mismo tiempo".
El último logro de ThirdSight ha sido conseguir un programa de codificación facial automática para teléfonos inteligentes, utilizando la cámara del teléfono para registrar las expresiones de quien está probando el producto.
El aprendizaje de la máquina
Evidentemente, todo esto depende de la precisión del programa.Y hasta ahora, lo que ThirdSight ofrece respecto a la precisión es relativamente humilde.
Reconocen que aún se necesita un investigador humano para supervisar el programa, pues éste no distingue el contexto o significados ocultos: califica tanto a una sonrisa feliz como una sonrisa de desconcierto, como algo positivo.
Pero otros científicos son menos conservadores.
"Podemos distinguir diferentes emociones con una gran precisión", asegura el profesor Peter Robinson del Laboratorio Computacional de la Universidad de Cambridge.
"La precisión de nuestros computadores es de dos tercios o superior, lo que es tan bueno como lo que hace la mayoría de la gente".
Nirvana comercial
El equipo de Robinson está tratando de liberar el programa de reconocimiento emocional de instrucciones sencillas, como sonrisa=feliz.En vez de eso, lo están programando para digerir muchos tipos de expresiones humanas: facial y movimientos oculares, manos y gestos corporales, el tono de voz.
A través de una técnica llamada "aprendizaje estadístico de máquina", el programa se entrena a sí mismo para reconocer cuáles indicadores son importantes y cuáles no.
Si este tipo de poder y precisión pudiese ser incorporado en un tipo de teléfono inteligente con Third-Sight o una aplicación de internet, las emociones de millones de personas podrían ser descodificadas detalladamente.
"Si haces un experimento en Facebook, puedes tener muestras de miles de millones de personas", dice el profesor Robinson.
"Esto significa que las estadísticas se vuelven bastante representativas, ya que estás probando el producto con casi toda la población para obtener un resultado".
Por lo tanto, teóricamente al menos, podría llegar el día en el que ningún producto fuese condenado al fracaso, pues los negocios tendrían acceso a una certeza casi absoluta sobre su mercado.
BBC Mundo
No hay comentarios:
Publicar un comentario