Buscar
2012/02/20
El "lector de mentes", una fantasía cada vez más real
Al situar electrodos en el cerebro de sujetos sometidos al estudio y solicitarles que escucharan conversaciones, los científicos fueron capaces de analizar las frecuencias de sonido registradas y adivinar qué palabras estaban siendo escuchadas.
"Nos centramos en cómo el cerebro procesa los sonidos del habla", explicó a AFP el investigador Brian Pasley, del Instituto de Neurociencia Helen Wills de la Universidad Berkeley de California.
"La mayor parte de la información en un discurso se sitúa entre uno y 8.000 hertzios. Esencialmente el cerebro analiza, de alguna forma, las diferentes frecuencias de sonido en diferentes lugares" de sí mismo, explicó.
Al entender cómo y dónde registra los sonidos el lóbulo temporal -el centro del sistema auditivo- los científicos pudieron generar un mapa de las palabras y recrear tal y cómo fueron escuchadas.
"Cuando una zona particular del cerebro está siendo activada, sabemos que corresponde aproximadamente a alguna frecuencia de sonido que el paciente está escuchando en ese momento", apuntó Pasley.
"Así que pudimos crear un mapa que nos permitiría hasta cierto punto usar la actividad del cerebro para resintetizar el sonido por las frecuencias que estamos adivinando", añadió.
Una palabra que los investigadores pudieron identificar fue "estructura". La alta frecuencia del sonido de la 'S' mostró una cierta pauta en el cerebro, mientras que la baja armonía de la 'U' apareció marcando una pauta diferente.
"Hay hasta cierto punto una correspondencia entre las características del sonido y la actividad cerebral que causan" y juntar el registro físico en el cerebro nos ayudó a reconstruir las palabras, explicó Pasley.
El próximo paso para los investigadores es averiguar cuál es la similitud del proceso de escuchar sonidos al de imaginarse palabras y ruidos.
Estudios previos han sugerido que podrían ser parecidos, aunque es necesaria más investigación, afirmó Pasley.
Esta información podría ayudar algún día a los científicos a determinar qué es lo que quieren decir las personas que no pueden hablar físicamente.
"Esto es importante para pacientes que tienen sus mecanismos de habla dañados y no pueden comunicarse debido a un derrame cerebral o a la enfermedad Lou Gehrig's", dijo en un comunicado el coautor del estudio, Robert Knight, profesor de psicología de UC Berkeley.
"Si pudieramos finalmente reconstruir a través de la actividad cerebral conversaciones imaginarias, miles de personas podrían beneficiarse", añadió.
El estudio aparece en la edición del 31 de enero del diario de libre acceso PLoS Biology, indicó AFP.
2012/02/03
Investigan en tecnología para leer la mente
El sistema desarrollado en el centro californiano analiza las ondas cerebrales de un paciente y permite reconstruir las palabras que llegan a su mente al escuchar una conversación.
Hablamos de un invento orientado a personas que no pueden hablar al haber sufrido enfermedades como derrames cerebrales, y los expertos de Berkeley esperan poder aplicar esa misma técnica para adivinar que cosas se pasan por la cabeza de esos pacientes, de forma que se pueda llegar a leer su mente.
Brian Pasley, principal investigador del proyecto, empleó en sus experimentos dos modelos de ordenadores junto a varios electrodos que se conectaban al paciente.
Gracias a ese sistema el experto pudo relacionar los sonidos hablados en una conversación con la actividad que se registraba en los electrodos al escuchar el paciente una palabra.
Según parece, uno de los ordenadores logró reproducir con éxito un sonido que se asemejaba a la palabra original, y de esa forma los científicos fueron capaces de adivinar la palabra.
2011/10/12
Un poco más cerca de encender la tele con el pensamiento
Sin embargo, sí es posible que controles con tu mente un automóvil de juguete a distancia, que conduzcas una silla de ruedas y que guíes el caparazón de un robot.
"Lo primero que tienes que hacer es despejar tu mente para que llegues a un punto en el que no pienses en nada", señaló Ed Jellard, un joven con un título un tanto estrafalario: inventor en jefe.
Nos encontramos en una de las salas de pruebas del laboratorio de Tecnologías Emergentes de IBM, en Winchester, Inglaterra.
En mi cabeza tengo una especie de auriculares o casco que parece un calamar de plástico negro.
Sus 14 tentáculos, cada uno cubierto con un eléctrodo humedecido, tienen como objetivo detectar señales cerebrales específicas.
Al frente de nosotros hay una pantalla de una computadora que muestra la imagen de un cubo que flota.
A medida que pienso en empujarlo, el cubo responde moviéndose a la deriva.
Es importante admitir que el sistema requirió de un proceso de entrenamiento para llevar a cabo esa única tarea.
Sin embargo, ya aprendió a asociar un pensamiento determinado con un movimiento en particular.
Los auriculares, que fueron desarrollados por la compañía australiana Emotiv para la industria de los juegos, no son nuevos.
Pero es recién ahora que las compañías como IBM están empezando a aprovechar la riqueza de la información que esos dispositivos pueden proporcionar.
Por medio de software desarrollado internamente, los investigadores han comenzado a vincular los auriculares de Emotiv con elementos como un vehículo de juguete, un interruptor de la luz y un televisor.
Las señales de control provienen de dos fuentes principales: electroencefalografías para medir la actividad cerebral y lecturas de los impulsos nerviosos que viajan hacia los músculos.
Restaurando el movimiento
El equipo de programadores ya ha usado el sistema para ayudar a un paciente con el síndrome locked-in, que consiste en un desorden neurológico en el que se preserva la conciencia, pero que en el que hay parálisis corporal, excepto en los ojos.
Se trata de un síndrome en el que una mente saludable y activa queda atrapada en un cuerpo que no se puede mover, tras sufrir un derrame cerebrovascular.
"Vinculamos los auriculares al software de IBM. Cuando el paciente empujó el cubo en la pantalla, fue como si le hubiese hecho un clic al ratón de la computadora. Fue capaz de usar el ordenador", señaló Kevin Brown, de IBM.
Muchas tecnologías relacionadas con el control mental están diseñadas para ayudar a restaurar la habilidad física en quienes la han perdido.
En la Escuela Politécnica Federal de Lausanne (EPFL), en Suiza, los investigadores han utilizado una interfaz que conecta el cerebro con la computadora para crear sillas de ruedas y robots que pueden ser controlados desde la distancia a través del pensamiento.
"Un paciente incapacitado que no puede moverse puede, en cambio, navegar como un robot alrededor de su casa para participar en la vida social de la familias", explicó el profesor Jose del Millan.
"Para hacer eso, un casco detecta la intención de algunos movimientos físicos y los traduce en acciones".
Incapacidad
La compañía japonesa Cyberdyne está ayudando a personas que no pueden caminar a recuperar su movilidad, al vestirlos con un traje robótico llamado Hal.Así como IBM utiliza la información que proviene de los impulsos nerviosos, en lugar de la que procede de las ondas cerebrales, Cyberdyne utiliza pequeños sensores en las extremidades para medir la intención de moverse de las personas, independientemente de si la acción física es imposible.
El cuerpo del robot responde moviendo sus brazos y sus piernas. Cámaras conectadas a internet y pantallas de computadoras permiten que el usuario pueda pilotear la máquina y comunicarse con sus amigos y familiares a través de su cuerpo robótico.
Pero el ámbito médico no es el único que se ha visto beneficiado por este tipo de tecnologías.
La EPFL ha trabajado junto al fabricante de vehículos Nissan para desarrollar un vehículo inteligente que puede usar información procedente de las ondas cerebrales.
Equipado con numerosos sensores externos y cámaras, los sensores que captan las ondas cerebrales leen lo que el piloto está planeando hacer.
Una vez anticipadas sus intenciones, el automóvil actúa sin que haya desperdicio de tiempo a la espera del movimiento físico.
Para aquellos que prefieran ejercer el poder de empujar el pedal, Toyota está trabajando con Saatchi & Saatchi, Parlee Cycles y DeepLocal para desarrollar una bicicleta, cuya palanca de cambios está basada en los pensamientos del ciclista.
Microchips
En el Instituto de Ciencia Cerebral Brown de Estados Unidos, los científicos están ocupados insertando chips en el cerebro humano.
La tecnología, llamada BrainGate, envía las órdenes mentales directamente a una computadora.
Las personas todavía tienen que estar físicamente "conectadas" a una computadora a través de cables que salen de sus cabezas al estilo de la película The Matrix.
Sin embargo, el equipo está trabajando en hacer chips miniaturas y en hacerlos inalámbricos.
BrainGate está explorando los resultados de sus estudios para controlar el cursor de una computadora, el teclado táctil de una pantalla o incluso manipular brazos robóticos.
Tras hacer pruebas con monos, los científicos han comenzado a hacer ensayos con personas.
El investigador John Donoghue espera que un día su estudio ayude a personas con lesiones en la médula espinal o con el síndrome locked-in a volver a caminar con tan solo pensar en mover sus extremidades.
¿Guerreros robóticos?
Gran parte de los esfuerzos de la investigación actual tiene en la mira procesos que permitan usar eficientemente los vastos torrentes de información que el cerebro produce.
Convertir los pensamientos análogos en información digital unirá directamente a los seres humanos con redes de información electrónica como internet.
El cerebro se convierte en otro sensor para ser analizado e interrogado.
Y a medida que las técnicas se vuelven más sofisticadas, la tecnología irá más allá de un simple dispositivo de control.
"A la gente le gusta la información", explica Ed Jellard de IBM. "Si puedes ver patrones de información, las personas más curiosas estarán más interesadas en ver lo que pasa en sus cerebros y cómo va cambiando con el paso del tiempo".
"Yo estaría interesado en saber si mi cerebro se está volviendo más fuerte y si mis pensamientos son más intensos. Las cosas así pueden ser más útiles".
Mientras es posible traducir ondas cerebrales en información que puede ser procesada por máquinas, siempre habrá algo único y especial sobre las señales que se producen dentro de nuestros cráneos.
No son iguales a rayos láser en un cable de fibra óptica o a electrones en una computadora. Intervenir en la mente siempre desatará preguntas filosóficas y éticas, indicó el profesor Noel Sharkey.
"Una vez el ámbito militar pueda conseguir algo, impulsará (la tecnología) con contundencia", señaló el experto.
"En estos momentos, están llenando el espacio aéreo de Afganistán con aviones no tripulados que sólo una persona controla, pero si consiguen cascos lo suficientemente desarrollados, serán capaces de controlar un número de aviones o de robots de combate directamente con sus pensamientos".
También hay preguntas sobre las variantes que se introducirán en las actividades delictivas del ciberespacio.
"Imagínese que tiene en su cabeza una clase de dispositivo computacional inalámbrico para ejercer control mental. ¿Qué pasaría si alguien lo hackea? ¿Qué podrían hacerle a usted y a su propiedad?", reflexionó el profesor Sharkey.
"¿Y qué si lo obligan a llevarlo y otra persona controla sus pensamientos, forzándolo a hacer cosas?"
Las posibilidades, ambas positivas y negativas, son literalmente alucinantes.
2011/03/30
Un dispositivo permite crear música con la mente
Eduardo Miranda, compositor y profesor de música ha creado un dispositivo que permite al ser humano tocar un instrumento de música usando, exclusivamente, la mente. La interfaz cerebro-computadora recoge los impulsos neuronales provenientes del cerebro y los transforma en notas musicales.
Para utilizar el dispositivo, es necesario utilizar un gorro denominado 'EEG' que cuenta con varios sensores. Cada uno corresponde a una serie de notas musicales y se activan cuando el usuario focaliza su pensamiento en ellos, ya que su cerebro activa un patrón único de impulsos eléctricos para cada botón según Discovery.
Este dispositivo exige emplear un poco de tiempo para su calibrado. El profesor Miranda empleó dos horas con un paciente con síndrome de enclaustramiento con parálisis total excepto en los ojos. Los ensayos se han llevado han realizado en la Universidad de Essex, Inglaterra. El paciente desarrolló un leve balanceo minutos después en consonancia a las notas de música desplegadas en una pista de audio, según el propio profesor.
Miranda se dio cuenta de la posibilidad de utilizar la música como terapia mediante este dispositivo hace más de una década. Desde entonces ha invertido su tiempo "buscando la forma de hacer música utilizando las ondas cerebrales", ha explicado
20minutos
2011/03/21
Tecnología para descifrar la mente
La tecnología ofrece una respuesta a la pregunta de Ogilvy, quien falleció en 1999, probablemente nunca previó.
Los investigadores de mercado ya están experimentando con aplicaciones de computadores y teléfonos inteligentes que prometen revelar la capa subconsciente del cerebro del consumidor.
Además, dado que esta tecnología puede funcionar de automáticamente y a tiempo real, podría usarse para evaluar la respuesta emocional de millones de personas antes de que cualquier producto vea la luz.
Y, con una pequeña salvedad, este poder podría transformar la investigación de mercado y el mundo de los negocios en general, para siempre.
(Por cierto, la "pequeña salvedad": para seguir adelante con esto, uno tiene que estar dispuesto a creer que los computadores pueden descifrar las complejidades de la emoción humana).
Fallas del mercado
Pero las encuestas y grupos de enfoque asumen que la gente sabe qué pasa dentro de sus cabezas... y esa es una premisa arriesgada.
"El 80% de los nuevos productos fracasan en el mercado, sobre todo debido a fallas en las técnicas tradicionales", señala Rob Stevens, cofundador de Bunnyfoot, una empresa británica de investigación de mercado.
"No se me ocurre otro sector en el mundo de los negocios en el que un nivel tal de error sea considerado aceptable, pero por alguna razón, en investigación de mercado lo es".
Miénteme
El equipo de Bunnifoot está entrenado para detectar pistas en la expresión facial de los que prueban los productos, las cuales revelan sus sentimientos interiores, un proceso conocido como "codificación facial".También utilizan tecnología de seguimiento ocular para saber exactamente dónde se fija la mirada del sujeto durante una prueba de producto.
Aunque son relativamente antiguas y de baja tecnología (la codificación facial se remonta a Charles Darwin), éstas técnicas revelan algunos datos útiles.
"Cuando le preguntas a alguien que está probando un producto si se fijó en una característica concreta en un sitio web, normalmente dice que sí", comenta Mark Batty, de la tienda de ropa online Boden.
"Pero cuando miras el seguimiento ocular, descubres que no lo han visto."
Boden está en medio de un estudio de usabilidad (en jerga informatica: la facilidad con la que una persona puede emplear una herramienta) de su página web, y como su gerente de comercio electrónico, Mark Batty, ha aprendido a no confiar plenamente en las respuestas explícitas de los probadores.
"Muchas veces su veredicto sobre la web en su conjunto depende de lo que hayan tenido que hacer al final de la prueba", añade.
"Si disfrutaron de su tarea final suelen llenar de elogios la página, aún si sus expresiones faciales revelan que no les gustó nada en un principio".
Mira en mi teléfono
El problema con las técnicas manuales, como la codificación facial, es que requieren de la revisión de videos, un proceso lento que toma horas, para registrar cada fruncimiento de ceño y cada leve movimiento de las pupilas.Eso significa que los estudios están necesariamente limitados a una pequeña muestra de probadores.
El estudio de usabilidad de Boden, por ejemplo, tiene una muestra de sólo 30 personas en tres países.
Pero es posible que ese inconveniente desaparezca pronto, pues las computadoras harán la mayor parte del trabajo más simple.
"Las expresiones faciales pueden ser leídas por un computador: son sólo movimiento de píxeles en un trozo de video", dice el doctor Roberto Valenti, de la Universidad de Amsterdam.
Valenti y su compañero, el doctor Theo Gevers, confían tanto en el reconocimiento emocional computarizado, que han creado una nueva empresa, ThirdSight, para sacar provecho de ello.
"Un investigador se cansa, tiene que tener un salario, tienen que ser entrenado".
"Nuestro programa nunca se cansa y puede analizar miles y miles de rostros al mismo tiempo".
El último logro de ThirdSight ha sido conseguir un programa de codificación facial automática para teléfonos inteligentes, utilizando la cámara del teléfono para registrar las expresiones de quien está probando el producto.
El aprendizaje de la máquina
Evidentemente, todo esto depende de la precisión del programa.Y hasta ahora, lo que ThirdSight ofrece respecto a la precisión es relativamente humilde.
Reconocen que aún se necesita un investigador humano para supervisar el programa, pues éste no distingue el contexto o significados ocultos: califica tanto a una sonrisa feliz como una sonrisa de desconcierto, como algo positivo.
Pero otros científicos son menos conservadores.
"Podemos distinguir diferentes emociones con una gran precisión", asegura el profesor Peter Robinson del Laboratorio Computacional de la Universidad de Cambridge.
"La precisión de nuestros computadores es de dos tercios o superior, lo que es tan bueno como lo que hace la mayoría de la gente".
Nirvana comercial
El equipo de Robinson está tratando de liberar el programa de reconocimiento emocional de instrucciones sencillas, como sonrisa=feliz.En vez de eso, lo están programando para digerir muchos tipos de expresiones humanas: facial y movimientos oculares, manos y gestos corporales, el tono de voz.
A través de una técnica llamada "aprendizaje estadístico de máquina", el programa se entrena a sí mismo para reconocer cuáles indicadores son importantes y cuáles no.
Si este tipo de poder y precisión pudiese ser incorporado en un tipo de teléfono inteligente con Third-Sight o una aplicación de internet, las emociones de millones de personas podrían ser descodificadas detalladamente.
"Si haces un experimento en Facebook, puedes tener muestras de miles de millones de personas", dice el profesor Robinson.
"Esto significa que las estadísticas se vuelven bastante representativas, ya que estás probando el producto con casi toda la población para obtener un resultado".
Por lo tanto, teóricamente al menos, podría llegar el día en el que ningún producto fuese condenado al fracaso, pues los negocios tendrían acceso a una certeza casi absoluta sobre su mercado.
BBC Mundo
2010/11/01
Máquinas que obedecen a la mente
Él y su equipo de 20 investigadores de la Escuela Politécnica Federal de Lausana (EPFL, Suiza), uno de los centros tecnológicos más prestigiosos de Europa, han creado un programa que conecta el cerebro a máquinas y ordenadores para manejarlos con el pensamiento. Un casco repleto de electrodos capta las órdenes mentales, el software las interpreta y luego transmite comandos capaces de operar un portátil o un electrodoméstico de forma remota. Todo en cuestión de milisegundos.
En los últimos años ha habido numerosos intentos de dar con esta tecnología. Algunos, incluso, ya están a la venta. Pero el EPFL ha conseguido algo nuevo: descifrar señales cerebrales al instante. "Hasta hace poco había que repetir la orden mental cada medio segundo, constantemente. Esto fatigaba a la persona", dice José. "Hemos sido los primeros en dar con un sistema de bajo coste que reconoce a la primera el pensamiento".
Su objetivo es emplear esta tecnología para mejorar la vida de los discapacitados. Y la aplicación más potente la han probado en una silla de ruedas. La equiparon con sensores de espacio, la interconectaron al software y este a la cabeza de un paciente. Funcionó. Al pensar "hacia adelante", "izquierda" o "derecha", la silla obedecía. En total, seis años de trabajo para llegar a este punto. Ahora quieren ir más allá. Cuatro líneas de investigación en las que cooperan varias universidades europeas indagan cómo controlar con la mente ordenadores para navegar por Internet o enviar correos, electrodomésticos del hogar, juegos en móviles, prótesis y hasta robots. "Imagine una persona inmovilizada en la cama que pueda controlar mentalmente un robot y desplazarlo hasta la cocina para acompañar en la cena a su familia. Esto llegará", dice Millán. "Y ese es exactamente nuestro deseo: conectar la inteligencia de las máquinas con la de los humanos".
Como siempre, hay obstáculos. El tibio interés de las grandes compañías por comercializar el programa es uno. "Quienes más se beneficiarían serían los discapacitados y es un mercado muy pequeño". El número limitado de comandos cerebrales que el software reconoce (no más de cuatro) y la incomodidad de tener que llevar casco, aunque sea inalámbrico, son otras dudas en el horizonte.
¿Será el control de las máquinas con la mente algo cotidiano en 2020, como vaticinan algunos futurólogos? José suelta una risa incrédula. "Ya me gustaría. Tardaremos mucho más. De momento, el cuerpo, lo físico, sigue siendo el mejor intermediario". Pero señala situaciones más allá de la asistencia a incapacitados donde estos interfaces ayudarían. "En el espacio, la movilidad de los astronautas es muy limitada y el control mental de equipos sería un gran avance. Hemos probado el software en vuelos parabólicos con ingravidez y funciona".
Millán, que ha desarrollado su carrera académica entre España, Italia, Suiza y EE UU (Universidad de Stanford), calcula otros dos años más hasta que esta tecnología madure. Bajo su mando seguirán trabajando investigadores de universidades de media Europa aunque, curiosamente, ninguna española.
"Escojo a los mejores centros y los españoles no están entre ellos". ¿Qué falla? "Medios. Los políticos se llenan la boca diciendo que la innovación es el futuro del país, pero a la hora de la verdad siempre recortan del mismo sitio, del I+D".
2010/10/29
La ciencia se acerca a la lectura del pensamiento
Un dispositivo desarrollado por investigadores del Instituto Tecnológico de California ha sido capaz de registrar la respuesta de las neuronas del lóbulo temporal medio a distintos estímulos visuales.
De esta forma, los investigadores que publican su hallazgo en la edición de hoy de Nature son capaces de adivinar en qué están pensando dentro de las opciones ofrecidas en el experimento.
Para llevar a cabo su estudio, los científicos, dirigidos por Moran Cerf, aprovecharon los electrodos implantados en el cerebro de varios pacientes para tratar sus convulsiones cerebrales y midieron su respuesta ante determinados conceptos, que incluían desde personalidades como Madonna a lugares como la torre Eiffel.
2010/09/10
Logran "leer" pensamientos con electrodos
El método utiliza dos rejillas de 16 microelectrodos que se implantan debajo del cráneo, pero sobre el cerebro, sin necesidad de penetrar el órgano.
"Logramos descifrar palabras habladas utilizando sólo las señales del cerebro con un aparato que promete, a largo plazo, poder utilizarse con pacientes paralizados que no pueden hablar" expresa Bradley Greger, profesor de bioingeniería de la Universidad de Utah.
Traductor cerebral
Los científicos colocaron las rejillas en los centros de habla en el cerebro de un voluntario que sufría crisis epilépticas severas.El paciente ya había sido sometido a una craneotomía -el retiro temporal parcial del cráneo- para que los médicos pudieran colocar electrodos convencionales con el fin de localizar la fuente de sus convulsiones y detenerlas quirúrgicamente.
Con las rejillas de microelectrodos experimentales, los científicos registraron las señales cerebrales del paciente cuando éste leía repetidamente cada nombre de una lista de 10 palabras "útiles" para una persona con parálisis: sí, no, caliente, frío, hambre, sed, hola, adiós, más y menos.
Después el paciente repitió las palabras a la computadora y ésta logró ubicar las señales cerebrales que pertenecían a cada palabra con entre 76 y 90% de precisión.
Los investigadores subrayan que ésta es sólo la primera fase de la investigación, y que el método necesita perfeccionarse, pero en algunos años se podrían llevar a cabo ensayos clínicos con personas que no pueden hablar debido a parálisis u otros trastornos.
"Ésta es una prueba de concepto" dice el profesor Greger.
"Logramos demostrar que estas señales pueden leer lo que la persona está diciendo con posibilidades superiores al azar".
"Pero necesitamos poder ahora demostrarlo con más palabras y con más precisión para que este método pueda ser realmente útil para un paciente" agrega.
Además de los pacientes con síndrome de encerramiento, el científico cree que también podrían beneficiarse con esta técnica las personas paralizadas a causa de un derrame cerebral o quienes sufren la enfermedad de Lou Gehrig, por ejemplo.
Según el profesor Greger, "incluso si podemos darles a estos pacientes unas 30 o 40 palabras para comunicarse, eso significaría una mucho mejor calidad de vida".
Otra ventaja de la técnica es que no hay necesidad de penetrar el cerebro debido a que los minielectrodos se colocan sobre la superficie del órgano.
Los electrodos convencionales ya se utilizan, implantados en el cerebro, para ayudar a personas paralizadas a controlar el movimiento de extremidades, pero son demasiado grandes para penetrar otras áreas de materia cerebral, como la encargada del habla.
En el caso del paciente con epilepsia, los minielectrodos fueron colocados sobre el área de Wernicke, sobre el oído izquierdo, una zona que actúa como "traductor" del lenguaje para el cerebro.
Los científicos subrayan, sin embargo, que como la técnica sólo ha sido probada con este único paciente hacen falta más investigaciones antes de que pueda ser puesta en práctica en la clínica.
El estudio, que aparece publicado en Journal of Neural Engineering (Revista de Ingeniería Neural), fue financiado por los Institutos Nacionales de Salud y la Fundación Nacional de Ciencia de Estados Unidos.
2009/08/17
La tecnología ayudará a leer la mente
Un grupo de investigadores de la Universidad Politécnica de Cartagena trabaja en un sensor que interpretará el pensamiento humano.
La realidad cada vez se parece más a las películas de ciencia ficción. Y más se parecerá si los resultados del trabajo de desarrollo que un grupo de investigadores está realizando en la universidad Politécnica de Cartagena llega a buen puerto.
La universidad murciana trabaja en un sensor que interpretará los impulsos de la mente, es decir, ayudarán a leer el pensamiento humano gracias a un sistema tecnológico de última generación. Los usuarios no tendrán que implantarse ningún chip o decodificador en el cerebro: camuflados en un gorro o en un casco, los sensores captarán qué es lo que la persona en cuestión quiere o desea hacer.
“Por ejemplo, entre dos personas que llevan instalado el sensor en una gorra o en un casco, uno de ellos puede interpretar con antelación que la otra persona pretende estrecharle la mano para saludarle”, explican desde la universidad en un comunicado a los medios.
Los principales beneficiarios de esta investigación serán aquellos que sufren de discapacidades neurológicas, que verán como su comunicación se convierte en algo más sencillo.
2009/04/01
El robot que lee la mente
Las compañías japonesas Honda y Shimadzu presentaron sus últimos avances en la tecnología de Interfaz Cerebro-Máquina, conocida como BMI, con la que por primera vez el usuario puede dar órdenes a un robot sólo con el pensamiento.
La mente por ahora sólo puede transmitir cuatro movimientos diferentes: mover la mano izquierda, la derecha, los dos pies o la boca, pero los promotores de esa tecnología esperan que en el futuro puedan ampliarse las aplicaciones.
En una rueda de prensa en Tokio, los ingenieros responsables de esta revolucionaria tecnología aseguraron que las órdenes cerebrales eran interpretadas en el 90,6 por ciento de los casos con precisión por Asimo, el robot humanoide más avanzado del mundo.
Es la primera vez en la historia que esta tecnología BMI alcanza una tasa de éxito tan alta, según los ingenieros del fabricante japonés, que recordaron que hasta ahora lo máximo que se había registrado era un 66 por ciento de acierto. Con ese dispositivo además no es necesario implantar ningún tipo de sensor en la cabeza del sujeto que da las órdenes, dijeron.
"Esto puede revolucionar el mundo de la neurociencia", dijo Yasuhisa Arai, director de Investigación y Desarrollo (I+D) de Honda y responsable del desarrollo del BMI junto al fabricante de tecnología Shimadzu.
La tecnología tiene dos puntos clave: un dispositivo de extracción de la información del cerebro y, lo que según los ingenieros es la parte más complicada, la identificación de las diferentes órdenes cerebrales.
Para este segundo paso, Honda ha utilizado por primera vez una combinación de la tecnología EEG (Electroencefalograma), que mide las variaciones de los impulsos eléctricos del cerebro, y la NIRS (Espectroscopia Cercana de Infrarrojo), con la que calibra los cambios en el flujo sanguíneo.
La tecnología presentada hoy supera en avances a la desarrollada por Honda en mayo de 2006, cuando el fabricante alcanzó su primer hito con el BMI.
Ahora ya no es necesario que el sujeto se mueva ni que reciba un entrenamiento especial. El dispositivo es además portátil y el robot con el que se está experimentando es Asimo, la niña bonita de los humanoides de Honda.
El fabricante japonés no desveló cuánto dinero le ha costado el desarrollo de esta tecnología, con la que se espera que en el futuro se pueda encender el aire acondicionado o abrir la puerta del maletero cuando una persona se acerca a su coche con la compra. "Estamos en un nivel muy básico. Me temo que aún tendremos que esperar mucho tiempo para que un robot limpie la casa con tan sólo pensarlo", concluyó Tatsuya Okabe, ingeniero del HRI.
2009/02/13
Científicos canadienses logran leer la mente con un escáner de infrarrojos
Este sorprendente avance ha sido publicado en la revista The Journal of Neural Engineering donde explican como una nueva técnica desarrollada por investigadores canadienses y que utiliza la emisión infrarroja para su funcionamiento, tiene la capacidad de decodificar la preferencia de una persona al escoger una entre dos bebidas con un 80% de precisión.
“Este es el primer sistema que decodifica la preferencia natural de los pensamientos espontáneos”, dice Luu Sheena, de la Universidad de Toronto.
La mayoría de las interfaces cerebro-ordenador diseñadas para leer los pensamientos requieren formación. Por ejemplo, con el fin de indicar que sí a una pregunta, la persona tiene que hacer una tarea mental como cantar una canción en su cabeza.
Los nueve adultos de este nuevo estudio no han recibido ninguna formación, simplemente han evaluado ocho bebidas en una escala de uno a cinco.
El uso de una diadema equipado con fibra óptica que emite luz en la pre-corteza frontal del cerebro se utilizó para mostrar las dos bebidas a los voluntarios. “Cuando el cerebro está activo, el oxígeno en la sangre aumenta y en función de la concentración, se absorbe más o menos luz. En algunas personas, sus cerebros son más activos cuando no les gusta algo”, aseguró Luu.
En el futuro, Luu prevé la creación de un portátil, con un sensor infrarrojo colocado en la frente y mediante tecnología inalámbrica, abrir el mundo de la elección a los niños que no pueden hablar o moverse.
2009/01/14
Leyendo la mente
La neurociencia ha aprendido mucho acerca de la actividad del cerebro y sus enlaces hacia ciertos pensamientos. Tal y como comenta Lesley Stahl, del programa "60 Minutes" de la CBS, ahora podemos leer la mente de una persona, aunque a un nivel muy básico.
La tecnología que está transformando lo que antes era considerado ciencia ficción en pura ciencia es un uso especial del escaneado MRI llamado "MRI funcional" o fMRI. Permite ver qué es lo que está pasando dentro del cerebro mientras la gente piensa. Según palabras del neurocientífico Marcel Just, "cada vez que voy a la sala del escaner y veo aparecer el cerebro de la persona que estoy tratando en la pantalla, me parece increible ver esos patrones". A este proceso, le llama identificación de pensamientos.
Marcel Just ha colaborado con Tom Mitchell, director del primer departamento de Aprendizaje Automático del mundo, y uno de los mayores expertos en el tema, para combinar la habilidad del fMRI de permitir ver al cerebro en acción con la capacidad computacional de gestionar gigantescas cantidades de datos. El objetivo final era ver si se podía identificar lo que ocurre en el cerebro cuándo la gente piensa en algo concreto. Los resultados, tal y como se puede ver en el video anterior, son sorprendentes, y abren las puertas a una innumerable cantidad de aplicaciones que ahora no somos casi ni capaces de imaginar.