Buscar

Mostrando entradas con la etiqueta cerebro. Mostrar todas las entradas
Mostrando entradas con la etiqueta cerebro. Mostrar todas las entradas

2012/02/22

Los ‘cerebros’ digitales que vienen

Encender un portátil tan rápido como una bombilla o almacenar en el móvil la colección de música, fotos y vídeos de toda una vida. Ahora es impensable pero en cinco o diez años será casi una rutina. Al menos eso dicen los ingenieros que trabajan en desarrollar el sucesor de la memoria flash. Samsung, IBM y HP, entre otros, andan a la greña por ser los primeros en conseguirlo.
La memoria flash se ha convertido en el estándar de almacenamiento integrado en MP3, cámaras digitales, smartphones, tabletas y portátiles ultrafinos. También en los lápices USB y tarjetas extraibles de las que empresas como SanDisk venden 19 por segundo. Los discos duros tradicionales son más baratos pero lentos y sus platos giratorios y cabezales se estropean con el tiempo.
Los chips de memoria flash, en cambio, no utilizan piezas móviles y son el doble de rápidos que un disco duro. El problema es el precio. Los nuevos ultrabooks, por ejemplo, sustituyen el disco duro por unidades de estado sólido o SSD (solid-state drive, en inglés), basados en memoria flash, pero el coste (unos 100 euros por 128 gigas) empuja el precio final de los ordenadores por encima de los 1.000 euros.
“La memoria flash es fundamental porque los consumidores quieren almacenar cada vez más datos, música, fotos y aplicaciones. Los servicios de streaming y la nube no cubren esa demanda, siempre necesitarás memoria local para que la experiencia de usar un smartphone o un tablet sea fluida”, explica desde Nueva York Michael Morgan, analista de ABI Research.

Apple es el mayor comprador de memoria flash del mundo, la utiliza en casi todos sus productos, desde el iPod y el iPhone al iPad y los Macs. El trimestre pasado adquirió el 23% del total de memoria flash vendida a nivel mundial. La diferencia entre un iPad 2 de 16 gigas y uno de 32 son precisamente los 16 gigas extra de espacio. Apple cobra por ellos 100 euros más pero paga al fabricante solo 0,52 euros el giga (8,32 por 16 gigas), según Bernstein Research. Es decir, 91 euros limpios de polvo y paja. Un negocio redondo y, según los investigadores, con fecha de caducidad.
El motivo son los obstáculos a los que se enfrenta el almacenamiento flash. Además del precio está el tamaño, se ha llegado casi al límite con los chips de 20 nanómetros presentados por Intel y Samsung, que permiten albergar hasta un terabyte en el espacio de la yema de un dedo. Parece difícil ir más allá. Y luego está la calidad, si borramos y reescribimos la memoria flash más de 5.000 veces, empieza a fallar.
IBM lleva años investigando alternativas. Recientemente ha logrado reducir a 12 los átomos necesarios para almacenar un bit de información, creando memorias magnéticas a escala atómica capaces de acumular 160 veces más información por unidad de espacio que la memoria flash. Este avance podría desembocar en móviles y reproductores MP3 con varios terabytes de espacio.
Los ingenieros de IBM en Zurich trabajan también en las memorias PCM (phase-change memory, en inglés). Son cien veces más rápidas que las flash, soportan 10 millones de reescrituras y encima son más baratas de desarrollar. IBM apuesta por el 2016 para su comercialización.
Samsung y Micron Technologies han sido muy activos en demostrar el almacenamiento PCM como sustituto del flash. La firma coreana integró chips PCM de 512 megabits en móviles de gama baja y este año anunciará nuevos modelos más rápidos y potentes. Intel lleva desde el 2008 trabajando en este campo, pero todavía no ha anunciado fechas de venta.
HP es el otro contendiente con una tecnología denominada memristor. El científico Leon Chua sentó las bases teóricas del memristor en 1971 aunque no fue hasta el 2008 cuando los laboratorios de HP probaron su viabilidad. “Es un chip capaz de almacenar información sin corriente contínua, se podría aplicar a cualquier tipo de aparato. Estamos convencidos que a corto plazo sustituirá a la memoria flash y a las unidades de estado sólido”, aseguran fuentes de HP en España.
El memristor es 100 veces más rápido que la memoria flash, consume diez veces menos energía y necesita menos espacio, por lo que podría acabar en las tripas de eReaders y smartphones. A largo plazo aspira a sustituir a la memoria RAM, dando lugar a ordenadores de encendido instantáneo. HP y el fabricante Hynix aseguran que el memristor estará listo para el 2013.
No será fácil desbancar a la memoria flash, gigantes como Apple siguen apostando fuertemente por ella. La compañía confirmó la compra de la israelí Anobit por 390 millones de dólares (307 millones de euros), la segunda adquisición más grande de su historia después de NExT. Anobit, cuya web ya no está accesible, se dedica a mejorar la duración y fiabilidad de los chips de memoria flash
“Es una compra muy inteligente, Apple podrá ofrecer iPhones y iPads con mayor capacidad de almacenamiento y más barata que sus competidores”, explica Morgan, quien cree que el futuro de la memoria flash al final dependerá del coste de las tecnologías rivales. “Pasará al menos una década hasta que tengamos una alternativa igual de fiable, ubicua y barata”.

2012/01/30

Constatan que el cerebro asume mejor los milagros religiosos que otras ideas igual de imposibles

La mente humana detecta rápidamente cuándo algo es quimérico en el mundo real y, por alguna razón que aún se desconoce, el cerebro asimila mejor y encuentra menos sorprendente aquellas ideas imposibles que son religiosas, han constatado científicos españoles del Instituto de Salud Carlos III de Madrid.
Las conclusiones de este estudio se han publicado en la versión digital de la revista científica Social Neuroscience y está dirigido por Manuel Martín-Loeches, investigador del Instituto de Salud Carlos III y profesor de la Universidad Complutense de Madrid.

Martín-Loeches ha explicado que el cerebro detecta con mucha rapidez cuándo algo es imposible en el mundo real: "existen unas leyes físicas, biológicas y psíquicas que son sistemáticas, se descubren con apenas meses de edad y conocerlas es, precisamente, una de las razones clave para nuestra supervivencia".
En este sentido, está comprobado, ha asegurado, que para que un mito o un relato religioso tenga éxito se deben mezclar hechos posibles e imposibles, pues éstos últimos llaman la atención, elevan el interés, sorprenden, y la historia se recuerda más fácilmente. "Unas gotas de irrealidad, la dosis justa, garantizan el éxito de un relato", según este investigador.
Partiendo de esto, el equipo que dirige Martín-Loeches, quiso constatar si las ideas imposibles de los relatos religiosos tenían una naturaleza especial, algo que las hacía en el cerebro distintas.
Para explorar esta idea, los investigadores analizaron la actividad cerebral de un grupo de 30 personas mientras leían milagros e ideas imposibles extraídos de textos religiosos reales y compararon dicha actividad del cerebro con la obtenida mientras leían ideas imposibles pero no incluidas en textos religiosos.

Experimento con relatos poco conocidos

Para estar seguros de que las ideas o hechos imposibles religiosos no eran conocidos ni resultaban familiares a los voluntarios del estudio, se extrajeron de diversos relatos ajenos a la religión cristiana, imperante en la sociedad occidental. Así, de un total de 180 oraciones, los participantes tenían que decir si éstas eran o no posibles.
De cada oración, tres versiones: la religiosa ("de su mente surgió la luna" (en este caso extraída de textos védicos)); una similar pero ajena a los textos religiosos ("de su mente surgió la casa"); y una equivalente y posible ("de su mente surgió la idea").

El equipo de Martín-Loeches, para llegar a las conclusiones del estudio, lo que hizo fue analizar y medir la actividad cerebral de cada individuo ante la exposición y lectura de estas tres frases.
Para ello utilizó una medida de actividad cerebral que expresa la cantidad de incongruencia que el cerebro humano encuentra cuando lee o escucha una oración y que se conoce como "onda cerebral N400".
Se llama así porque se activa a las 400 milésimas de segundo tras escuchar una palabra que no encaja y su origen está en las redes cerebrales que conforman el conocimiento semántico, donde está almacenado el conocimiento del mundo y cómo funcionan las cosas.
Según Martín-Loeches, por alguna razón que aún permanece en la incógnita, los cerebros de los voluntarios encontraron menos sorprendentes las ideas imposibles religiosas que las imposibles no religiosas.
"El cerebro humano ve más aceptable, asimila mejor, que se muevan montañas a que se muevan edificios", según este psicólogo.
La religión, "consciente o no, habría utilizado preferentemente las ideas que el cerebro humano considera menos sorprendentes y, al no ser extravagantes, el éxito del relato religioso estaría garantizado".
Según este experto, ahora queda por determinar qué es lo que hace que unas ideas sean apropiadas para un mito religioso y cuáles no.
"Esto es lo que nos tiene locos, cuando lo sepamos será de gran valor en la búsqueda de los ingredientes de éxito para un texto", ha remachado el director de este estudio que saldrá publicado en papel en breve y en el que también ha participado Sabela Fondevila.

2012/01/13

Demuestran que la adicción a Internet deja su huella en el cerebro


Las personas adictas a Internet muestran cambios en el cerebro similares a los adictos a sustancias como drogas o alcohol. Al menos así lo demostró una reciente investigación llevada a cabo en China.
El estudio llevó a cabo escáneres cerebrales a jóvenes que padecían esta adicción a la web y encontró trastornos en las conexiones del cerebro.
Específicamente, se hallaron cambios en la materia blanca de las personas que sufrían de este trastorno.
Según señalan los científicos en la revista PLoS One, el hallazgo podría conducir a nuevos tratamientos para las conductas de este tipo.
La adicción a Internet ya es considerada un trastorno clínico que se presenta cuando el uso de la web se sale del control del individuo, indicó una nota de la BBC Mundo.
Detalles de la investigación
El estudio, dirigido por el doctor Hao Lei de la Academia de Ciencias China en Wuhan, sometió a 35 jóvenes de entre 14 y 21 años, hombres y mujeres, a escáneres cerebrales.
Entre estos, 17 fueron diagnosticados con Trastorno de Adicción a Internet (IAD) sobre la base de sus respuestas a preguntas como "¿Ha intentado repetidamente, sin éxito, controlar, reducir o detener su uso de la red?".
En la investigación, las imágenes de resonancia magnética (MRI) mostraron diferencias en los cerebros de los individuos con IAD.
Se observaron cambios en la materia blanca del cerebro, la parte del sistema nervioso central que contiene los axones, las fibras de las neuronas encargadas de conducir las señales nerviosas.
En particular, se encontró evidencia de trastornos en las conexiones en áreas del cerebro involucradas con las emociones, la toma de decisiones y el autocontrol.
"En general, nuestros hallazgos indican que el IAD presenta anormalidades en la integridad de la materia blanca en las regiones cerebrales que involucran la generación y procesamiento de emociones, atención, toma de decisiones y control cognitivo", explicó el doctor Hao Lei.
"Los resultados también sugieren que el IAD parece compartir los mecanismos psicológicos y neuronales de otros tipos de adicción a sustancias y otros trastornos de control de impulsos", agregó.
Por su parte, el profesor Gunter Schumann, especialista en psiquiatría biológica del Instituto de Psiquiatría del King´s College de Londres, afirmó que ya se han encontrado hallazgos similares en adictos a videojuegos.
En palabras citadas por la BBC Mundo, el científico apuntó que "por primera vez, dos estudios muestran cambios en las conexiones neuronales entre regiones del cerebro y también cambios en la función cerebral de personas que están frecuentemente usando Internet o videojuegos".
Y la doctora Henrietta Bowden-Jones, psiquiatra y profesora honoraria del Imperial College de Londres, afirmó que la investigación china es "revolucionaria".
"Finalmente se nos muestra que los expertos han sospechado desde hace tiempo: el hecho de que están presentes anormalidades en la corteza orbitofrontal y otras áreas verdaderamente importantes del cerebro, no sólo en adicciones donde están involucradas sustancias, sino también en las de conductas, como la adicción a Internet", amplió.
De todos modos, la experta admitió que ahora será necesario llevar a cabo investigaciones más amplias para confirmar estos resultados.
Y usted, ¿es adicto a la web?
Para saber si se padece de este trastorno, hay una serie de preguntas que sirven como guía:
  1. ¿Se siente preocupado por Internet?
  2. ¿Siente la necesidad de usarlo en periodos cada vez más largos para sentirse satisfecho?
  3. ¿Ha tratado repetidamente, sin éxito, de controlar, reducir o detener su uso?
  4. ¿Se siente estresado, malhumorado, deprimido o irritado cuando intenta reducir o evitar usar Internet?
  5. ¿Permanece conectado más tiempo del que intenta?
  6. ¿Ha arriesgado o puesto en peligro la pérdida de una relación, oportunidad laboral, educativa o profesional importante debido a la web?
  7. ¿Ha mentido a sus familiares, terapeuta u otros para ocultar la forma como se involucra con Internet?
  8. ¿Usa la red como una forma de escapar de problemas o de aliviar un mal estado de ánimo (por ejemplo, sentimientos de incapacidad, culpabilidad, ansiedad o depresión)?
Si usted responde "Sí" a las preguntas 1 al 5 y al menos una de las restantes, puede estar sufriendo de este trastorno, según el Cuestionario de Jóvenes para Diagnóstico de Adicción a Internet adaptado por Beard & Wolf, citado por la BBC Mundo.

2011/11/21

"Nuestro cerebro no ha cambiado en 100.000 años"

En 2100, una pantalla mural, Molly por darle un nombre, nos despertará con las noticias del día. Los sensores de la ducha comprobarán nuestro ADN y nivel de proteínas, veremos internet directamente en las lentes de contacto y un coche magnético sin conductor nos llevará a la oficina donde hologramas hipersofisticados nos trasladarán a cualquier parte del mundo. Por la noche ver el fútbol con los amigos ya no será sentarse en una pantalla sino trasladarse al propio campo gracias a imágenes en tres dimensiones. Y se podrán hacer las compras telepáticamente.
Según explica el físico estadounidense y experto divulgador Michio Kaku (San José, California, 1947) en La física del futuro (Mondadori), el futuro ya está aquí. Todos los inventos que alterarán nuestras vidas, según Kaku para bien, ya están inventados en los laboratorios más punteros de todo el mundo. E inevitablemente, tarde o temprano, y según un concurso de circunstancias no siempre muy científicas, acabarán por imponerse. La del autor de La física de lo imposible es una visión optimista, quizás excesivamente positiva, pero al fin y al cabo apabullante.
Kaku contestó a las preguntas de Público en la pequeña (caótica y abarrotada) oficina del City College de Nueva York donde desde hace 30 años ocupa la cátedra Henry Semat de Física Teórica.
Somos cada vez más conscientes de los cambios que se avecinan ¿El futuro va a llegar cada vez más rápido?
El conocimiento se multiplica por dos cada 20 años. En nuestra vida hemos acumulado más conocimiento que en toda la historia del mundo. Vivimos en un momento muy interesante. Ahora todo el mundo es más consciente de la ley de Moore, según la cual la potencia de los ordenadores se duplica más o menos cada 18 meses. Los teléfonos móviles, tipo iPhone, tienen más tecnología que la NASA en 1969 cuando mandaron a dos hombres a la Luna. Cuando ves las imágenes de la sala de control de la época hay que pensar que tenían procesadores de 64 K, y en el celular tienes gigabytes. En las tarjetas que te cantan el cumpleaños, el chip tiene más poder que todas las fuerzas aliadas de 1945. Stalin y Hitler hubieran matado, y de hecho lo hicieron, para tener ese pequeño chip. Y nosotros lo tiramos a la basura. Ese el poder de la teoría de Moore.

La mayoría de los inventos han sido financiados con dinero militar.
Sí. Internet fue creado en caso de guerra nuclear, por eso es tan abierto, porque los científicos lo crearon para reconstruir Estados Unidos después de una supuesta tercera guerra mundial. El GPS no se creó para que las madres localizaran a sus hijos sino para mandar misiles al Kremlin, por eso es tan preciso. Lo mismo pasa con los vehículos robotizados. Dentro de ocho años, Google espera poder vender un coche que se conduce a sí mismo mientras el conductor se relaja. Tendremos internet en las lentillas, podremos ver a la persona junto con sus datos personales, y también podrá actuar de traductor simultáneo. Ya tenemos un prototipo. Yo lo probé y, al mismo tiempo que miras, también puedes ver una imagen del campo de batalla, una evaluación de las fuerzas. Y todo eso se lo debemos a la investigación militar. Y hubo un momento crucial en que pasó a la esfera civil. En 1989, los científicos de la National Science Foundation de EEUU cedieron gratis los códigos de internet, así que antes de 1989 hubiéramos podido encontrarnos con un Gran Hermano, porque internet era un arma militar, pero después fue imposible porque todo el mundo tuvo acceso.
Pero no hay realmente una evolución lineal, muchas veces los descubrimientos son frutos del azar. 


Hace falta un concurso de circunstancias. Tomemos el ejemplo de Steve Jobs. Él no creó la gran mayoría de la tecnología que le hizo famoso, fue a Xerox Park, en Palo Alto, donde nació el primer PC, los primeros gráficos Windows, el ratón, las impresoras láser, es decir, lo que iba a marcar la informática en los siguientes 30 años. Jobs dijo que eso era el futuro y puso dinero para promocionar estos inventos. La lección es que se necesita un conjunto de cosas. Inversores, empresarios, genios y sobre todo un mercado. A veces funciona y a veces no pero la lección es que siempre hay que ir adelante. Porque si decides ignorar la tecnología, la tecnología termina por arrollarte. Es el caso de la industria discográfica, que pensó que la gente siempre compraría CD, o de MerrillLynch, que también pensó que sus clientes comprarían acciones como siempre y les pasó encima el buldózer tecnológico. Ahora Apple dicta el futuro de la industria y la gente compra acciones por internet, y todo eso porque en su momento decidieron ignorar lo que más miedo les daba.
Los inventos van a relegar algunas profesiones a la irrelevancia...
Tomemos el ejemplo de la prensa. Existe en estos momentos un papel electrónico flexible. Será plegable, como un rollo de papel, lo podremos poner en nuestro bolsillo, apretar un botón y tener a tu disposición toda la biblioteca del Congreso. Eso va a crear un nuevo equilibrio. Antes los diarios se ganaban la vida con los anuncios. Eso ya ha desaparecido, pero lo que no ha desaparecido es la necesidad de tener una fuente fiable de información. Los diarios venderán sabiduría, un producto que no abunda en internet, donde hay mucha basura. Seguirá habiendo necesidad de información en la que puedes confiar para tomar tus decisiones, pero el modelo económico y tecnológico habrá cambiado. Es como el teatro. Seguirá habiendo teatro porque lo necesitamos, el cavernícola que llevamos dentro necesita ver actores en carne y hueso. Estas cosas permanecerán pero con una función distinta. Tenemos ahora más caballos que en el siglo XIX pero no para transportarnos sino para uso recreativo.
Si seguimos delegando funciones, los humanos vamos a cambiar.
Si y no. Y vuelvo a mencionar lo del cavernícola. Nuestro cerebro no ha cambiado en los últimos 100.000 años. Las oficinas no han desaparecido, como se pensaba, porque necesitamos pruebas tangibles de los resultados, saber que hemos matado a la presa que cazábamos de alguna forma, no confiamos en esos electrones que bailan en las pantallas de los ordenadores y que desaparecen en un clic. Las ciudades tampoco han desaparecido porque somos animales sociales. Si eres jefe quieres decirle a tu empleado cara a cara lo que piensas. No puedes hacer eso en una pantalla. La gente seguirá acudiendo a sus oficinas y las compañías preferirán establecer sus sedes en sitios como Nueva York.

Diseñan chip que ambiciona funcionar como el cerebro

Centíficos se acercan al sueño de crear sistemas informáticos que pueden simular el cerebro.
Investigadores del Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés) diseñaron un chip de computadora que imita la forma en que las neuronas cerebrales se adaptan y reaccionan ante nueva información y nuevos estímulos.

Chips de ese tipo podrían eventualmente ayudar a la comunicación entre partes corporales creadas artificialmente y el cerebro.
De acuerdo con expertos, también podría allanar el camino para la fabricación de dispositivos basados en la inteligencia artificial.
Existen alrededor de 100.000 millones de neuronas en el cerebro, cada una de las cuales forma sinapsis con muchas otras neuronas.
Las sinapsis son conexiones entre neuronas que permiten que la información fluya en el cerebro.
El proceso es conocido como plasticidad neuronal y se cree que es el sustento de muchas de las funciones del cerebro, tales como el aprendizaje y la memoria.

Funciones neuronales

El equipo del MIT, dirigido por el científico Chi Sang Poon, diseñó un chip de computadora que puede simular la actividad de una sinapsis cerebral, la cual depende de los llamados canales de iones que controlan el flujo de átomos cargados como el sodio, el potasio y el calcio.
El "chip cerebral" tiene alrededor de 400 transistores que buscan imitar el circuito del cerebro.
La corriente fluye a través de los transistores de la misma manera que los iones se movilizan por los canales de iones en una célula cerebral.
"Nosotros podemos modificar los parámetros del circuito para que coincidan con los canales de iones específicos. Ahora tenemos una forma de capturar cada proceso de intercambio de iones que se produce en una neurona", indicó Poon.

Biología

Un grupo de neurobiólogos se mostró impresionado.
Esto representa "un avance importante en los esfuerzos por incorporar lo que conocemos sobre la biología de las neuronas y la plasticidad sináptica en chips", señaló Dean Buonomano, un profesor neurobiología de la Universidad de California.
"El nivel de realismo biológico es impresionante", añadió.
El equipo de investigadores planea usar el chip para construir sistemas que modelen funciones neuronales específicas, como los procesos visuales.
Dichos sistemas podrían ser mucho más rápidos que las computadoras, que tardan horas o incluso horas para simular un circuito cerebral.
El chip podría llegar a ser más rápido que el mismo proceso biológico.

Los límites del cerebro humano frente a las exigencias de la era digital

Uno de los requisitos para muchos trabajadores en el mercado laboral moderno es tener la habilidad de poder realizar tareas múltiples simultáneamente (lo que en inglés llaman multi-tasking).
El poder sostener una conversación telefónica mientras se lee un correo electrónico al tiempo que se envía un mensaje de twitter es un escenario común hoy en día. Y todo eso se lleva a cabo en medio de un creciente e ilimitado océano de información que nos llega en todas direcciones y estimula todos los sentidos.

Pero el cerebro humano no está hecho para funcionar eficientemente en ese entorno, coinciden la mayoría de los expertos, y esperar a que evolucione para hacerlo probablemente tomaría decenas de miles de años.
Así que lo que nuestra "central de comando" está haciendo es rediseñando sus funciones para adaptarse a las realidades de la era digital. Pero hay que hacerlo con equilibrio, advierten los neurólogos.

Lo uno por lo otro

"Técnicamente no podemos dar igual atención a dos tareas cognitivas exigentes", afirmó a BBC Mundo Edward Hallowell, autor y psiquiatra de niños y adultos con consultorios en Nueva York y Boston.

Hallowell dice que cuando alguien se refiere a hacer tareas múltiples simultáneas, lo que está haciendo es cambiar rápidamente su foco de atención de una tarea a otra.
Reconoce que actividades relativamente sencillas como caminar y hablar se pueden realizar al mismo tiempo pero, en el momento en que se vuelven más complejas se diluye el poder de concentración.
"No podemos leer a Shakespeare y aprender física cuántica al mismo tiempo", sentenció.

Mejoras de aprendizaje

La doctora Ladan Shams, experta en integración multisensorial de la Universidad de California, en Los Ángeles, coincide en que el multi-tasking afecta el proceso de aprendizaje en tareas que requieren atención completa. En unos casos no se aprende y en otros el aprendizaje no es robusto.
"Pero, recientemente, hemos visto que otros tipos de aprendizaje sí se benefician del multi-tasking", señaló la neurocientífica.
"Algunas mejoras pueden ocurrir en procesos sensoriales cuando el estímulo es subliminal y el individuo está ocupado en otra tarea".
Un ejemplo de esto puede ser cuando un ejecutivo encuentra que puede dictar un memorando con mayor facilidad si está arrojando una pelotita al aire y atrapándola una y otra vez.
Lo que parecería que está sucediendo es que una parte del cerebro que podría distraer al individuo de su principal tarea está siendo ocupada por la actividad de arrojar las pelotitas, teniendo el efecto de aumentar su concentración en el dictado.
"También hemos encontrado que tres tipos de aprendizaje pueden ocurrir simultáneamente", indicó la doctora Shams.
En un experimento sometieron a sujetos a escuchar una secuencia de sonidos al tiempo que veían una serie de formas en una pantalla.
Los sujetos pudieron aprender las secuencias auditivas y las secuencias visuales, así como aprender a asociar las formas con los sonidos.
"En otras palabras, tres tipos de aprendizaje ocurrieron simultáneamente sin que hubiese una reducción comparado a cuando se les presentó cada estímulo (auditivo o sonoro) individualmente", explicó la doctora.

Malabares

No obstante, para el psiquiatra Edward Hallowell, todo depende de la cantidad de información que se esté manejando.
"Tome un operador de una torre de control. Ellos están poniendo atención a todo tipo de información al tiempo que dirigiendo a los pilotos para que aterricen sanos y salvos", expresó. "Llega un momento en que si tienen demasiados aviones, no pueden hacerlo".
"Hay un límite a la cantidad de bolas que un malabarista puede mantener en el aire", recalcó.
La neurociencia señala que nuestro cerebro evolucionó para un mundo muy diferente al que habitamos ahora. No está optimizado para realizar muchas de las tareas que enfrentamos, ya sea computar cálculos numéricos o recordar los nombres de todas las personas que conocemos diariamente.
Tampoco está diseñado para absorber y almacenar las masivas cantidades de información a la que estamos expuestos hoy en día.
Pero no podemos esperar a que el cerebro evolucione físicamente para desarrollar mecanismos que le permitan manejar la marejada de información. Eso tomaría decenas de miles de años.
"Lo que se es más probable es que aprendamos a adaptar nuestras presentaciones de información para explotar las capacidades ya existentes del cerebro", aseguró Ladan Shams.

Neuroretroalimentación

Esa es la filosofía (y la ciencia) que está detrás de los que hace el Dr. Eran Zeidel, colega de Shams en la Universidad de California.
"El cerebro básicamente es producto de un hojalatero más que de un ingeniero", afirmó Zeider a BBC Mundo. "Como no podemos esperar a que evolucione, tenemos que rediseñarlo y tenemos cómo hacerlo".
El doctor Zeidel trabaja sobre una forma de bioretroalimentación para el cerebro que llama neuroretroalimentación.
De la misma manera en que se pueden modificar funciones corporales -como la presión arterial- a través de la conversación placentera con un paciente, igualmente se pueden alterar las frecuencias del cerebro.
"Paso de afectar el sistema nervioso periférico (con la bioretroalimentación) a cambiar el sistema nervioso central (con la neuroretroalimentación)", continuó.
"Con la neuroretroalimentación puedo cambiar el estado del cerebro a lo que quiera y eso abre las puertas a cómo procesamos la información", manifestó Zeidel.
Eso permitiría, por ejemplo, que el cerebro podría utilizar filtros para descartar la información que no considera necesaria para la tarea que está desempeñando, liberando así otros espacios y volviéndolo más potente.
"Estamos desarrollándonos en nuevas maneras creativas, fantásticas e interesantes", comentó al respecto el psiquiatra Edward Hallowell.
"Estamos desarrollando nuevas redes neuronales para procesar información rápidamente", dijo. "Pero lo que añadimos en velocidad perdemos en profundidad".
Hallowell advierte que no debemos perder de vista cuando se necesita concentración. "Cuando necesitamos concentrarnos debemos abandonar las tareas múltiples".
"Si vamos manejando un auto, escuchando música, y nos perdemos, ¿qué hacemos?", se pregunta. "Bajamos la música para recuperar la concentración".                    

2011/11/18

Adolescentes aficionados a videojuegos tienen diferente estructura cerebral

Una investigación sugiere que los adolescentes que gastan horas en videojuegos tendrían una estructura cerebral similar a la de los adictos a los juegos de azar, según un artículo publicado el 15 de noviembre en el periódico británico Daily Mail.

El estudio centrado en adolescentes de 14 años de edad señaló que los que juegan con frecuencia tienen un mayor “centro de recompensa” en su cerebro que los que juegan menos frecuentemente.

Los escáneres cerebrales mostraron que los que juegan durante más de nueve horas a la semana producen más dopamina, la cual genera una “sensación de placer”.

Producen aún más este tipo de sustancia química cuando pierden el juego. Lo mismo ocurre con los jugadores patológicos, la cual es precisamente la causa que les impide detenerse a pesar de perder continuamente.

Los videojuegos también tienden a reducir el tiempo de decisión –una habilidad clave para ser bueno en ellos-, lo cual es también una característica de los jugadores.

Los investigadores no saben si son los juegos los que han provocado el cambio en la estructura cerebral, o si es que las personas nacen con esa diferencia en la estructura cerebral y eso las hace querer pasar horas jugando.

No obstante, este descubrimiento es un primer paso crucial en la comprensión sobre los videojuegos y las adicciones, señalaron los investigadores.

Este estudio, publicado en la revista Translational Psychiatry, es el primero en conectar la exposición frecuente a los videojuegos y las diferencias en la estructura y actividad cerebrales.

El Dr. Simon Kuhn de la Universidad de Gante en Bélgica y sus colegas en el Reino Unido y Alemania, analizaron los resultados de escáneres cerebrales de más de 150 adolescentes que juegan mucho o moderadamente.

Los que jugaron mucho tenían el estriado ventral más grande, que es un área de recompensa que se activa cuando experimentamos placer, por ejemplo, al ganar dinero, comer chocolate o tener relaciones sexuales.

El doctor Luke Clark, que investiga los juegos de azar en la Universidad de Cambridge, dijo: “El estriado ventral es el núcleo del sistema de recompensa y pone a los videojuegos en la esfera de las adicciones”.

“Sabemos que el cerebro puede cambiar en la edad adulta, pero el problema urgente es aclarar si el videojuego es la causa o el efecto del cambio, y todavía no hay respuesta para ello”, añadió.

2011/11/16

Los jugadores adolescentes, con mayor desarrollo de la materia gris

Un estudio titulado “The neural basis of video gaming” y publicado en la revista Translational Psychiatry determina que los videojuegos pueden incrementar el volumen de materia gris en una parte relevante del cerebro.
A esta conclusión se llega a partir del análisis de 154 adolescentes de 14 años de edad consumidores de videojuegos que, en comparación con otros no jugadores, presentan niveles de actividad diferentes en el cerebro.
Los investigadores Simone Kuehn de la Universidad Ghent de Bélgica y Juergen Gallinat de la Universidad de Medicina de Alemania anotan  los juegos pueden modificar al ser humano y a tareas como la comprensión.
Ésta no es la primera vez que un estudio destaca una posible ventaja del ocio digital sobre los seres humanos, pero sí una ocasión que se diferencia de los estudios habituales sobre violencia y videojuegos.

2011/11/14

La extraña historia de la lobotomía

Hace 75 años, en Estados Unidos, se llevó a cabo un proceso que un psiquiatra describe como "meter una aguja en el cerebro y agitarla": la lobotomía. ¿Cómo llegó a ser considerada una cura mágica?

En las profundidades de los archivos de la Colección Wellcome de Londres, ese magnífico tesoro oculto de curiosidades médicas, hay una pequeña caja blanca de cartón.
Adentro hay un par de aparatos médicos. Son sencillos. Cada uno consiste en una barra de acero de 8cm, con un mango de madera.
"Estas horripilantes cosas son instrumentos de lobotomía. Nada sofisticado", dice el archivista Lesley Hall.
Estas barras alguna vez representaron lo más avanzado de la ciencia psiquiátrica. Eran las herramientas operativas de la lobotomía, también conocida como leucotomía, una operación que era considerada como una cura milagrosa para una variedad de enfermedades mentales.
Por miles de años la humanidad había practicado la trepanación, agujereando el cráneo para dejar salir a los espíritus malvados.
La idea de la lobotomía era diferente. El neurólogo portugués Egas Moniz creía que los pacientes con conductas obsesivas sufrían de problemas en los circuitos del cerebro.
En 1935, en un hospital de Lisboa, pensó haber encontrado la solución. "Decidí cortar las fibras conectivas de las neuronas activas", escribió en una monografía titulada "Cómo llegué a hacer una leucotomía frontal".

Su técnica original fue adaptada por otros, pero la idea básica se mantuvo.
Los cirujanos perforaban un par de huecos en el cráneo, ya sea en un lado o en la parte superior, e introducían un instrumento afilado -un leucotomo- en el cerebro.
El cirujano luego lo movía de un lado a otro para cortar las conecciones entre los lóbulos frontales y el resto del cerebro.
Moniz reportó mejoras dramáticas en sus primeros 20 pacientes. La operación fue acogida con entusiasmo por el neurólogo estadounidense Walter Freeman, quien se convirtió en un evangelista del proceso. Fue él quien hizo la primera lobotomía en Estados Unidos en 1936, y luego la divulgó por el mundo entero.
Desde principios de la década de los '40, empezó a ser vista como una cura milagrosa en el Reino Unido, donde los cirujanos ejecutaron proporcionalmente más lobotomías que EE.UU.
A pesar de la oposición de algunos doctores -particularmente los psicoanalistas- se convirtió en parte integral de la psiquiatría.
La razón de su popularidad era simple: la alternativa era peor.
"Cuando visitaba hospitales de salud mental... veía camisas de fuerza, celdas acolchonadas, y era patente que algunos pacientes eran -siento tener que decirlo- sujetos a violencia física", recuerda el neurocirujano retirado Jason Brice.
El chance de una cura a través de la lobotomía parecía preferible a una cadena perpetua en una institución.
"Esperábamos que ofreciera una salida", dice Brice. "Esperábamos que ayudaría".

Miles y miles

La operación se volvió tan popular que había doctores , como el británico Sir Wylie McKissock, que llegaron a hacer miles.
Terry Gould, quien trabajó con McKissock como anestesista, piensa que su antiguo jefe llevó a cabo unas 3.000.
"Era un proceso que tomaba cinco minutos", y McKissock -cuenta Gould- se prestaba para hacerlas hasta en los fines de semana.
"Iba a otros hospitales en la mañana de un sábado, hacía tres o cuatro leucotomías, y regresaba".
Según Brice, la operación podía tener resultados dramáticos en algunos pacientes, pero cada vez tenía más dudas al respecto, especialmente cuando se trataba de pacientes con esquizofrenia.
El psiquiatra John Pippard le hizo seguimiento a varios cientos de pacientes de McKissock y encontró que alrededor de un tercio se benefició, a un tercio no le afectó y el otro tercio empeoró.
A pesar de que él mismo había autorizado lobotomías, luego se opuso a su práctica.
"No creo que ninguno de nosotros estabamos realmente cómodos poniendo una aguja en el cerebro y agitándola".
En 1949, Egas Moniz ganó el premio Nobel por inventarse la lobotomía, y la operación llegó a la cima de su popularidad.
Pero a partir de mediados de los '50, rápidamente cayó en desgracia, en parte porque los resultados eran pobres y en parte gracias a la introducción de la primera ola de medicamentos psiquiátricos efectivos.
Décadas más tarde, cuando trabajaba como enfermero psiquiátrico en una institución, Henry Marsh cuidaba pacientes a los que se les hizo lobotomías.
"Eran esquizofrénicos crónicos y eran a menudo los más apáticos, lentos y acabados", dice.
Marsh, quien hoy en día es un eminente neurocirujano, dice que la operación sencillamente era mala ciencia. "Era muy mala medicina, mala ciencia, pues era claro que nunca se le hizo seguimiento apropiado a los pacientes".
"Si uno veía al paciente después de la operación, parecía que estaba bien: hablaba, caminaba y le decía 'gracias' al doctor", observa.
"El hecho de que los habían arruinado totalmente como seres humanos sociables probablemente no importaba".

2011/11/11

El cerebro humano no entiende de soportes

Existe la noción de que la lectura en papel es más fácil que la realizada con un lector de libros electrónicos. Un estudio realizado por la Universidad Johannes Gutenberg de Maguncia (Alemania) destierra esta teoría y especifica que, pese al escepticismo que aún sigue despertando la lectura digital, no hay un motivo real para ello. El estudio analizó las diferencias en la lectura a través de un ereader (Kindle),una tableta (iPad) y un libro en papel. Cada participante leyó varios textos con distintos niveles de complejidad en los diferentes formatos. Los procesos neuronales de los participantes durante la lectura se evaluaron midiendo los movimientos oculares y la actividad cerebral, analizando el comportamiento ante la lectura, la comprensión de textos y la retentiva de datos.
El estudio mostró que, a pesar de los prejuicios expuestos por los participantes, en realidad no había ninguna diferencia en términos de rendimiento entre la lectura en papel y con un lector digital. "Hemos demostrado que la preferencia subjetiva por el libro impreso no es un indicador de lo rápido que se procesa la información", explica el profesor Schlesewsky, jefe de investigación de lingüística de la Universidad.
De hecho, según las pruebas, las tabletas proporcionan una ventaja sobre los ereaders y los libros impresos de la que los usuarios no son conscientes: la información se procesa con mayor facilidad cuando se emplea una tableta. Además, aunque no hubo diferencias entre los medios empleados en cuanto a tasas de lectura entre los participantes más jóvenes, los mayores mostraron que leían más rápido cuando utilizaban una tableta.

2011/10/31

Localizada la zona del cerebro que regula la adicción

Neurocientíficos de la Universidad de Berkeley (EEUU) han localizado las zonas del cerebro donde se llevan a cabo los cálculos que pueden conllevar un comportamiento adictivo y compulsivo. Según publican hoy en Nature Neuroscience, la actividad de las neuronas situadas en las corteza orbitofrontal y la corteza cingular anterior del cerebro es la que regula estas decisiones.
El hallazgo podría abrir las puertas al desarrollo de nuevos tratamientos específicos tanto para el tratamiento de las adicciones como para el de los trastornos obsesivo-compulsivos. "Cuanto más entendamos el circuito cerebral donde se toman las decisiones, más sabremos hacia dónde dirigir las terapias, tanto si son farmacológicas, como de comportamiento o basadas en estimulación cerebral profunda", explicó en un comunicado Jonathan Wallis, investigador principal del estudio.
La identificación de estas dos áreas no fue casual. Los autores decidieron analizarlas basándose en hallazgos previos, que habían demostrado que los pacientes con daño cerebral en esa zona mostraban problemas a la hora de tomar decisiones. Así, explican, las elecciones que hacían de forma rutinaria creaban un caos en sus vidas. Una dinámica similar se observaba en adictos crónicos a las drogas, alcohólicos y afectados por trastornos obsesivo-compulsivos. "Se divorcian, dejan sus trabajos y pierden todos su dinero", afirmó Wallis. "Todas sus decisiones son erróneas".
Para demostrar su hipótesis, los investigadores midieron la actividad neuronal de un grupo de macacos mientras identificaban, en fotografías, que comportamientos requerían de una mayor capacidad de juicio. Pronto aprendieron cuáles eran las actividades fotografiadas que más requerían de una decisión fundamentada en un juicio de valor, lo que permitió a los autores observar qué cálculos hacían los monos ante las imágenes y, sobre todo, qué parte del cerebro se activaba entonces.
Lo que observaron es que en la corteza orbitofrontal se regulaban la actividad neuronal según el valor de una decisión; por ejemplo, el comportamiento de las neuronas cambiaba según se tomaba una decisión con implicaciones u otra sin importancia. En los monos con esta zona dañada, la importancia de la decisión no influía en la actividad neuronal. En la corteza cingular, lo que regula es la memoria sobre las malas decisiones, lo que hace que alguien con daños en la zona cometa el mismo error una y otra vez. 

2011/10/19

"Quizá nunca entendamos el cerebro"

De los galardonados de este año con los Premios Príncipe de Asturias, el neurobiólogo estadounidense Joseph Altman fue el primero en llegar a Oviedo. Su teoría, que demostró que las nuevas neuronas desempeñan un papel crucial en los procesos de la memoria y el aprendizaje, tardó años en ser aceptada por la comunidad científica.
El reconocimiento de sus investigaciones llegó tarde. ¿Se sintió relegado?
Al contrario, es una sensación de recompensa. No hay nada que dé más satisfacción a un científico que ver citado su trabajo y que se deje de citar cuando se ha convertido en algo de dominio público, que es lo que ha sucedido ahora.
Siempre se ha dicho que el cerebro es el gran desconocido. ¿Sigue siéndolo?
Hemos avanzado mucho en los últimos 50 años. Hace 300 o 400 era una teoría algo loca que el cerebro tuviera algo que ver con la mente. Ahora lo comprendemos bastante más, pero puede que tardemos otros cien o mil años, o quizá no lleguemos nunca a comprenderlo.
¿Cuál considera que es el descubrimiento científico más importante en torno al cerebro?
Posiblemente no exista un solo descubrimiento. Habrá cinco que se sabe que serán enormes y otros cinco a los que nadie preste atención y que puede que sean importantes. Se están llevando a cabo muchos y buenos trabajos, y yo desconozco gran parte de ellos.
Hay un cierto debate sobre las actividades que activan la neurogénesis. ¿Usted considera que el aprendizaje de idiomas u otro tipo de ejercicios mentales ayudan a la regeneración neuronal?
No lo sé. Hay algunas afirmaciones que se mantendrán en el futuro, pero otras van a desaparecer.
¿Estamos cerca de prevenir o curar enfermedades degenerativas como el alzhéimer o el párkinson?
Hay que seguir trabajando. Lo que nosotros hemos establecido es que el cerebro es mucho más dinámico y tiene mayor capacidad de regeneración de lo que se creía. Ahora bien, saber cómo se va a trasladar esto a aplicaciones prácticas es un interrogante abierto.
¿Son las drogas y el alcohol los grandes enemigos del cerebro?
Probablemente, no. No es cierto que a mayor tasa de alcoholismo o de consumo de drogas haya más trastornos psiquiátricos. 

"Existen caminos para reemplazar las células"

Arturo Álvarez-Buylla se pasó el día de ayer recorriendo los Picos de Europa, redescubriendo así la tierra de su padre, a la que se siente íntimamente ligado. Aunque, cuando habla de temas personales, se le quiebra la voz, el mexicano recupera toda la firmeza al hablar de ciencia, la senda que le marcó su padre porque era mucho más segura que la política, pero igual de útil y vocacional. Este bioneurólogo es experto en neurogénesis, la capacidad del ser humano de producir células del sistema nervioso central, como las neuronas.
¿Cuáles son los últimos avances en el terreno de la neurogénesis?
Este mismo mes describimos en Nature el proceso de neurogénesis en niños muy jóvenes y vemos que decrece muy rápidamente en el primer año de edad. Pero lo importante es que hemos encontrado un camino nuevo migratorio de células del sistema nervioso, también en bebés de menos de seis meses. Es intrigante que suceda esto en humanos.
¿Qué puede implicar este hallazgo?
Lo que nosotros estudiamos es ciencia básica. Es importante para entender nuestro crecimiento en general. Después se podrá ir aplicando. Es posible que haya enfermedades relacionadas con estas interneuronas y que puedan llegar a curarse.
¿Puede que la clave para curar enfermedades neuronales degenerativas esté en el propio cerebro?
En parte, sí. Lo que buscamos es la causa de que mueran esas células que están en el cerebro. Pero es muy prematuro pensar que el germen que ayudará a regenerar esas células que mueren esté dentro del cerebro, que alguien pueda volver a generar las células que se desarrollaron cuando era un embrión.
¿Podemos decir que la neurogénesis en adultos puede ser la clave para la curación de enfermedades neurodegenerativas?
Lo importante es que la neurogénesis puede suceder en adultos. Estuvimos un siglo pensando que esto no podía suceder. Pero hay células madre que pueden migrar y, si se pudiera inducir un circuito, se las podría dirigir para corregir anomalías. Es lo que soñamos todos los que trabajamos con el sistema nervioso. Sabemos que existen nuevos caminos para reemplazar las células, pero llevará años conseguir algo concreto, porque sólo probar un medicamento implica un proceso muy largo.

"Todo el mundo tiene el mecanismo de empatía"

La curiosidad caracteriza al neurobiólogo italiano Giacomo Rizzolatti, que se interesó por lo que albergaba originalmente el Hotel La Reconquista, en Oviedo, y su patio interior, y se sorprendió cuando supo que el edificio se concibió como un hospicio. El padre de las neuronas espejo irradia pasión, amor por lo que hace y también interés por divulgar.
¿Estamos en una sociedad que actúa básicamente por imitación?
No creo, pero depende de lo que se entienda por imitación. Por ejemplo, en las escuelas no permiten que los alumnos imiten, prefieren que sean creativos. Aún así, la imitación está en todas partes.
¿Cree que en el proceso de aprendizaje tiene más importancia la práctica que la teoría?
Se aprende de ambas formas. Creo que lo interesante de las neuronas espejo no son las imitaciones. Es la capacidad de comprender a la gente de forma automática, empática y emocional.
¿Se pueden fomentar el uso de las neuronas espejo como técnica pedagógica?
Hasta la fecha se ha utilizado sólo en estudios preliminares. Los pacientes de un ictus, por ejemplo, ven a alguien llevar algo a cabo y también lo hacen y, así, se pueden recuperar antes.
¿El ser humano recurre a la imitación toda la vida o es más fácil para los niños?
Aunque no somos máquinas de imitación, es algo importante, primordial en la infancia, pero también en la edad adulta. En un estudio reciente se demostró que se aprende a bailar mejor con el sistema de espejo. Los que lo usan, tienen esas neuronas más desarrolladas.
La falta de de neuronas espejo explica el autismo
En este tema hay que ir con mucha cautela. Los hay que exageran. El autismo no es sólo un sistema de neuronas espejo estropeado. Es mas complejo. En mi opinión, es un problema del sistema motriz. Por eso sabremos más cuando la enfermedad se detecte en el primer año de vida del niño cuando no esté desarrollada la movilidad, que es hacia donde van encaminadas las investigaciones.
¿El ser humano es empático por naturaleza?
Hemos descubierto que todo el mundo tiene el mecanismo de la empatía, excepto algunas personas muy concretas. Es lo que nos pone en contacto con todos, en primer lugar con la madre. Ahora la clave está en qué hacer con este enlace. 

2011/10/10

El cerebro prefiere ser optimista

Se defienden los pesimistas diciendo que ellos son "optimistas bien informados". Pero en realidad nuestra elección sobre ser optimismo o pesimismo es más pequeña de lo que creemos. Es el cerebro el que decide por nosotros, y al cerebro le gusta pensar bien, básicamente porque es más saludable.

Científicos del University College de Londres (Reino Unido) han descubierto que el cerebro es muy bueno procesando buenas noticias sobre el futuro, hasta el punto de que puede ignorar información negativa y de ese modo seguir manteniendo una visión positiva de las cosas.

Y es que, según el estudio que estos investigadores publican en la revista Nature Neuroscience, el optimismo tiene importantes beneficios para la salud. Tal vez por eso, según sus cálculos, un 80% de las personas son optimistas, aunque ni ellos mismos se consideren así.

El cerebro escoge

Para su estudio, del que informa la BBC, los científicos ingleses evaluaron a 14 personas por su nivel de optimismo y los pusieron a prueba con un escáner cerebral.
Los lóbulos frontales del cerebro están asociados con los errores de procesamiento. Cuando la noticia fue positiva, todas las personas tuvieron más actividad en estos lóbulos frontales.

Con la información negativa, los más optimistas tenían menor actividad en los lóbulos frontales, mientras que los menos optimistas tuvieron más.

Esto sugiere que el cerebro está escogiendo y seleccionando lo que quiere escuchar, lo que quiere saber. El cerebro prefiere ser optimista porque parece ser bueno para la salud.

Ser optimista es sano

Un estudio anterior de la Universidad de Pittsburgh sobre casi 100.000 mujeres mostró un riesgo menor de enfermedad cardíaca y muerte en los optimistas
Según Tali Sharot, director de la investigación, "los mensajes de que fumar mata no funcionan porque la gente piensa que su probabilidad de contraer cáncer es muy baja. La tasa de divorcios es del 50% pero las personas piensan que no les va a ocurrir a ellos".

Es decir, el cerebro a veces es muy optimista pese a las evidencias en contra. El problema, subraya Sharot, es que subestiman los riesgos.

El cerebro rechaza los pensamientos negativos

Una de las razones por la que los optimistas mantienen una actitud positiva incluso cuando no hay motivos ha sido descubierta, revelaron investigadores.
Según un estudio, publicado en la revista Nature Neuroscience, el cerebro es muy bueno procesando buenas noticias sobre el futuro.

Sin embargo en algunas personas, cualquier cosa negativa es prácticamente ignorada -manteniendo con ello una visión positiva del mundo.
Los autores aseguran que el optimismo tienen beneficios importantes para la salud.

El estudio

Científicos del University College de Londres dicen que alrededor de 80% de las personas son optimistas, aunque no se etiqueten como tal.
Evaluaron a 14 personas por su nivel de optimismo y los pusieron a prueba con un escáner cerebral.
A cada uno se le preguntó qué tan probable era que sucedieran 80 diferentes "eventos malos" -como un divorcio o padecer cáncer.
Luego se les dijo la verdadera probabilidad de que sucediera. Al final de la sesión, se les pidió a los participantes que calificaran las probabilidades de nuevo.

En los resultados actualizados de los optimistas hubo una marcada diferencia dependiendo de si en la realidad era una buena o mala noticia.
El investigador principal, Tali Sharot, dio el ejemplo de los riesgos de cáncer fijados en 30%.
Si el paciente creyó que su riesgo era de 40%, entonces al final del experimento rebajó su propio riesgo alrededor del 31%, dijo.
Sin embargo, si el paciente pensaba originalmente que el riesgo era del 10%, sólo aumentó marginalmente el riesgo -lo "inclinó un poco, pero no mucho".

Felices por elección

Cuando la noticia fue positiva, todas las personas tuvieron más actividad en los lóbulos frontales del cerebro, que están asociados con los errores de procesamiento.
Con la información negativa, los más optimistas tenían menor actividad en los lóbulos frontales, mientras que los menos optimistas tuvieron más.
Esto sugiere que el cerebro está escogiendo y seleccionando lo que quiere escuchar.
Sharot dijo: "Los mensajes de que fumar mata no funcionan porque la gente piensa que sus probabilidades de contraer cáncer son muy bajas. La tasa de divorcios es del 50% pero las personas no piensan que sea para ellos. Hay un sesgo muy fundamental en el cerebro".
El doctor Chris Chambers, neurocientífico de la Universidad de Cardiff, dijo: "Para mí, este trabajo destaca algo que se está volviendo cada vez más evidente en la neurociencia, que una parte importante de la función cerebral en la toma de decisiones es probar las predicciones contra la realidad - en esencia, todas las personas son "científicos".
"Y a pesar de cuan sofisticadas son estas redes neuronales, es iluminador ver cómo el cerebro a veces viene con respuestas incorrectas y demasiado optimistas a pesar de la evidencia".
Así, el optimismo parece ser bueno para la salud. Un estudio sobre casi 100.000 mujeres mostró un riesgo menor de enfermedad cardíaca y muerte en los optimistas.
Pero como Sharot señala: "El aspecto negativo es que subestiman los riesgos".

2011/10/07

El cerebro humano artificial de IBM será realidad en una década

No contentos con haber construido una máquina capaz de ganar el concurso televisivo Jeopardy! prácticamente sin esforzarse, los ingenieros de International Business Machines avanzan en sus planes por crear un “ordenador cognitivo” con el mismo número de neuronas que el cerebro humano (unos 100.000 millones) y que funcionará con menos energía que Watson.
El director de investigación de IBM, John Kelly, ha explicado durante una conferencia celebrada este martes en Capitol Hill que “los sistemas informáticos se están volviendo cada vez más bioinspirados”, tal y como recoge Talking Points Memo.

Por eso su deseo es crear una supercomputadora que se ejecute con menos de 85 kW de electricidad, la cantidad de exacta que necesita Watson, mientras que el cerebro humano “funciona con 20 vatios”.
La idea es conseguir que evalúe datos y actúe en base a ellos, de la idéntica forma que lo hace una persona.
El proyecto se completará en un período de diez años y cuenta con la colaboración de la Defense Advanced Research Projects Agency (DARPA) de los Estados Unidos. La agencia ya había participado anteriormente en la creación de una computadora con el mismo número de neuronas que un gato.
Y en agosto de este mismo año la compañía de Armonk anunciaba un “chip cognitivo” de 256 nodos neuronales construido con tecnología de 45 nanómetros, capaz de procesar información no estructurada y de reaccionar en función del entorno.
Pero eso no es todo, el Gigante Azul también trabaja duro para crear la supercomputadora más potente del mundo. Con nombre en clave “Sequoia”, lleva en desarrollo desde 2009 y se espera que supere la etapa de fabricación en 2012.
Si todo sigue según lo previsto, debería alcanzar los 20 petaflops, el doble de velocidad que la máquina que ostenta actualmente el récord: la japonesa K.

2011/09/05

El cerebro humano tiene instinto animal


En los tiempos que corren no es difícil encontrar personas que prácticamente no han tenido contacto con animales vivos, especialmente en las grandes ciudades. Se podría pensar, pues, que los humanos modernos tienen una conexión con el mundo animal más bien escasa. Sin embargo, siglos corriendo tras presas o huyendo de posibles depredadores han terminado por dejar una huella en el cerebro humano, una conexión con el mundo animal que pervive incluso en los más obcecados urbanitas.
A lo largo de la historia, los animales han supuesto, y suponen, un elemento importante en la vida y el desarrollo del ser humano. Este hecho indiscutible se ha acabado traduciendo en una adaptación de nuestro cerebro, que posee una región que responde de forma más rápida ante la presencia de animales que ante cualquier otro objeto e incluso ante otros seres humanos. Esta conexión ha sido descubierta gracias a los experimentos realizados por un equipo de neurocientíficos sobre 41 pacientes que padecían epilepsia, cuyos resultados han sido publicados recientemente en Nature Neuroscience.
Los investigadores, liderados por Florian Mormann, del Instituto Tecnológico de California, se encontraban estudiando la reacción de unas zonas internas del cerebro, denominadas amígdalas cerebrales, cuando observaron la peculiar respuesta que se producía cuando los pacientes veían imágenes de animales. Mormann y su equipo consiguieron localizar con gran precisión la región cuya respuesta era mayor y determinaron que era la amígdala derecha "la responsable de procesar las imágenes de los animales", explica Mormann.
Estas amígdalas están en "una de las regiones más antiguas del cerebro", afirma Mormann. Así que, teniendo en cuenta que los animales han supuesto "un estímulo importante para el ser humano", dado que pueden representar un peligro o una presa, "podría ser que las amígdalas hayan terminado por especializarse en procesar esta clase de estímulos", concluye.
Aunque el experimento ha sido realizado sólo con imágenes, los investigadores creen que esta respuesta se daría también a través de otro tipo de estímulos no visuales. "La amígdala es una parte del sistema límbico que procesa todo tipo de información sensorial, especialmente la visual, auditiva y olfativa", explica Mormann. Este hecho hace que el investigador concluya que, pese a que sólo han realizado pruebas visuales, "es de esperar que la amígdala también responda a sonidos animales".
El científico también destaca el hecho de que las amígdalas no sólo están relacionadas con reacciones emocionales, como el miedo. "Cuando realizamos las pruebas, esperábamos obtener una respuesta con imágenes de serpientes o arañas", sin embargo, la reacción "era independiente del contenido emocional de las imágenes", explica Mormann.
Este hecho es de especial interés para Luis Miguel Martínez, investigador del Instituto de Neurociencia de Alicante, quien valora positivamente el estudio. "El trabajo que han realizado es muy relevante", no sólo porque hayan conseguido localizar las zonas del cerebro donde se procesan las imágenes de los animales, sino porque han observado que "las amígdalas no sólo están relacionadas con respuestas emocionales, como se pensaba hasta ahora". El investigador español también destaca el procedimiento experimental llevado a cabo por Mormann y su equipo, dado que "este grupo ha desarrollado técnicas que les permiten analizar células neuronales individuales", afirma.
Podría resultar paradójico que un estudio basado en los últimos avances de la ciencia haya terminado por demostrar que, aunque los seres humanos puedan pasar su vida sin tener contacto con el mundo animal, en lo más profundo de nuestro cerebro existe algo que aún nos mantiene conectados a ellos.

2011/08/19

IBM acelera la carrera por emular al cerebro


IBM ha dado un nuevo paso en la carrera global por emular al cerebro y desarrollar alternativas de computación cognitivas, que complementen a la informática tradicional.
Investigadores de la compañía han presentado una nueva generación de chips que, según informan, permitirían construir computadoras cognitivas capaces de aprender a través de la experiencia, recordar y reconocer patrones, imitando la forma de operar del cerebro.

Han fabricado y comenzado a probar dos prototipos, en el marco de un proyecto conjunto con DARPA (Agencia de Investigación en Proyectos Avanzados de Defensa) y un grupo de universidades de Estados Unidos, llamado clic SyNAPSE.
Ambos procesadores tienen 256 núcleos computacionales, que los científicos han descrito como el equivalente electrónico de las neuronas. Uno de los chips tiene 262.144 sinapsis programables, mientras el otro posee 65.636 sinapsis de aprendizaje.

Cómo funciona

Este tipo de sistema es capaz de modificar las conexiones entre sus componentes a medida que es presentado con nueva información, de manera similar a como funcionan las sinapsis en los sistemas biológicos.
En los humanos y los animales las conexiones sinápticas entre células cerebrales se generan a nivel físico, dependiendo de cómo experimentan su relación con el mundo.
El proceso de aprendizaje consiste, esencialmente, en la formación y fortalecimiento de esas conexiones.
Una máquina no puede soldar y desoldar sus contactos, pero puede simular ese sistema "subiendo el volumen" de señales de entrada importantes y prestándole menos atención a otras.
Un sistema como el de IBM recordará cuánta atención prestarle a cada señal y alterará eso dependiendo de sus experiencias.

Aplicaciones

Según lo que informó la compañía, su sistema integra el software, hardware, la memoria y el procesador en una unidad (memoria y procesador están separados en los ordenadores convencionales, al igual que software y hardware), lo que le permitiría desarrollar una arquitectura más eficiente en términos de consumo de energía.
"Estos chips representan un paso significativo en la evolución de las computadoras, desde calculadoras a sistemas de aprendizaje, marcando el comienzo de una nueva generación de computadoras y sus aplicaciones en el comercio, las ciencias y el gobierno", dijo Dharmendra Modha, líder del proyecto de investigación en IBM.
Estas aplicaciones son "altamente especulativas", le dijo a BBC Mundo Steve Furber, de la clic Universidad de Manchester, en el Reino Unido.
En términos más inmediatos, señaló, las computadoras cognitivas tienen aplicaciones en los campos de la psicología humana, donde pueden utilizarse para simular comportamientos del cerebro, y en el monitoreo medioambiental, donde pueden detectar e interpretar variaciones en los patrones de su entorno. También podrían ayudar perfeccionar los sistemas de visión asistida de los coches, por ejemplo.
Furber ha utilizado los sistemas neuronales con los que él está experimentando -basados en hardware tradicional- para colaborar con un equipo de psicólogos.
"Usamos las redes neuronales para modelar el cerebro de pacientes con problemas en el habla, como los que han sufrido un ataque cerebral; y simulamos los efectos de diversos tratamientos", explicó.

"Otros ya lo han hecho"

El objetivo de largo plazo de IBM es construir un sistema de chips con 10.000 millones de neuronas y 100 billones de sinapsis, que consuma un kilovatio de energía y tenga un volumen menor a los dos litros. "Como el cerebro de un gato", apuntó Steve Furber.
El enfoque no es nuevo, le dijo a BBC Mundo Thomas Wennekers, de la clic Universidad de Plymouth, en el Reino Unido.
"Otros ya lo han hecho, posiblemente con menos neuronas y sinapsis", señaló, antes de agregar que el proyecto del que él participa, llamado clic COLAMN, también ha creado chips de esas características, pero con 100 neuronas, en vez de 256.
Los especialistas en los campos de la computación cognitiva y las redes neuronales sí reconocen que el enfoque de IBM permitiría llevar sistemas como estos a gran escala, ya que consume mucho menos energía que los sistemas de otras líneas de investigación.
Si se quisiera construir una simulación a escala real del cerebro humano utilizando hardware tradicional, explicó Furber, harían falta "varias grandes centrales nucleares" para proveer la energía necesaria para su funcionamiento.

En Europa, también

En cualquier caso, la de SyNAPSE no es la única iniciativa que busca emular al cerebro. En Europa existe el clic Proyecto Cerebro Humano, del que forma parte Furber, cuyo objetivo es construir simulaciones detalladas de ese órgano. En él participan 13 universidades de nueve países.
Además, agregó Wennekers, "hay otras tecnologías en desarrollo para acelerar los sistemas cognitivos neuronales, y todavía no está claro cuál triunfará".
Como explica Furber, "los principios fundamentales de cómo funciona el cerebro no han sido comprendidos todavía".
Lo que hacen investigadores como él o los de IBM es "formular hipótesis (sobre cómo funciona el cerebro) y construir sistemas para tratar de demostrarlas".
En cualquier caso, es una larga carrera que recién está comenzando.                    

2011/07/30

Un estudio alerta de que las pantallas 3D dañan la vista y el cerebro

Un equipo de investigadores de la Universidad de Berkeley, en California (Estados Unidos), ha llevado a cabo un experimento que, según ellos, demuestra que la visualización de contenidos en pantallas estéreo en tres dimensiones es perjudicial tanto para la vista como para el cerebro de los espectadores.
En un estudio publicado en la revista científica Journal of Vision, titulado The zone of comfort: Predicting visual discomfort with stereo displays (La zona de comodidad: Prediciendo el malestar visual con pantallas estéreo), los autores sostienen que el problema, denominado "convergencia acomodativa", se deriva del hecho de que los ojos de los usuarios tengan que ajustarse constantemente a la distancia de la pantalla física y del contenido en 3D que ofrece, lo cual genera fatiga y malestar.
Los responsables de este trabajo, basado en los resultados obtenidos a partir del análisis y la evolución de 24 personas adultas, afirman que los efectos negativos son más agudos si se accede al material tridimensional a través de dispositivos como un televisor, un ordenador o un teléfono móvil que si el público está frente a una gran pantalla de cine, por la proximidad de la imagen.
Además, el grupo integrado por los profesores Takashi Shibata, que también imparte clases en la Universidad Waseda de Tokio (Japón); David M. Hoffman, procedente de la empresa tecnológica norteamericana MediaTek; Joohwan Kim y Martin S. Banks considera que las consecuencias derivadas de la visión de lo que aparece al fondo de la pantalla son más nocivas que las causadas por aquello que supuestamente está muy cerca de los espectadores.
Su aviso se suma a otros informes similares presentados por asociaciones de oftalmólogos, asociaciones de consumidores y otras entidades.