Buscar

Mostrando entradas con la etiqueta ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta ciencia. Mostrar todas las entradas

2011/12/21

Comisión Europea admite un riesgo creciente de tormenta solar "catastrófica"

  La Comisión Europea ha presentado un informe en el que califica de "creciente" el riesgo de que se produzca un evento tecnológico (causado por una tormenta solar) de dimensiones "catastróficas" que afecte a las infraestructuras terrestres, como las redes eléctricas, de telecomunicaciones, de navegación por satélite o la banca.
   Según ha señalado el Observatorio del Clima Espacial de la Asociación Española de Protección Civil para los Eventos Climáticos Severos y la Prevención Nuclear, en declaraciones a Europa Press, esta postura de la Comisión Europea se une a la que mantienen, desde hace tiempo, los gobiernos estadounidense y británico a este respecto.
   En el informe, destaca que, en vista de que la próxima máxima solar se espera en 2013, en los próximos meses el deber del organismo es dar a conocer el posible impacto del clima espacial en ciertas infraestructuras. Para ello, ha puesto en marcha el 'Space-Weather Awareness Dialogue', que tiene como objetivo identificar los retos relacionados con prácticas y políticas de prevención de desastres, preparación y mitigación y formular recomendaciones para acciones concretas.
   Expertos en gestión del riesgo han apuntado que existe "demasiada incertidumbre" sobre este tema y, sobre todo, con respecto a las probabilidades que existen de que ocurra uno de estos eventos. En este sentido, ha indicado que el riesgo de que se produzca un fallo eléctrico como consecuencia de una tormenta solar en un tiempo relativamente corto es "alto" y han apuntado que la sociedad no está preparada para enfrentarse a ello.
   La Comisión Europea propone definir las responsabilidades y líneas de comunicación antes de que ocurra un evento tecnológico, de manera que todos sepan cómo reaccionar en el caso de una alerta. Así, a su juicio, los protocolos de respuesta a una crisis deben estar preparados y probados antes de tiempo a través de ejercicios o simulacros (pruebas de tensión) que ayuden a aumentar la conciencia de los actores y a determinar las deficiencias y debilidades en los procedimientos de emergencia.
   El organismo europeo tiene la tarea de elaborar una lista de los riesgos a los que se enfrenta la UE --incluyendo el clima espacial--, así como los riesgos emergentes. Además, los Estados miembros se han de comprometer a llevar a cabo una evaluación de riesgos nacionales basadas en las orientaciones de la Comisión Europea.
   Para el Observatorio del Clima Espacial de la Asociación Española de Protección Civil para los Eventos Climáticos Severos y la Prevención Nuclear incluir el clima espacial en la lista de los riesgos emergentes puede contribuir a aumentar la comunicación de peligros y riesgos  asociados y mejorar la preparación.

2011/12/16

¿La apuesta científica más costosa del mundo?

El Reactor Experimental Termonuclear Internacional (ITER, por sus siglas en inglés) no es una solución rápida para los problemas energéticos del mundo. Ni siquiera sus más abnegados promotores sugerirían esto.
El santo grial de la producción de energía con balance neutro de carbono -la fusión, en contraste con la fisión de átomos- lleva años en los planes de los científicos que ven su potencial.

El proyecto actual en Cadarache, en el sur de Francia, ya es uno de los lugares de construcción más grandes de Europa y la más reciente encarnación de un acuerdo firmado por los presidentes Ronald Reagan y Mijaíl Gorbachev en plenos días de Guerra Fría, en 1985.
El principal problema, sin embargo, está en que ITER es un experimento, una apuesta. Y a un precio actual de US$20.000 millones, es una apuesta muy costosa.
Por ello, esta semana muchos en Bruselas se sorprendieron cuando se dio vía libre al uso de dinero de la Unión Europea para cubrir los gastos extras actuales de ITER de US$1.600 millones.

"Proyecto riesgoso"

Robert Jan Smits, director general de investigación e innovación en la Comisión Europea, en Bruselas, dice que entiende que el tema sea sensible.
"Reconozco que no es un momento apropiado para pedirle este dinero al Consejo (de la Unión Europea), a los estados miembros y al Parlamento Europeo", dice.
"En medio de una crisis económica grande no podría haber llegado en un momento peor. Pero este proyecto es tan crucial para Europa y para todo el mundo que simplemente teníamos que tomar el toro por los cuernos y tratar de llegar a un acuerdo".
"Por supuesto, es un proyecto extremadamente riesgoso y no sabemos cuál será el resultado. Hay muchos científicos que están ciento por ciento convencidos de que funcionará. Pero sólo lo sabremos si construimos la máquina y hacemos que funcione".
"Pero observando la necesidad de energía actual y futura, no podemos permitirnos el lujo de no explorar esta opción", señaló.

"Fuente sin límites"

En el área de 192 hectáreas en la Provenza, David Campbell supervisa con orgullo a los equipos de trabajadores. Trabaja como el jefe de física en ITER.
"He estado trabajando en los diseños por unos 15 años, así que es muy emocionante estar acá y ver finalmente cómo se vierte el concreto", dice.
ITER espera demostrar que la fusión nuclear puede ser comercialmente viable.
El reactor que está en construcción no servirá en ningún momento para surtir la red de suministro de electricidad nacional de Francia o de cualquier otro país. Eso optimista posibilidad que todavía está muy lejana.
Por ahora hay una cooperación internacional a una escala prácticamente sin precedentes. Además de la Unión Europea, otros países como Rusia, Estados Unidos, Japón, China, India y Corea del Sur también están contribuyendo con productos y habilidades.
Sus tareas combinadas deben crear un reactor que calentará plasma -una llama gigante que está rotando dentro de un campo magnético- a una temperatura 10 veces mayor que la del sol.
Hasta ahora, proyectos más pequeños lograron producir una fracción de la energía que se necesita para crear la reacción. La diferencia en Cadarache es la escala.

Campbell no se inmuta ante la posibilidad de que su experimento no funcione.
"Depende exactamente de lo que usted se refiere cuando habla de que 'no funcione'", dice.
"En los últimos 30 o 40 años hemos estado aprendiendo cómo producir energía de fusión. Ya lo hicimos en una escala pequeña. Así que pensamos que ya juntamos todos los elementos".
"Lo atractivo de la fusión es que hay una fuente casi ilimitada de combustible. Los ingredientes principales son isótopos pesados de hidrógeno generados del litio dentro del reactor. Y en la corteza terrestre hay grandes reservas de litio".
"Además, es una forma de energía intrínsecamente segura. Si algo malo le pasa a la reacción dentro del recipiente, se apaga. Y no se producen desperdicios nucleares duraderos. Nuestra meta es construir el reactor a partir de materiales que puedan ser reciclados y convertidos en más reactores dentro de cien años".

Preocupaciones de dinero

Activistas anti-nucleares se apresuran a criticar los argumentos de que la fusión no tenga riesgos, ya que destacan especialmente que se producirán desperdicios radiactivos (aunque con una vida considerada corta, de alrededor de 150 años).
Pero incluso entre quienes apoyan la energía nuclear convencional hay objeciones sobre el proyecto.
Sebastien Balibar, jefe de investigaciones en el Consejo Nacional de Francia para la Investigación Científica, en París, duda que la tecnología necesaria para hacer que el experimento funcione esté cerca de existir.
"Estoy de acuerdo con que es un reto interesante controlar la fusión, pero es un projecto de investigación aplicada a largo plazo", dice.

"Si de veras funciona, entonces generaría una gran fuente de energía limpia. Y si el sector industrial -las compañías petroleras o los ministerios de industria en varios países- cubre el presupuesto, entonces está perfecto".
"US$20.000 millones equivale más o menos a los ingresos anuales de una de las grandes compañías petroleras. Pero si este costo sale del presupuesto europeo para la ciencia, entonces es terrible porque es una gran cantidad y reduciría nuestros presupuestos drásticamente. Y no puedo estar de acuerdo con esto", dice Balibar.
Sin embargo, el ímpetu del proyecto de ITER es tal que es probable que sobreviva a sus críticos.
De hecho, si un reactor de fusión nuclear completamente viable -y comercial- llega a existir alguna vez, lo más seguro es que sus promotores más jóvenes de hoy no estarán vivos para verlo.

2011/12/14

Científicos demuestran el peligro de adicción en los adolescentes usuarios de videojuegos

Una investigación llevada a cabo por científicos de seis países distintos alimenta aún más la polémica sobre los efectos que producen los videojuegos en los adolescentes. Y es que en este ambicioso trabajo se aportan pruebas sobre la enorme capacidad para experimentar placer que tienen los usuarios frecuentes de esta forma de entretenimiento. Pero, a su vez, también se muestran indicios de la posibilidad de convertirse en adictos precisamente por ello.
Todos estos detalles proceden de un artículo publicado por un equipo de especialistas de universidades e instituciones belgas, francesas, alemanas, inglesas, irlandesas y canadienses en el último número de la revista Translational Psychiatry a partir de un control practicado a 154 menores de 14 años.
Los científicos, dirigidos por el doctor Simon Kühn, de la Universidad de Gante (Bélgica), dividieron a los muchachos en dos conjuntos para su análisis. El primero lo integraban consumidores esporádicos que no invertían más de cuatro horas a la semana en este pasatiempo; el otro estaba compuesto por fanáticos que estaban hasta tres horas al día disfrutando de los videojuegos.
Los escáneres cerebrales certificaron en una primera fase que la satisfacción en los aficionados más avanzados era muy superior a la de sus compañeros, menos acostumbrados a los juegos digitales. Al generar más dopamina, su sensación de goce aumentaba. Sin embargo, el examen todavía fue más lejos.
Para la segunda etapa los investigadores les prometieron una recompensa a quienes ganasen. Pues bien, los centros de placer de los participantes expertos tendían a activarse más cuando no lograban conseguir la victoria. Eso es exactamente lo que sucede con los jugadores patológicos, que no pueden interrumpir su tarea a pesar de perder constantemente.
El grupo de 25 profesores encabezado por Kühn no ha podido concluir que los videojuegos hayan originado la modificación en la estructura cerebral que han detectado en los chavales, como tampoco pueden afirmar lo contrario, es decir, que las personas que nacen con esa característica jugarán durante horas y horas a lo largo de su vida.

2011/12/12

Los Álamos: el laboratorio de la bomba atómica se marchita

Si [Robert ] Oppenheimer estuviera vivo se echaría a llorar". Así resume el experto en la historia nuclear americana Hugh Gusterson la impresión que se llevaría el director del Proyecto Manhattan si viera la situación en la que se encuentra el Laboratorio Nacional Los Álamos, donde él y los mejores científicos del entonces llamado mundo libre crearon la bomba atómica para sentenciar la II Guerra Mundial. Ni el fin de la Guerra Fría ni los procesos de desarme nuclear han dañado tanto la excelencia científica de Los Álamos como la interferencia de los políticos y la aplicación de criterios de gestión empresarial.
En 1943, cuando los aliados aún iban perdiendo la guerra, los militares estadounidenses decidieron concentrar las investigaciones para conseguir la bomba atómica en un único lugar. El responsable militar del Proyecto Manhattan, el general Leslie Groves, quería un sitio aislado y alejado de las fronteras exteriores de EEUU. Fue Robert Oppenheimer, director científico del programa atómico, el que eligió el lugar: un desierto en la zona norte de Nuevo México. De allí salieron Trinity (el primer ensayo) y las bombas Little Boy y Fat Man, que fueron arrojadas sobre Hiroshima y Nagasaki, respectivamente.

Los Álamos, que ocupa una extensión de unos 90 kilómetros cuadrados salpicada de decenas de edificios, fue secreto durante años y comparte con el Lawrence Livermore National Laboratory, creado una década después, la misión de diseñar las armas nucleares de EEUU. Eso lo convirtió en uno de los mayores centros de investigación del mundo, donde acababan algunos de los mejores físicos, matemáticos o ingenieros. Tenían aceleradores de partículas, las computadoras más potentes de la época como la serie MANIAC y vía libre para investigar.
El precio de los militares era un férreo control sobre la vida de los científicos y sus familias. Tenían prohibido hablar de lo que hacían allí dentro. Su vida pasada y la de los suyos eran concienzudamente investigadas. Aún les someten a controles de drogas y alcoholemia por sorpresa y, ocasionalmente, sufren registros de sus casas y pertenencias. Todavía hoy necesitan permisos para viajar al extranjero. Todo eso no ha impedido que, junto a logros como el desarrollo de la bomba H y las sucesivas generaciones de misiles nucleares, los científicos hayan aportado grandes avances en campos como la energía, la aventura espacial, la supercomputación y, paradójicamente, el control y desmantelamiento de armas nucleares.
"Habiendo sobrevivido a las protestas antinucleares de los años 80 y al fin de la Guerra Fría años después, los científicos de armamento nuclear estadounidenses están comprobando que la principal amenaza a su trabajo proviene de una fuente inesperada: los políticos y administradores que se suponía estaban de su lado", escribe Gusterson en un artículo publicado en la pasada edición del Bulletin of the Atomic Scientists. Para este antropólogo y sociólogo, autor de varios libros sobre la historia del armamento nuclear, Los Álamos vive en un proceso de declive que, además de comprometer su futuro, socava su misión original: ofrecer seguridad a EEUU.

Un drama en tres actos

En su artículo The assault on Los Alamos National Laboratory: A drama in three acts, recoge cómo muchos medios de comunicación y políticos le tenían ganas el laboratorio. La institución funcionaba de forma autónoma. Ni siquiera los militares interferían demasiado en el trabajo de los científicos. Pero, como escribe Gusterson, algunos empezaron a acusarles de arrogantes.
La carnaza a los enemigos de Los Álamos se la dio el llamado caso Lee. En marzo de 1999, The New York Times publicó que un científico estadounidense de origen chino, Wen Ho Lee, había robado secretos militares del complejo. Aunque nunca se probó que Lee tratara con espías chinos, el asunto le costó el puesto al director de las instalaciones, que fue sustituido por un militar, el almirante Pete Nanos, con el que el presidente George W. Bush, escribe Gusterson, "esperaba llevar la disciplina de la marina a los melenudos del laboratorio".
La presunta desaparición de nuevos discos con información confidencial (que después se comprobó que nunca habían existido) hizo que Nanos implantara un régimen casi de terror que le granjeó la oposición de los científicos, pidiendo la nómina muchos de ellos. En 2004, y tras un informe encargado por el Congreso de EEUU, el Gobierno sacó a concurso la gestión de Los Álamos, que ganaría un consorcio liderado por la corporación Bechtel. Esto trajo la aplicación de un sistema de gestión empresarial que antepuso los resultados empresariales a los logros científicos.
Desde entonces, la producción científica de Los Álamos no ha dejado de bajar. Desde mediados de los años 90, el número de patentes aumentó hasta el pico de 71, conseguidas en 2003. En 2004 fueron 62, en 2008 29 y en 2009, últimos datos disponibles, remontaron algo hasta las 48. Público ha intentado en las últimas semanas contrastar los datos y argumentos de este experto con los responsables de Los Álamos, pero la respuesta, que no llegó, "estaba en manos de Washington", aseguraron desde su departamento de comunicación.
Los Álamos ha intentado diversificar su campo de investigación. Son los responsables del control y mantenimiento de las más de 5.000 cabezas nucleares que conserva EEUU, pero ahora buena parte de su investigación se centra en el estudio de nuevas energías.
Con todo, el programa de armas y el de no proliferación de las mismas aún se llevaron el 59% de los 2.000 millones de dólares de los que dispuso Los Álamos en 2010. También es la nuclear su gran baza para seguir adelante. Desde hace una década se proyecta el CMRR Project, un nuevo laboratorio para gestionar el plutonio (retirada y reposición) del arsenal nuclear de EEUU
El problema es que la justicia puede parar su construcción. El colectivo Los Alamos Study Group (LASG) ha conseguido que un juez federal acepte su denuncia contra el proyecto por no incluir un adecuado estudio de impacto ambiental. También el desastre de Fukushima ha provocado la alarma ya que Los Álamos se encuentra en una zona de moderada sismicidad. En un artículo esta semana, el director del proyecto aclaraba en The Washington Post que el edificio aguantará terremotos de magnitud 7,3 (el de Fukushima llegó a 9). El líder de LASG, Greg Mello, dijo al periódico: "Los Álamos no tiene esa cultura de seguridad necesaria para una instalación que almacenará la mayor reserva de plutonio del país". Sea como sea, sin el nuevo laboratorio, Los Alamos se quedará sin futuro.

2011/12/09

Ciencia mayúscula: Más allá de la ficción

La vicepresidenta de la Comisión Europea, Neelie Kroes, a la altura de la visión de Isabel la Católica cuando decidió financiar la expedición de Cristóbal Colón hacia las Indias. Durão Barroso, su presidente, con la determinación y la audacia de John F. Kennedy de asegurar que EEUU debía poner un hombre en la Luna. Puede que dentro de una década estas comparaciones no nos resulten tan extravagantes. Europa quiere sacar músculo y el camino más directo hacia hitos históricos de este calibre es poner cientos de millones de euros encima de la mesa de los mejores científicos europeos.
La iniciativa que da amparo a esta idea, llamada Flagships (Buques insignia), se puso en marcha hace un par de años pero es en estos días en los que empieza a materializarse como proyectos reales de ciencia de vanguardia. Seis propuestas tan ambiciosas que parecen sacadas de un libro de Isaac Asimov o una película de Steven Spielberg, y que aspiran a ser uno de los dos buques insignia que la Comisión financie con cien millones de euros anuales durante diez años. Los proyectos elegidos, que se pondrán en marcha en 2013, surgirán de la media docena de aspirantes que se presentan a continuación y que ya disfrutaron de millón y medio de euros para convertirse en proyectos pilotos que demuestren su viabilidad.
En mayo o junio de 2012 conoceremos a los elegidos. Una tarea que no debería de ser fácil, ya que cada una de estas iniciativas cuenta con el respaldo de numerosas instituciones científicas, las más prestigiosas del continente, y de los investigadores europeos más sobresalientes. La Comisión pretende que los países miembros aporten dinero directamente, lo que les daría capacidad de influir en la elección. Los seis proyectos cuentan con destacada participación española.

Los seis proyectos del Flagships de la ciencia europea

RoboCom: Revolucionar la vida con los adelantos de la robótica

El proyecto Robot Companions for Citizens (RoboCom) pretende cambiar el mundo exprimiendo todo el potencial de la robótica. Inicialmente, esta propuesta se centrará en desarrollar los avances necesarios para alcanzar tres objetivos. El primero, poner en el mercado robots de compañía para ayudar a dependientes o a la tercera edad. El segundo, máquinas que sirvan para ayudar en caso de desastres naturales, ya sea en la búsqueda de supervivientes o en la protección de determinados intereses. Por último, RoboCom quiere crear tecnología que aumente las capacidades físicas operativas de los trabajadores, como exoesqueletos que permitan levantar pesos impensables. “Vamos a crear un nuevo paradigma industrial”, avanza Carlos Balaguer, del Robotics Lab de la Universidad Carlos III de Madrid, miembro del comité asesor internacional del proyecto. “Se trata de una propuesta directamente aplicable a mejorar la calidad de vida de los ciudadanos”, añade Balaguer. Este experto indica que desarrollarán avances científicos para la creación de nuevos biomateriales, más ligeros e inteligentes, y nuevas baterías. Además, deberán superar el reto tecnológico de crear robots más eficaces, seguros y con interfaces amigables. También trabajarán aspectos éticos como la responsabilidad y el trato a los robots.

Future of Medicine: Tecnología de la información para predecir enfermedades

La filosofía de esta iniciativa es sumar a tres tipos de actores principales: centros de investigación puntera en medicina, empresas de secuenciación de genomas y empresas de informática. La suma de sus saberes se mezclará en la coctelera de la supercomputación para dar a los profesionales de la medicina toda la información posible del paciente. Incluso del futurible paciente: los médicos tendrán diagnósticos años antes de que el mal aparezca, gracias a la información genética del individuo. “Es el proyecto bandera de la medicina preventiva y del futuro”, explica el investigador del Centro Nacional de Análisis Genómico de Barcelona, David Badia, implicado en la iniciativa Future of Medicine (FoM). En un primer paso, se creará un paciente piloto a partir del análisis de su ADN, para prevenir enfermedades o problemas futuros. Además, se trabajará para descubrir cómo las tecnologías de la información pueden ayudar a desarrollar “sistemas de predicción de la salud”, señala Badia. Grandes farmacéuticas ya han mostrado su interés por el proyecto, que podría revolucionar la medicina: “Toda esa información también servirá para preparar nuevos productos frente a los problemas de salud”, advierte este investigador, quien asegura que el proyecto pretende afrontar los problemas éticos derivados de sus logros.

Human Brain: Supercomputación para revelar el cerebro humano

El Human Brain Project pretende “revolucionar el estudio de la medicina asociada al cerebro” sirviéndose de las tecnologías de la información, según expone uno de los investigadores que han puesto en marcha esta iniciativa, José María Peña, del Centro de Supercomputación y Visualización de la Universidad Politécnica de Madrid. En un principio, se proponen realizar la recogida de gran cantidad de material e información sobre el cerebro humano, desde biología molecular y tejidos a imágenes generadas de su funcionamiento. A partir de ahí, y gracias a la ayuda de la supercomputación, pretenden “construir modelos para ir simulando cada vez partes más grandes y más complejas del cerebro”, explica Peña. Los pasos siguientes irán encaminados a un doble objetivo: conseguir simular su laberíntica realidad y aprovecharla “de vuelta” en el desarrollo de la informática. El conocimiento del cerebro humano supondrá un desarrollo imparable de la computación, según Peña: “Por ejemplo, en lo referido al consumo. El cerebro humano consume cuatro vatios realizando esfuerzos que su equivalente en ordenadores necesitaría de la alimentación de varias centrales nucleares”. Esa es la baza doble que juega en favor del proyecto: mejora de la salud y máquinas neuroinspiradas.

Grafeno: Desarrollar todo el potencial del material del futuro
Será un bombazo para la investigación”, dice el investigador del CSIC Francisco Guinea, uno de los mayores expertos en grafeno de España y miembro del comité supervisor del proyecto que propone desarrollar todo el potencial de este material bidimensional de innumerables aplicaciones. Esta iniciativa, que ya cuenta con el respaldo de empresas del calibre de Nokia, Texas Instruments, Samsung, IBM y Airbus, podría considerarse como el más industrial de todos los proyectos en liza, en una competencia mucho más enfocada a la ciencia básica. “El grafeno es de lo más prometedor que tenemos hoy en la ciencia; sirve para todo y todavía estamos comenzando a conocer sus capacidades”, cuenta Guinea, que enumera sus posibilidades en campos como la electrónica, la energía y la informática, y sugiere que puede llegar a tantos lugares de la vida cotidiana como lo hizo hace décadas el plástico, pero con una salvedad: es un material inteligente. En el proyecto participan los dos investigadores de la Universidad de Manchester que ganaron el Nobel de Física en 2010 por avanzar conocimientos sobre este material, Andre Geim y Konstantin Novoselov. La Comisión ya ha mostrado su intención de respaldar económicamente esta iniciativa aunque no salga elegida.

Guardian Angels: La tecnología que vela por el bienestar de su portador

Se trata de sistemas autónomos e inteligentes que acompañarán a las personas para proporcionar un análisis eficaz y eficiente de su situación y del estado de su entorno”, resume el investigador de la Escuela Politécnica de Lausana (Suiza), el español David Atienza, director adjunto del proyecto Guardian Angels (Ángeles de la Guarda). Según explica Atienza, su idea es que unos pequeños sensores colocados sobre el cuerpo humano realicen una constante monitorización, mientras se controla el medio en el que está o por el que se desplaza. De ese análisis global, el Ángel Guardián podrá proponerle recomendaciones al usuario para mejorar su bienestar: desde que tome una chocolatina para mejorar su nivel de azúcar a evitar una calle en un paseo con elevados niveles de contaminación. “Nosotros ya hemos desarrollado un germen con la monitorización de arritmias del corazón en tiempo real, que se comunican directamente al móvil del usuario”, explica Atienza. El proyecto aspira a que los sensores inalámbricos permitan al individuo interactuar con todo su entorno (ya sea el tráfico, su médico o su puesto de trabajo) sin gasto de energía, ya que esta tecnología será autosuficiente, alimentándose de la producida por el propio cuerpo de la persona o recogiéndola de su entorno.
FuturICT: Toda la información del mundo para prevenir crisis
La posibilidad de adelantar todo tipo de eventos sociales, políticos, medioambientales e incluso económicos es el reto que se plantean en la iniciativa FuturICT. Esto es, aplicar todo el potencial de la supercomputación y el manejo de cantidades monumentales de datos e información a las ciencias sociales, del mismo modo que otro proyecto rival, Future of Medicine, lo quiere aplicar a la salud y el tratamiento de las enfermedades. “Es hora de revelar los procesos y las leyes ocultas que transforman las sociedades a través de un trabajo conjunto, y un esfuerzo multidisciplinar a gran escala”, aseguraba a Público el líder del proyecto, Dirk Helbing, del Instituto Suizo de Tecnología, tras la presentación de su propuesta a principios de año. Según sus cálculos, cuando el proyecto se ponga en marcha estarán realizando la mayor recopilación de conocimiento jamás emprendida. Con una intención: procesar todos los datos para desentrañar la complejidad de las relaciones humanas que gobiernan el mundo, entenderlas, analizarlas y adelantarse a ellas. Según los responsables, serán capaces de evitar escenarios negativos para la sociedad porque tendrán desmenuzados los mecanismos que están detrás de desastres financieros, crisis medioambientales y pandemias.

2011/12/02

La ciencia española pierde el tren europeo

España sigue lejos de Europa en investigación. El gasto en I+D en 2010 creció un 0,1%, un tímido progreso que no sirve para acortar su considerable distancia con la media de los países de la Unión Europea, según los últimos datos presentados ayer por el Instituto Nacional de Estadística (INE).
El país gastó el año pasado 14.588 millones de euros en I+D, un 1,39% de su Producto Interior Bruto (PIB), lo que equivale a niveles de 2009 si se toma como base el año 2008, según el INE.
La media de los 27 en 2010 se situó en un 2%, según los datos provisionales de la UE, lo que deja a España en decimoquinto lugar, por detrás de Portugal, República Checa o Estonia y a años luz de los países escandinavos o Alemania, líderes en la carrera de la investigación y la innovación en Europa.
El sector público se ha visto obligado a salvar los muebles frente a la crisis ante la retirada del sector privado. Las arcas públicas fueron las que aportaron ese 0,1% más de gasto para corregir la marcha de 2009, año en el que la aportación bajó un 0,8%, el primer retroceso tras 13 años de crecimiento continuo. En cambio, la aportación privada en 2010 se redujo un 0,8% y el número de empresas que realizan actividades de I+D menguó un 16%.
Además, se aumenta la brecha entre la aportación pública y la privada a la investigación, que estaban casi a la par en 2008 y que en 2010 han pasado a ser del 46,64% y del 42,99%, respectivamente.
El panorama está muy lejos del ansiado cambio de modelo productivo que el Gobierno ha planteado como salida a la crisis en innumerables ocasiones. Se trata de una economía donde la investigación científica y la innovación tecnológica tengan cada vez más peso tanto en el sector público como en el privado. Pero ni el primero tiene el dinero para darle al I+D el empujón que necesita ni las empresas españolas están haciendo los deberes, ya que invierten en este capítulo un 42% menos que la media europea, según datos de la UE presentados este año.
"Los datos absolutos son desastrosos", reconoció ayer Juan Mulet, director general de la Fundación para la Innovación Tecnológica Cotec, que sin embargo se reconoció "sorprendido" porque las cifras son "menos desfavorables de lo esperado".
Como datos positivos, Cotec destaca que las empresas grandes y las pymes han aumentado sus gastos en I+D, un 1,1% y un 4,1% respectivamente, y que el bajón general se debe a las empresas de menos de 50 empleados. En el sector privado, los gastos de I+D se los reparten grandes empresas y pymes al 50%, algo que no es deseable ya que "en los países grandes las empresas de más tamaño acaparan el 70%", según Mulet.
El sector público también saca pecho en cuanto a empleo. El número de investigadores ha crecido un 0,6% en los laboratorios públicos, pero ha caído un 1,7% en las empresas. El gasto por investigador retrocede a ambos lados.
Madrid, Navarra, País Vasco y Catalunya son las únicas regiones que superan la media de gasto nacional, aunque todas han reducido sus aportaciones respecto a 2009. Las regiones que más han crecido respecto a 2009 son Balears, Andalucía y Castilla-La Mancha.
El Gobierno en funciones cree que los datos son positivos. "El hecho de que las tasas de empleo en I+D, y en especial el número de investigadores, mejoren dentro del actual marco económico es una muestra más, junto con el aumento del gasto total en I+D, de la apuesta decidida que hace nuestro país por la ciencia", explicó ayer a este diario un portavoz del Ministerio de Ciencia e Innovación.

Objetivo frustrado

El Gobierno esperaba alcanzar la media europea en 2010, según el Plan Nacional de I+D 2009-2011. La apuesta se sustentaba en el crecimiento continuado del gasto en investigación que había experimentado España durante la última década y el amparo de la bonanza económica.
La crisis desbarató esos planes y, en 2009, el gasto en I+D bajó un 0,8%. La aportación española quedaba en un 1,38% del PIB, según el INE. Este año el sector público ha conseguido volver a los números positivos y llegar al 1,39%. El esfuerzo le deja en el mismo lugar, ya que su distancia con la media europea es idéntica a 2009. Está por ver si el panorama empeorará cuando lleguen los datos de 2011, año en el que hubo una nueva tanda de recortes en ciencia que superaron el 7%, según la Confederación de Sociedades Científicas de España (Cosce).
España no es la única que no cumple. Lo mismo le ha pasado a la UE cuando, en 2000, acordó alcanzar el 3% del PIB en I+D en 2010 como paso clave para edificar una economía más moderna y basada en el conocimiento y la innovación. Los buenos propósitos quedaron aparcados por la ruina económica y han sido oficialmente pospuestos para 2020.
Hasta entonces, la apuesta por el I+D como combustible para salir de la crisis queda en manos de cada país. El año pasado, los estados que lideran la ciencia en la UE siguieron pisando el acelerador a pesar de la tormenta. Es lo que ha hecho Finlandia, líder de la tabla, cuya aportación ha pasado del 3,75% del PIB en 2009 al 3,9% en 2010, según datos provisionales de la oficina estadística de la UE, Eurostat.
Otros países como Dinamarca, Alemania y Francia, cuya inversión ya estaba por encima de la media de los 27, han seguido incrementando su gasto en este sector en 2010. En cambio Suecia, otro de los líderes, ha recortado su aportación de un 3,6% a un 3,4%, lo que no le ha impedido seguir siendo el segundo país que más invierte en investigación y desarrollo de los 27.

"La Sábana Santa es un objeto inquietante para la ciencia"

Un reto para la razón y un recuerdo para la fe". Ese es el objetivo de un libro que acaba de publicar la Universidad de Córdoba y que pretende, según uno de sus autores, "arrojar luz mediante el ejercicio de la razón sobre uno de los grandes enigmas que desde la Antigüedad nos han llegado hasta el presente": la Sábana Santa de Turín y el Santo Sudario de Oviedo.
El libro, editado por el Servicio de Publicaciones de la Universidad de Córdoba, publica las actas de un congreso que se celebró en la ciudad en noviembre de 2008 para repasar el papel de la reliquia "desde la historia, la ciencia y el arte". "Para la comunidad científica resulta un objeto inquietante, sujeto a las más diversas pruebas desde los más variados campos del saber (medicina, derecho, botánica, química, arqueología, arte...) con el fin de dar respuesta a los enigmas que plantea", dice la presentación de la publicación, que recoge afirmaciones tan controvertidas como esta: "El conjunto de estudios médicos, arqueológicos, químicos y físicos apunta claramente a la conexión directa entre el lienzo de Turín [la Sábana Santa] y la Pasión, Muerte y Resurrección de Cristo". La afirmación corresponde a uno de los ponentes, Manuel María Carreira Vérez, de la Universidad Pontificia de Comillas.

Otro ponente, José Delfín Villalaín Blanco, de la Universidad de Valencia, dice sobre la Sábana Santa: "Cada vez es más seguro que se trate de la mortaja y un lienzo funerario que estuvieron en contacto con el cadáver de Cristo. No es demostrable absolutamente que fuera Jesús, pero sí muy probable". Este experto en medicina legal obvia el estudio que hizo un laboratorio de la Escuela Politécnica de Zurich en 1988 y que afirmó, al 95% y tras una prueba de carbono 14, que la Sábana Santa databa de la Edad Media.
La publicación de este libro de actas ha desatado las críticas del Círculo Escépticos, una asociación cultural que critica la divulgación de la pseudociencia, y ha colocado esta publicación en su lista de la vergüenza, en la que incluyen "universidades, colegios oficiales y organismos públicos que promueven la pseudociencia".
"Termino con la esperanza en el futuro, pero sabiendo bien que la ciencia tiene sus límites y sólo puede afirmar lo que puede demostrar. A partir de aquí el que tiene que hablar es el entendimiento o, si quieren ustedes, el corazón de cada uno", concluyó su ponencia José Manuel Rodríguez Almenar, presidente del Centro Español de Sindología, una especialidad que se dedica, precisamente, a estudiar única y exclusivamente las reliquias de la religión católica.

Con el vicario

El congreso y el libro también han contado con la participación del vicario general de la Diócesis de Córdoba, Fernando Cruz Conde. En 2008, además, se realizó un molde exacto de la que aseguran que fue la Pasión de Cristo para que un escultor tallara un crucificado a imagen y semejanza de la Sábana Santa de Turín, y del que sería titular la Hermandad Universitaria de Córdoba (compuesta por profesores, decanos y estudiantes). Desde entonces la talla desfila como Vía Crucis el jueves previo a la Semana Santa. El enorme realismo de la imagen, con docenas de heridas sangrantes, hizo que fuera muy criticada en la ciudad.
La Universidad de Córdoba se defiende. El vicerrector de Comunicación y Coordinación Institucional de la entidad académica, Manuel Torralbo, justifica la organización de este congreso "por la Hermandad Universitaria, para explicar el proceso de creación de una obra artística y parte del patrimonio cultural cordobés, como es el Cristo de la Universidad".
Desde el Círculo Escéptico lamentan que ni el congreso ni la publicación contaran con científicos que sí que cuestionan la autenticidad de la Sábana Santa y del Sudario de Oviedo (que, según la leyenda, cubrió el rostro de Cristo cuando fue amortajado). El profesor turinés Luigi Garlaschelli, por ejemplo, logró reproducir usando técnicas medievales la que supuestamente fue la mortaja de Jesús de Nazaret y demostró así que se trata de una falsificación del siglo XIII.

2011/11/25

Premio a la ciencia de código abierto

La física tenía dos almas, la de aquellos que se decantaban por la teórica y la de los que preferían la experimentación. Pero hay una tercera vía, la física computacional, la que se apoya en la potencia de los ordenadores para comprobar los fundamentos de una hipótesis. Ahora, la revista Sciencey la Asociación Americana para el Avance de la Ciencia (AAAS) han reconocido el esfuerzo de varios científicos, uno de ellos español, por ofrecer una plataforma de aprendizaje de los fundamentos físicos basada en código abierto.
El premio reconoce la innovación en la enseñanza de las disciplinas científicas. En estaocasión, el galardón ha sido para el proyecto Open SourcePhysics (OSP, Física de Código Abierto). Su web principal aloja herramientas de modelado por ordenador, simulaciones y hasta manuales. El modelado informático permite simular fenómenos del mundo real y que los estudiantes consigan aprehender los conceptos de la física moderna, ya compleja de por sí.

"En las facultades, después de varios días de clases teóricas, las respuestas a las preguntas de los profesores, incluso las de los que aprueban, son devastadoras", dice el decano de la Facultad de Matemáticas de la Universidad de Murcia y uno de los creadores de OSP, Francisco Esquembre. La razón de estoes que, como explican en el ensayo que publica hoy la revista Science, los que aprenden los conceptos de la física por medio de imágenes estáticas pueden llegar a construirse modelos mentales incorrectos o incompletos que entorpecen su comprensión de los conceptos de la física.
La física computacional permite ver en tiempo real y en movimiento los resultados de un planteamiento teórico. En el planteamiento de un problema tipo un objeto de masa X que se desplaza a la velocidad Y con un rozamiento..., "los estudiantes van a la caza de la fórmula, pero no tienen ni idea de lo que han hecho conceptualmente", expli-ca Esquembre. Con el modelado por ordenador, se produce un aprendizaje de tipo manipulativo que, "sin tanta fórmula, tiene un mayor rendimiento", añade Esquembre.
Además, los modelos que ofrece OSP permiten experimentar con fenómenos físicos que son muy complicados de estudiar. Unos, como la evolución de las galaxias, necesitan de la potencia de los ordenadores para acelerar la línea de tiempo y ver cómo se produce esa evolución. Otros, como el diseño de motores, son extremadamente caros. Con la física computacional, ya no hace falta, por ejemplo, construir túneles de viento para probar la aerodinámica de un coche o un avión.

Tres herramientas

"La modelización por ordenador se ha convertido en la tercera vía para el avance de la ciencia", defiende Esquem-bre. De las tres herramientas fundamentales que ofrece OSP a los profesores y estudiantes de física, tanto de segundo grado como universitarios, una es Tracker, para el análisis y modelado en vídeo, que permite crear modelos basados en las leyes de la física y comparar su comportamiento con el de los objetos reales. La segunda es una plataforma para crear comunidades digitales y la tercera, la creada por Esquembre, es Easy Java Simulations (EJS). Lo de Easy (fácil, en inglés) es toda una declaración de intenciones. "Permite a un profesor estándar abrir uno de los modelos o crear uno nuevo como los que escribía en la pizarra", asegura Esquembre.
Con EJS, los estudiantes de física pueden manipular los elementos de un modelo, experimentar con los efectos de esas manipulaciones y conocer de primera mano la física y sus leyes. "Los estudiantes pueden calentar y enfriar un material y luego podemos preguntarles cosas como ¿a qué temperatura se derrite?", escribe el profesor Wolfgang Christian, autor de la idea de OSP. "Tendrán un feedback visual de la simulación y podrán tomar decisiones sobre los conceptos básicos", añade. La física computacional está permitiendo esta forma de aprendizaje interactivo.
Las 500 simulaciones que ofrece OSP, descargadas ya en 50.000 ocasiones, se ofrecen con su código. Todos los modelos pueden ser revisados para detectar un posible error y modificados libremente para crear nuevos modelos. "Es una filosofía de intercambio de conocimiento, provenimos de la educación pública y toca revertir en la sociedad lo que nos ha dado", argumenta el matemático. Así, el que quiera puede ir más allá en la investigación. Aunque su herramienta está pensada para la física, otros campos como los de la biología, la química y hasta la economía pueden aprovecharse también de la idea.
Es el caso de AutomatL@bs .La mayor red de laboratorios remotos usa el EJS de Esquembre como lenguaje de referencia. Esta iniciativa, en la que participan siete universidades españolas, está permitiendo algo que parecía imposible no hace mucho: que un estudiante de ingeniería pueda usar el laboratorio desde casa. De hecho, "se trata de la mayor experiencia en laboratorios remotos", asegura el profesor de la UNED y coordinador de AutomatL@abs, Sebastián Dormido.
Internet y la informática son las herramientas básicas de este proceso de virtualización de la ciencia. Pero ya antes se modelaba. "La ciencia trata de modelar la realidad y, con ese modelo, conocerla mejor", opina Dormido. "En la ciencia avanzamos usando una combinación de conocimiento profundo, intui-ción y modelado", añade.
Hay un último elemento que la tecnología ha colocado en la ecuación. Las herramientas como OSP o el AutomatL@bs, por definición, exigen la colaboración entre los participantes. Y esa colaboración es, tanto para Esquembre como para Dormido, fuente de nuevo conocimiento.

2011/11/21

Los neutrinos siguen corriendo más rápido que la luz

Poco después de que científicos del Laboratorio Europeo de Física de Partículas (CERN) hallaran pruebas en septiembre de que los neutrinos viajan más rápido que la luz, el físico británico Jim Al-Khalili hizo una promesa: "Si se demuestra que el experimento del CERN es correcto, me comeré mis calzoncillos en directo en la televisión". Desde ayer, Al-Khalili, de la Universidad de Surrey, está más cerca, pero todavía lejos, de protagonizar el que sería uno de los shows sobre ciencia más vistos de la historia.
El mismo equipo de científicos del CERN ha repetido una de las carreras más fascinantes que se recuerdan: la galopada subterránea de un grupo de neutrinos desde sus instalaciones en Ginebra al laboratorio italiano del Gran Sasso, a 730 kilómetros de distancia. La photo finish, como ya ocurrió en septiembre, pone los pelos de punta: los neutrinos llegaron a Italia 60 nanosegundos antes que la luz.
Los resultados, todavía en cuarentena, pondrían las leyes del universo patas arriba. Según la teoría de la relatividad de Albert Einstein, nada puede viajar más rápido que la luz. Pero estos neutrinos, partículas subatómicas, avanzan seis kilómetros por segundo más que ella. "El resultado [del ensayo] es ligeramente mejor que el del anterior", ha declarado el físico Dario Autiero, uno de los responsables del experimento. En esta ocasión, a diferencia del test de septiembre, los científicos han espaciado más los haces de neutrinos disparados en Ginebra para conseguir mediciones más precisas de su velocidad. Los resultados se pueden consultar en la web Arxiv.org.
"Han eliminado uno de los posibles errores sistemáticos, pero quedan muchos más", explica con escepticismo Juan José Gómez Cadenas, experto en neutrinos del CSIC. Los físicos del CERN miden la distancia que recorren los neutrinos con GPS, y el tiempo que tardan, con relojes atómicos. "Ambos están expuestos a pequeños errores que pueden conspirar" para alterar el resultado de la carrera, señala.
"El nuevo experimento no es definitivo, pero añade credibilidad", opina José W. F. Valle, del Instituto de Física Corpuscular de Valencia. Valle esgrime argumentos teóricos en contra de la victoria al sprint de los neutrinos. La luz y los neutrinos procedentes de la explosión de la supernova 1987A, a 168.000 años luz, llegaron a la Tierra en 1987 a la misma velocidad. "Los neutrinos tendrían que haber llegado años antes, si fueran más rápidos que la luz", advierte.
Los científicos esperan ahora la repetición de la carrera en el Laboratorio Nacional Fermi, cerca de Chicago (EEUU), que ofrecerá sus primeros resultados a comienzos de 2012.

Crean el "material más ligero del mundo"

Un grupo de ingenieros estadounidenses asegura haber creado el material más ligero del mundo.
La sustancia es un entramado de pequeños tubos metálicos huecos con pequeños espacios entre ellos.

Los investigadores aseguran que el material es 100 veces más ligero que el poliestireno extruido, comercializado por la marca Styrofoam, y tiene la capacidad de "absorber gran cantidad de energía".
Entre sus aplicaciones podría estar la fabricación de la próxima generación de baterías y absorvedores de golpes.
La investigación, que ha sido publicada en la última edición de la revista Science, fue llevada a cabo en la Universidad de California en Irvine y en los laboratorios HRL.
"La clave fue fabricar un entramado de tubos huecos interconectados con un grosor 1.000 veces menor que un pelo humano", según el director de la investigación, Tobias Schaedler.
clic Lea: Los autos del futuro, fabricados de fibra de carbono

Baja densidad

El material resultante tiene una densidad de 0,9 miligramos por centímetro cúbico.
En comparación, la densidad de los aerogeles de óxido de silicio -los materiales sólidos más ligeros del mundo- tiene una densidad de 1,0 miligramos por centímetro cúbico.
El entramado metálico es más ligero porque su composición es 99,99% aire y 0,1% material sólido.
Los ingenieros afirman que el secreto de su material reside en el orden de su diseño de enrejado.
En contraste, otras sustancias ultraligeras, entre ellas aerogeles y espumas metálicas, tienen estructuras celulares aleatorias. Esto supone que son rígidas, fuertes, absorven menos energía y son peores conductores que las materias primas de las que están fabricados.

William Carter, director de diseño de materiales en HRL, compara el nuevo material con estructuras de baja densidad mayores.
"Los edificios modernos, por ejemplo la Torre Eiffel o el Puente Golden Gate de San Francisco son increíblemente ligeros y de poco peso gracias a su arquitectura", afirma.
"Estamos revolucionando los materiales ligeros al traer ese concepto a las escalas nano y micro", explicó.
Los ingenieros afirman que aplicaciones prácticas para la sustancia incluyen el aislamiento térmico, los electrodos de baterías y productos que necesitan amortiguar el sonido, la vibración o los golpes.

2011/11/19

Los neutrinos vuelven a ser más rápidos que la luz en un nuevo experimento

Un nuevo experimento en el CERN (Organización Europea para la Investigación Nuclear) ha arrojado el mismo resultado que el estudio que el pasado mes de septiembre agitó a la comunidad científica al cuestionar la teoría de la relatividad de Einstein, que fue formulada en 1905 y es uno de los pilares de la física moderna. Los autores aseguran que en este nuevo test los neutrinos volvieron a ser más veloces que la luz.
Los resultados del estudio, que aún no han sido revisados por otros científicos y por tanto no han sido publicados, han sido remitidos a 'Journal of High Energy Physics' y pueden consultarte en la web de Arxiv.
El nuevo experimento mejoró el anterior, pues se diseñó introduciendo algunos cambios para detectar posibles fallos. Se llevó a cabo en el laboratorio Gran Sasso (Italia) con el objetivo de verificar si estas partículas subatómicas, denominadas neutrinos, eran capaces de recorrer una distancia de 730 kilómetros en menos tiempo que la luz. La velocidad de la luz es de unos 300.000 kilómetros por segundo.
"El resultado ha sido ligeramente mejor que el anterior", ha afirmado Dario Autiero, coordinador del experimento e investigador del Instituto de Física Nuclear de Lyon (Francia) en declaraciones a Nature.
Autiero fue también uno de los firmantes del estudio hecho público en septiembre y el encargado de presentar los resultados a la comunidad científica en una intervención que suscitó una gran expectación en todo el mundo. El mismo Autiero admitió su sorpresa durante la presentación e instó a sus colegas a estudiar el caso para detectar si se había producido algún error.

Un experimento mejorado

Según el experimento hecho público el 22 de septiembre por el equipo investigador de OPERA, una corriente de neutrinos fue capaz de recorrer los 730 kilómetros que separan el CERN de Ginebra del laboratorio subterráneo del Gran Sasso en un tiempo 60 nanosegundos menor que lo que tardaría la luz, un sorprendente resultado que fue acogido entre la comunidad científica con escepticismo. Esta investigación duró tres años, durante los cuales testaron los resultados en varias ocasiones.
Al igual que se hizo con el anterior ensayo, el nuevo experimento midió el tiempo que los neutrinos tardaban en recorrer una distancia de 720 kilómetros. Sin embargo, en esta nueva prueba se introdujeron haces con neutrinos menos duraderos que en ensayos anteriores, ya que la duración de los haces empleados era considerada por algunos expertos como la razón de un posible error de medición.
Autiero ha explicado este viernes que la mayor parte de los investigadores que participaron en el anterior experimento y que declinaron firmarlo porque querían tener más tiempo para comprobar los resultados sí figurarán en el nuevo 'paper'. Entre ellos se encuentra Caren Hagner, de la Universidad de Hamburgo (Alemania). Según esta investigadora, el nuevo experimento no sólo ha sido más preciso. El análisis estadístico es más robusto y ha sido repetido por diferentes grupos dentro de OPERA que no formaban parte del equipo original. "Hemos conseguido mucha más seguridad", afirmó Hagner.

Habrá que esperar a otros resultados

Los científicos del Instituto Italiano de Física Nuclear (INFN) han explicado en un comunicado que los nuevos ensayos, realizados para excluir posibles errores, habían obtenido el mismo resultado
Fernando Ferroni, presidente del INFN, afirmó: "El resultado positivo del experimento nos hace confiar más en el resultado, aunque habrá que esperar a ver los resultados de otros experimentos análogos en otras partes del mundo antes de decir la última palabra".
El próximo año se llevarán a cabo otros dos experimentos en el laboratorio de Gran Sasso (Borexino e Icarus) que están siendo diseñados en la actualidad y que aportarán resultados independientes a los del equipo de OPERA. Además, se llevarán a cabos mediciones independientes en laboratorios similares de EEUU y Japón.
El director general de CERN, Rolf Heuer, pidió "prudencia" el pasado mes de septiembre mientras se comprueban las "posibles soluciones".

2011/11/16

Nuevas noticias sobre la guerra de la materia

La mayor máquina del mundo acaba de aportar nuevos datos sobre la primera guerra del universo. Sucedió hace unos 13.700 millones de años y fue el enfrentamiento entre materia y antimateria, su reverso de carga opuesta. La teoría dice que en aquellos tiempos tras el Big Bang había igual cantidad de ambas. Si fuese verdad, no existiría nada, ya que materia y antimateria se habrían aniquilado por completo. De alguna forma, la primera se impuso a su némesis y los físicos de medio mundo llevan décadas intentando saber cómo.
Uno de los experimentos del Gran Colisionador de Hadrones de Ginebra, el LHC, acaba de aportar nuevos detalles que podrían explicar esa victoria. Se trata del LHCb, concebido ex profeso para estudiar un fenómeno conocido como "violación CP" y que indica el ligero desequilibrio entre partículas y antipartículas que hizo posible el universo conocido. Los responsables del experimento han encontrado un desequilibrio entre ambas mucho mayor del que predice el modelo teórico más aceptado.
Los resultados son provisionales y podrían deberse a un fallo estadístico (el margen de error es de un 0,5%). Si son ciertos apuntarían a que el modelo de física de partículas vigente tiene una grieta por la que podría desinflarse, o crecer para aceptar en su seno nuevas partículas responsables del fenómeno. "Nuestros resultados pueden ayudar a explicar la diferencia de comportamiento que ha hecho que haya más materia que antimateria", explicó ayer a este diario Chris Parkes, físico del LHCb.

Modelo estándar

En el acelerador de Ginebra se hacen chocar protones para descomponerlos en partículas elementales, los componentes más pequeños del átomo. Tras el Big Bang, comenzaron a unirse y componer el universo tal cual es.
El comportamiento de estas partículas lo describe el modelo estándar, una teoría que "funciona muy bien" pero que "no permite explicar del todo por qué el universo es como es", resume Eugeni Grauges, físico de la Universidad de Barcelona que dirige un equipo español en el LHCb. El modelo predice un desequilibrio entre materia y antimateria del 0,1%, que, en 13.700 millones de años, no habría generado tanta materia como la que existe.
Tras analizar las colisiones acumuladas en la mitad de 2011, Grauges, Parkes y sus colegas se han topado con un desequilibrio de un 0,8%. Se trata de un resultado "sorprendente" que, sin embargo, debe ser confirmado. "No podemos decir que lo hayamos probado", advierte Parkes, pero sí "establecer que el fenómeno existe", añade Grauges. "Ahora habrá que ver si encaja con el modelo actual o no", concluye.
“No es un resultado muy espectacular”, opina Alberto Ruiz, investigador del LHC y del Tevatron de EEUU. Este último acelerador encontró un desequilibrio del 0,4%, pero el margen de error era similar al del estudio actual, que en física no basta para poder proclamar un “descubrimiento”.
Aunque por ahora es “pura especulación”, el desequilibrio observado podría deberse a partículas no observadas hasta ahora, pero sí predichas por la teoría de la supersimetría, dice Parkes.

Un coche eléctrico formado por una sola molécula

Un reciente trabajo publicado en Nature muestra el cuidadoso diseño químico y la fabricación de un 4x4 eléctrico formado por tan sólo una molécula. Depositando esta molécula sobre una superficie de cobre y añadiéndole energía, en forma de electrones, los autores del trabajo han conseguido que la molécula se mueva en una dirección específica, como un coche. Es la primera vez que se consigue que una molécula realice un movimiento continuo por la superficie en la misma dirección.
En el complejo arte de convertir los cambios en la forma de las moléculas en movimiento dirigido, la naturaleza es la reina. En nuestro cuerpo podemos encontrar múltiples ejemplos de motores proteicos capaces de convertir energía química en trabajo mecánico. Entre ellos destaca la miosina, proteína muscular que acciona la contracción de las fibras musculares en los animales.
Tomando a la naturaleza como fuente de inspiración, mediante nanotecnología se han conseguido diseñar diversos sistemas artificiales que consiguen movimiento, aunque hasta ahora, las moléculas eran meros elementos pasivos. Sin embargo, los cuatro extremos de la molécula de este trabajo, firmado por científicos de la Universidad de Groningen (Holanda), actúan como la rueda de un coche.

Cuatro brazos

La molécula está formada por cuatro brazos que actúan como motores rotatorios cuando una diminuta punta metálica les transfiere electrones. Si los cuatro motores rotan todos en la misma dirección, se produce un movimiento en línea recta, de forma semejante a cómo funciona una barca de pedales o patín.
La diminuta punta metálica que actúa como la batería del coche, acaba en uno o unos pocos átomos y forma parte del Microscopio de Efecto Túnel (STM). Se utiliza tanto para transferir los electrones a la molécula de forma que se pueda mover, como para visualizar la molécula y su movimiento.
Cambiando la dirección del movimiento de rotación de las unidades motoras individuales en cada brazo, el 'nanocoche' puede realizar un movimiento al azar o trayectorias lineales. Los autores opinan que "este diseño representa un punto de partida para explorar sistemas mecánicos moleculares más sofisticados, quizás con control completo sobre la dirección de movimiento".

2011/11/11

"Lo peor de la ciencia en España es la endogamia"

Afinales del siglo XIX, Santiago Ramón y Cajal escribió: "Durante algún tiempo todavía [...] la investigación científica en España será obra de abnegación y sacrificio". Si el primer Nobel de Medicina español se levantase hoy de la tumba, tendría que reafirmarse en que, para ser científico en este país, siguen haciendo falta ambas cosas.
Sacrifico y abnegación le pidieron sus superiores a Gessa-mí Sánchez-Ollé en la primavera de 2008, aunque con otras palabras. Esta investigadora barcelonesa de 32 años había pasado los últimos cuatro estudiando terapias contra la enfermedad de Gaucher, una dolencia hereditaria poco común, en el Departamento de Genética de la Universitat de Barcelona. Su trabajo se sufragaba con una beca de cuatro años que pagaba el Ministerio de Educación y Ciencia y cuyo objetivo final era que Sánchez-Ollé terminase su investigación, que sería también su tesis doctoral.
A finales de abril de 2008, su estudio con células de pacientes no estaba terminado, pero sí su financiación. Los directores de tesis de Sánchez-Ollé no podían ofrecerle gran cosa. "Me dijeron que siguiese trabajando y viviera de diez meses de paro que me quedaban y que tal vez podrían suplementarlo", explica Sánchez-Ollé. "Si me hubieran hecho un contrato, me habría quedado, pero no cobrando en negro, como me propusieron", explica la investigadora, que ahora trabaja en el Hospital Vall d'Hebron de Barcelona en un trabajo relacionado con la medicina, pero no con la investigación básica, que era su vocación.
La situación no es ni nueva ni única. En la organización a la que pertenece Sánchez-Ollé, la Federación de Jóvenes Investigadores/Precarios, conocen muchos más casos de becarios que trabajan sin cobrar durante meses o años. La práctica es muy común en centros de investigación y universidades y los responsables de los grupos de investigación lo defienden, ya que el trabajo que hace el becario gratis es en realidad en su beneficio, pues servirá para mejorar su currículum con nuevas publicaciones en revistas científicas, que es la vara de medir la calidad de cualquier investigador. En resumen: sacrificio y abnegación.
En España, como en otros países, la carrera investigadora es dura, incierta y vocacional. Una vez conseguido el doctorado, los jóvenes deben seguir buscando laboratorios que necesiten doctores con su perfil y cuyos responsables puedan permitirse pagarles un sueldo durante los tres, cuatro o cinco años que dure el proyecto. El objetivo del investigador joven en España es ir enlazando estos contratos temporales, algunos de ellos, si es posible, en el extranjero, hasta lograr una plaza fija como investigador, algo que, con suerte, sucede cuando están ya bien entrados en la treintena. "Lo malo de la ciencia es que te tienes que ir moviendo por el mundo y es difícil quedarte donde quieres", explica Sánchez-Ollé.
Ella empezó estudiando Medicina, pero a los dos años decidió cambiar a bioquímica, tras una estancia en la Universidad de Cambridge en la que estudió el desarrollo neuronal. Esa era su vocación y la persiguió hasta el día en que le ofrecieron trabajar y cobrar el paro a la vez. La investigadora se negó, buscó otro trabajo y lo consiguió, como coordinadora de bases de datos de oncología en el Vall d'Hebron, un empleo en el que tiene contrato fijo, pero no hace ciencia básica. Desde entonces ha seguido yendo a su antiguo laboratorio los fines de semana para terminar su trabajo sobre la enfermedad de Gaucher con el beneplácito de sus antiguos jefes. Su tesis fue aprobada el mes pasado.
"Supongo que, si volviera a empezar, haría lo mismo, porque también se aprende de las malas experiencias, pero algún día hay que hacerse mayor y empezar a trabajar de ocho a cinco", reconoce.

Nueva carrera

Este año, la Ley de la Ciencia, el proyecto estrella del Ministerio de Ciencia e Innovación que dirige Cristina Garmendia, ha modificado la carrera científica. El texto, aprobado con el apoyo de todos los partidos excepto IU, ICV y UPyD, cambia las becas por contratos, lo que supondrá que los becarios tendrán Seguridad Social desde el primer año. Está por ver si la norma impedirá que los investigadores sigan trabajando de tapadillo una vez finalice su periodo máximo de cuatro años como contratados predoctorales. Sánchez-Ollé reconoce que la ley es "muy importante", pero teme que haya "lagunas" y que siga habiendo irregularidades encubiertas. ¿Qué cambiaría del sistema de I+D si pudiera? "Lo peor es la endogamia", dice, en referencia a investigadores que empiezan y terminan su carrera en el mismo centro de investigación. "Hace que no conozcas cómo trabaja otra gente. En ocasiones, un laboratorio no sabe qué hacen en otro centro de investigación que hay cruzando la calle", concluye.

2011/11/09

La ciencia sí es para viejos

Fue Albert Einstein el que dijo: "Quien no ha hecho su gran contribución a la ciencia antes de los 30 ya nunca la hará". En esto, el gran físico, que postuló su teoría de la relatividad a los 26 años, se equivocaba. La edad que tenían los grandes científicos cuando realizaron el trabajo por el que fueron premiados con el Nobel ha ido aumentando a lo largo del pasado siglo.
Dos economistas estadounidenses (de las universidades Ohio State y Northwestern) han analizado la relación entre creatividad científica y edad para desmontar el tópico sostenido por Einstein. Bucearon en la historia de los 525 premiados con el Nobel en las categorías de Física, Química y Medicina desde que se fundaron los galardones hasta 2008.
Einstein describió muy bien el tiempo que le tocó vivir. Antes de 1905, el 69% de los químicos, el 63% de los médicos y el 60% de los físicos reconocidos con el Nobel habían realizado el trabajo por el que fueron reconocidos antes de superar los 40 años. Pero el físico alemán no acertó como pitoniso. Progresivamente, los científicos han venido tardando más en plasmar sus mejores ideas. Ya en el siglo XXI, por ejemplo, sólo el 19% de los físicos estaban por debajo de los 40 años en el momento de tener la genial idea, dos tercios menos que un siglo atrás. Desde 1985, la media se sitúa en los 50 años, 13 años más.
La química y la medicina presentan la misma tendencia, aunque en estas disciplinas las edades de partida y final no eran tan extremas. Aún así, desde 2000 no hay químicos que hayan hecho sus mejores experimentos antes de los 40. En la segunda, de una edad media de 39,9 se ha pasado en el último cuarto de siglo a los 45.

Conocimiento acumulado

"Hay dos factores que entran en juego", dice el profesor Benjamin F. Jones, de la Universidad Northwestern y coautor del trabajo publicado en PNAS. "Por un lado, el conocimiento se acumula con el tiempo, por lo que se necesitan más años para llegar hasta la investigación de frontera. Además, ha aumentado el trabajo empírico, que suele hacerse a edades más tardías".
Hay una excepción a este patrón de envejecimiento y es el de la física en el primer tercio del siglo XX. Un 31% de los premiados hasta 1923 tenían menos de 30 años en la cumbre de su fertilidad científica. Si se eleva la edad hasta los 40, la cifra llega hasta el 78% en 1934. El alemán Werner Heisenberg, por ejemplo, desarrolló su mecánica matricial en 1925, a la edad de 23 años, y su Principio de Incertidumbre dos años después. Y no fue el único caso. Con Wolfgang Pauli y Paul Dirac, Heisenberg representa a la hornada de científicos que, antes de cumplir los 30, ya habían sentado las bases de la mecánica cuántica.
Además de confirmar la norma, la excepción sirve esta vez para explicar mejor la dinámica entre creatividad y edad. La tendencia que han observado los autores es que la ciencia se ha hecho cada vez más empírica, mientras que la mecánica cuántica fue, en sus inicios, fundamentalmente teórica. "Aunque la física tiene más teoría que la química o la medicina, el trabajo en todos los campos es cada vez más empírico", sostiene Jones. Por el listado del Nobel, se puede afirmar que hoy se experimenta más y se teoriza menos.
La excepción cuántica explica algo más: los jóvenes suelen traer la revolución. Personajes como Heisenberg, que tuvo muchos problemas para conseguir graduarse, reflejarían un cierto inconformismo con el conocimiento establecido. "Las evidencias sugieren que el desarrollo de la mecánica cuántica fue en mayor proporción obra de los jóvenes. En parte se debió a que el trabajo teórico es cosa de jóvenes y, creo, en parte también porque adquirir mucho conocimiento acumulado puede hacer más difícil pensar en cosas radicalmente diferentes", opina Jones.

2011/11/02

El hacedor de lluvia que inundó San Diego

Uno de los primeros expertos en manipular el clima fue el estadounidense Charles Hatfield. A comienzos del siglo pasado, este vendedor de máquinas de coser creó un sistema para provocar la lluvia. Con una fórmula secreta de 23 elementos químicos, aseguraba que podía hacer llover. Afincado en California, y apoyado en una fuerte inversión publicitaria de su socio inversor, Hatfield consiguió que los agricultores le pagaran. Aunque sus resultados no se apoyaban en ningún estudio científico, el Consejo Municipal de San Diego le contrató a finales de 1915 para combatir una prolongada sequía.
Tras construir una torre desde la que liberó su fórmula secreta, el 5 de enero de 1916 comenzó a llover. Lo hizo durante 17 días, pareció un nuevo diluvio, con más de un metro cúbico de precipitaciones acumuladas. Murieron decenas de personas, los ríos se desbordaron y centenares de puentes cayeron bajo la presión de las aguas. Dos presas también se derrumbaron. El desastre fue tal que el Ayuntamiento decidió no pagarle, es más, le exigió daños y perjuicios. Hatfield acudió a los tribunales pero la sentencia dictaminó que la lluvia fue un "acto de Dios".


Aunque no recibió un dólar por aquello, Hatfield se hizo famoso en todo el país y fuera de él. El Gobierno italiano le invitó a Nápoles para luchar contra la sequía en 1922 y, años más tarde, el de Honduras, para combatir un gran incendio. Hasta Burt Lancaster interpretó su historia en la película The Rainmaker, estrenada en España con el revelador título de El farsante. No en vano, no sería hasta los años treinta en que se empezarían a usar los cristales de yoduro de plata, ahora sí, con una base científica.
Las peripecias de Hatfield se han incorporado a la cultura popular estadounidense. Muchos de ellos creen a pies juntillas que su Gobierno manipula desde hace mucho los cielos. Una de las teorías conspiranoicas más persistentes es la de las chemtrails. Esas estelas de condensación no serían ni nubes ni provocadas por los aviones sino por la liberación de aerosoles con las más aviesas intenciones, como la guerra química o el control del clima.
De hecho, una encuesta internacional publicada la semana pasada en Environmental Research Letters sobre geoingeniería revela que un 14% de los más de 3.000 entrevistados (la mayoría de EEUU) creen que su Gobierno esta jugando con el clima. Este segmento de la población es precisamente el más contrario al uso de las técnicas de remediación climática como arma contra el cambio climático. Sin embargo, cerca del 70% se mostraba a favor de experimentar con el clima. Los más favorables a la geoingeniería son los que, al mismo tiempo, confían más en la ciencia.

2011/10/31

Cuatro siglos de ciencia en internet

La Royal Society, Premio Príncipe de Asturias de la Comunicación y Humanidades 2011, acaba de abrir su archivo histórico a través de internet. En ocasiones anteriores había dado acceso libre a parte de sus publicaciones, pero ahora es posible acceder a su buque insignia, la revista Philosophical Transactions, 24 horas al día, siete días a la semana.
No solo es posible encontrar artículos de descubrimientos como el espectro luminoso por Isaac Newton, el pararrayos de Benjamin Franklin, los agujeros negros de Stephen Hawking o la doble hélice de ADN de Francis Crick y James Watson; sino que se ilustran todo tipo de experimentos fascinantes, desde transfusiones de sangre entre una oveja y un hombre o cómo, para describir los efectos de la intoxicación por dióxido de carbono, John Haldane se introdujo en un cámara de gas. Son más de 60.000 artículos científicos cuyo origen data del 6 de marzo de 1665.

Detrás del proyecto se encuentran muchos años de duro trabajo. La digitalización se ha llevado a cabo gracias a JSTOR (acrónimo en inglés de Journal Storage, almacenamiento de publicaciones), una organización sin ánimo de lucro afincada en Nueva York. Esta organización asumió el coste del proyecto sin que se haya precisado más inversión por parte de sociedad británica que el pago de una licencia de 10.000 dólares.
La participación de JSTOR se centró fundamentalmente en los artículos anteriores a enero de 1997, pues a partir de esta fecha la Royal Society comenzó a generalizar el uso electrónico de la información. Sólo en documentación, desde el primer número del Philosophical Transactions se digitalizaron exactamente 693.780 páginas, tanto texto como imágenes en alta resolución. En total, 1,2 terabytes de información, según precisa el doctor Stuart Taylor, director comercial de la Royal Society.
Desde el punto de vista tecnológico, la digitalización aprovecha las ventajas del software de reconocimiento óptico de caracteres de manera que es posible realizar búsquedas de palabras específicas en los textos, indexarlo y simplificar la lectura en los e-readers. Sin embargo, aparecieron algunas dificultades en este proceso. Así, en los primeros artículos del Philosophical Transactions, que están escritos a mano, figuraba la s larga y otros caracteres tipográficos poco usuales. A ello se sumaba la profusión de textos en latín, francés e italiano. Como consecuencia fue necesario reescribir cerca de 40.000 páginas para que contaran con los estándares de calidad deseados. Sólo el control de calidad de la posdigitalización llevó 6.000 horas, a las que habría que sumar otras 6.000 para incorporar el software de reconocimiento óptico de caracteres.

Por su parte, el buscador, que permite filtros por tema, autor, fecha o palabras clave, ha sido concebido de manera conjunta por la propia JSTOR y un equipo de programadores de la Universidad de Michigan.
El que fuera máximo responsable de Publicaciones de la Royal Society en la década de 2000 y actual presidente del consejo de administración de la Fundación de Ciencias Web, John Taylor, fue una de las personas implicadas en el proyecto. Él mismo relata lo complejo de los aspectos legales, dado que planteaba una posible vulneración de la ley de propiedad intelectual.

Derechos de autor


 JSTOR está en Nueva York y el proyecto debía cumplir con sus leyes de derechos de autor, así como con las federales vigentes en EEUU. Por su parte, como la Royal Society se encuentra en Londres, debía cumplirse también con la legislación de Reino Unido. Tres jurisdicciones distintas que "chocaban en algunos puntos", indica Taylor, para añadir después que "tras más de un año de discusiones y constante consejo legal", el proyecto comenzó su ejecución en mayo de 1999.
El anuncio se ha hecho público durante la Semana de Libre Acceso (Open Access Week), evento mundial que se celebra por quinto año consecutivo y que defiende el acceso online gratuito e inmediato a las investigaciones académicas, así como al derecho a utilizar y reutilizar sus resultados. El director comercial señala que la combinación de opciones de acceso abierto, "así como el trabajo para poner la información a disposición de forma gratuita a los científicos del mundo en desarrollo contribuye al objetivo de avanzar en la ciencia".
En esta línea, recientemente se anunció Open Biology, su primera publicación de acceso totalmente libre. En algunos casos, no obstante, imponen algunos plazos: los artículos de Proceedings B desde 2001 hasta ahora sólo se pueden consultar un año después de su publicación, mientras que en el caso de Proceedings A, los artículos pos-2001 requieren de un plazo de dos años para que vean la luz en internet. Asimismo, las publicaciones más jóvenes de la Royal Society, esto es, Biology Letters e Interface respetan también el plazo de un año para su acceso libre.

2011/10/21

El suelo de los polos es tan biodiverso como el de los trópicos

Los animales microscópicos que viven en el suelo son tan diversos en los bosques tropicales de Costa Rica como en las regiones secas de Kenia o los bosques de Alaska, según investigadores en Estados Unidos.
Los científicos suponían hasta ahora que la riqueza de especies bajo la superficie era mayor en los trópicos, pero un nuevo estudio muestra por primera vez que el mundo subterráneo responde a parámetros sorprendentes.
"De la misma manera que alguien que va al tropico busca saber cuántas especies de aves existen, durante mucho tiempo se ha intentado determinar cuántos organismos viven en un puñado de tierra", dijo a BBC Mundo Diana Wall, de la Universidad Estatal de Colorado y una de las autoras del estudio, que fue publicado en la revista de la Academia de Ciencias de Estados Unidos, Proceedings of the National Academy of Sciences.

"Gracias a nuevas técnicas moleculares pudimos encontrar una enorme cantidad de organismos, que además es única de cada sitio. Nos sorprendió, por ejemplo, que cuando examinanos el suelo del Ártico y lo comparamos con el suelo en Sudamérica hallamos más de 1300 tipos diferentes de animales, muchos desconocidos para la ciencia. Y hay muchos más. Así que no solo los trópicos tienen abundancia de vida animal en los suelos".
Los investigadores encontraron que cada sitio tenía un ecosistema único con una extraordinaria diversidad de especies, a diferencia de lo que se pensaba hasta ahora: que a diferencia de lo que ocurre en la superficie, los animales en el suelo eran bastante similares de un lugar a otro.
"En promedio, el 96% de los animales que identificamos se encontraban sólo en ese sitio, o sea, eran endémicos de ese lugar, lo que indica que tienen una distribución restringida", explicó Wall.

Técnicas moleculares

Los científicos tomaron muestras de 11 sitios en el planeta, incluyendo un bosque tropical en La Selva, Costa Rica, una región árida en Kenia, bosques de Nueva Zelanda, bosques de tundra y boreales en Alaska y Suecia, la Estación Biológica Los Amigos, en Perú, y la Estación Río Mayo en Argentina.
"Los animales que viven en los suelos ven un hábitat muy diferente al que vemos en la superficie. Ellos perciben un hábitat del tamaño de partículas de suelo y materia orgánica. Si nosotros fuéramos animales microscópicos que viven en el suelo el cambio más sutil en salinidad, por ejemplo, sería como un cambio de clima radical de Kansas a Miami. Esas diferencias de salinidad hacen que su hogar sea único", dijo Wall a BBC Mundo.
Los investigadores analizaron las muestras de suelos con nuevas técnicas moleculares que permiten analizar el ADN de distintos organismos.

"De la misma forma que en el caso de los seres humanos se toma una muestra de saliva y se analiza y amplifica su ADN, lo que nosotros hacemos es tomar muestras del suelo y amplificar todo el ADN. Cada ser tiene una identidad diferente".
"Miramos la secuencias, cómo están alineados sus genes, y los comparamos con los datos en bancos de genes y podemos decir, esto es un ácaro, o un microartrópodo, un nemátodo o una cochinilla de humedad".
Wall señala que un estudio similar hace dos décadas habría requerido la participación de "25 expertos por cada grupo taxonómico".

"Los suelos son muy valiosos"

El estudio tiene importantes implicaciones para los esfuerzos de conservación, según sus autores.
"Abre todo un nuevo campo para nosotros. Si preservamos los trópicos pero no prestamos atención al suelo y lo dejamos fuera de los esfuerzos de conservación, estamos excluyendo muchas especies que habrían podido ser beneficiosas para los seres humanos en el futuro. De ahora en adelante deberemos considerar con cuidado cómo restaurar suelos", señaló Wall.
Para la científica de la Universidad Estatal de Colorado, el estudio de los suelos es cautivante.
"Siempre me fascinó la pregunta de por qué hay tantas especies de animales en los suelos, cuando uno los mira al microscopio son intrincados, tienen formas y tamaños diferentes, son animales extraordinarios".

"La gente solía reirse de mí y me preguntaba por qué siempre jugaba con tierra. Cuando niños siempre tenemos las manos en la tierra, buscamos hormigas y termitas, pero cuando crecemos solemos olvidarnos del suelo. En mi caso la fascinación siempre continuó".
Wall espera que el estudio también lleve al público en general a ver los suelos de una manera completamente diferente.
"Me gustaría que la gente vea que los suelos son muy valiosos. Ayudan en la descomposición de la materia orgánica, de ramas y hojas que mueren, ayudan a que los nutrientes vuelvan a las plantas, nos dan nuestro alimento, plantas, muchos animales dependen de termitas y gusanos. Además, los suelos ayudan a limpiar el agua que consumimos y a fertliizar la tierra", dijo Wall a BBC Mundo.
"El suelo es como un nuevo océano que aguarda ser descubierto".

2011/10/19

Los neutrinos no pudieron batir a la luz

Los neutrinos que en septiembre desafiaron a Albert Einstein viajando más rápido que la luz, algo que el físico alemán descartó con la teoría de la relatividad, no tenían nada de extraño. Es la conclusión a la que ha llegado el experimento Icarus, que está puerta con puerta con Opera, que cazó las partículas anómalas en primer lugar. Los neutrinos que Opera analizó superaron a la luz en 60 nanosegundos, según sus cálculos. Icarus rebate ahora en arxiv.org que tenían una energía igual a la de los neutrinos convencionales, lo que cuestiona que pudiesen batir el récord.
Opera e Icarus están a 1.400 metros de profundidad bajo los Apeninos, en Italia. Allí reciben, sin interferencias atmosféricas, los neutrinos producidos en el laboratorio europeo de física de partículas CERN de Ginebra, a 730 kilómetros.
A los neutrinos se los conoce como la partícula fantasma. Al contrario que la luz, atraviesan la materia sin apenas actuar con ella. No obstante, los neutrinos generados en CERN pierden algo de energía en ese viaje a través de la corteza terrestre.
Hace unas semanas, los físicos Andrew Cohen y el Nobel Sheldon Glashow firmaron un trabajo publicado en arxiv.org que cuestionaba los resultados de Opera. Alertaban de que si un neutrino supera la velocidad de la luz liberaría un fuerte destello de energía, similar a la onda de choque que produce un avión cuando rompe la barrera del sonido. Esa pérdida de energía debería detectarse en Opera si los neutrinos hubiesen batido el récord de velocidad cósmico impuesto por Einstein. Sus rivales de Icarus han medido la energía de los neutrinos de Opera. Sus resultados muestran que el rango de energía de aquellas partículas estaba entre los límites normales. "Los resultados muestran que no hay un exceso de radiación; si no la hay es que no son superlumínicos [más rápidos que la luz]", explica Juan José Gómez-Cadenas, experto en física de partículas del CSIC.
La única opción para conciliar el récord de velocidad con la falta de radiación sería que el neutrino se moviese por una dimensión extra, algo barajado por algunos teóricos pero sin ninguna prueba real, por el momento.
El trabajo de Icarus y el del Nobel Glashow se suman a otras decenas de trabajos que encuentran peros a los polémicos resultados de Opera, tan rompedores que ni siquiera sus descubridores se atrevieron a interpretarlos. "Todos estamos convencidos de que esta situación se resolverá en unos meses cuando se encuentre el error que hubo en Opera", opina José Ángel Villar, director asociado del Laboratorio Subterráneo de Canfranc.
Ayer mismo el CERN dio el pistoletazo de salida al diseño de Laguna, el mayor laboratorio de neutrinos del mundo. Su enorme gruta subterránea tendrá capacidad para 500.000 toneladas de agua, lo que permitirá detectar y estudiar neutrinos llegados tanto de estrellas en explosión como de los generadores del CERN. Durante los próximos tres años se diseñará el experimento. Siete países europeos compiten por albergarlo, entre ellos España, que ofrece el laboratorio de Canfranc, bajo los Pirineos, para cavar la enorme gruta. Sería una obra faraónica que costaría unos 500 millones de euros y tardaría al menos ocho años, explica Villar, que junto a Gómez-Cadenas forma parte de la candidatura española.

2011/09/30

El acelerador de partículas estadounidense Tevatrón cierra este viernes por falta de financiación

El acelerador de partículas circular Tevatrón, el equivalente americano del Gran Colisionador de Hadrones (LHC) del Centro Europeo de Investigación Nuclear (CERN), cierra sus puertas este viernes por falta de financiación, un hecho que los medios de comunicación de Estados Unidos definen con "el fin de la era de los grandes físicos estadounidenses".

El Tevatrón, que comenzó su andadura hace 26 años, ha trabajado con la aceleración de protones y antiprotones con un anillo de 6,3 kilómetros de circunferencia que ha logrado alcanzar energías de casi 1 Teraelectronvoltio (TeV). El LHC europeo ha logrado trabajar con 7 TeV, una circunstancia que, a juicio de los expertos, también ha ayudado a que el "viejo ciclotrón" diga ahora adiós a su actividad.

En los últimos años se le habían hecho varias actualizaciones, siendo la más importante la adición del anillo llamado inyector principal que se construyó entre 1994 y 1999 con un coste de 290 millones de dólares. Entre sus grandes descubrimientos destacó el 'Quak Cima', en 1995, una partícula elemental perteneciente a la tercera generación de quarks, y el más masivo de los quarks, tanto como los núcleos de oro.

Además, en el año 2000 descubrió el neutrino tauónico (o tau-neutrino, una partícula del grupo de los leptones que tiene una masa un millón de veces menor que el electrón; y en el 2007 se llegó a conseguir la medición de la masa del quark tipo con una precisión muy cercana al 1 por ciento.

Según han señalado los científicos, es poco probable que Estados Unidos sea capaz de conseguir los recursos suficientes para abordar un nuevo proyecto dentro de la física de partículas. En este sentido, señalan que Estados Unidos está cediendo a Europa el poder en la física de alta energía, de hecho, apuntan que muchos de los científicos estadounidenses que trabajaban con el Tevatrón ahora colaboran con el CERN, incluso la NASA ha solicitado ayuda a Europa. El director general del CERN, Rof Heuer, ha querido destacar las "fenomenales contribuciones del Tevatrón a la física de partículas".

Tres instituciones españolas, el Instituto de Física de Cantabria (IFCA), el Instituto de Física de Altas Energías (IFAE) de Barcelona y el Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT), han participado directamente en sus experimentos. Estos tres centros forman parte del Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN), proyecto Consolider-Ingenio 2010.