Buscar

2011/12/12

Microsoft celebra las “12 horas de SQL Server 2012”

El Grupo de usuarios de SQL Server de España, junto a SolidQ y la propia Microsoft, organizan una jornada técnica para mostrar las nuevas capacidades de SQL Server 2012, la última versión del Sistema de Gestión de Bases de Datos de los de Redmond.

Hasta un total de 12 sesiones técnicas se irán desarrollando desde las 12 horas de hoy, día 12 de diciembre, hasta las 24:00 de esta noche.
Participarán 12 ponentes pertenecientes a este Grupo de usuarios español, asó como del grupo de producto de SQL Server en la sede de la compañía en Estados Unidos.
De entre los temas que se tocarán durante esta jornada, destacan la protección de datos frente a desastres, mejora del rendimiento, garantía de cumplimiento de normativas, exploración y visualización rápida de los datos, Business Intelligence, Depuración del código fuente, escalabilidad y data warehousing, puesta en servicio de los sistemas, productividad
Todo ello, bajo un sistema de retransmisión online disponible desde el sitio http://technet.microsoft.com/es-es/sql12

Un condenado a muerte en EE UU se salva por el 'tuiteo' de un miembro del jurado

El Tribunal Supremo de Arkansas (EE UU) determinó ayer que un hombre condenado a muerte por homicidio merece otra oportunidad porque un miembro del jurado tuiteó durante el juicio, según la cadena televisiva CBS.

Erickson Dimas Martínez fue condenado a la pena capital en 2010 por el homicidio de Derrick Jefferson, de 17 años, y a cadena perpetua por la comisión de un robo. Sus abogados apelaron la sentencia alegando que un miembro del jurado estuvo tuiteando durante el juicio, desoyendo así las órdenes específicas del juez de que no se realizara tipo alguno de comunicación sobre el caso. Otro miembro del jurado, según la defensa, se había quedado dormido.
El Tribunal Supremo del Estado de Arkansas ha determinado que, debido a la naturaleza de Twitter como red social, los tuiteos del miembro del jurado, identificado como Randy Franco, constituyen discusiones públicas.
El juez Donald Corbin ha expresado su preocupación de que, con los teléfonos de alta tecnología, cualquier miembro de un jurado puede acceder a internet y, además de usar las redes sociales, también puede descargar indebidamente información sobre los casos ante un juicio. Las autoridades del Condado Benton tendrán que fijar ahora fecha para un nuevo juicio contra Dimas Martínez.

En busca de un futuro más allá del miniportátil

Probablemente muy pocos habían oído hablar de Asus antes de 2007. Sin embargo, esta marca de informática taiwanesa tiene más de 24 años. La cuestión es que en sus inicios se dedicaba a las entrañas de los ordenadores: las placas base. Y aunque a finales de los noventa dio el paso hacia sus primeros portátiles, la revolución la protagonizó hace pocos años, cuando inundó el mercado con sus netbooks. Estos miniportátiles ligeros y baratos han entrado en barrena desde la llegada de las tabletas, con las que comparte nicho. Asus busca ahora sustituto para cuadrar sus cuentas. Apuesta por lo híbrido.

A los portátiles baratos, que siguen teniendo mercado sobre todo en países en desarrollo, se unen una tableta que parece un portátil (se llama Transformer) y un teléfono inteligente que se acopla en otra tableta (Padfone). Estas son ahora sus mejores cartas en la partida. En cuanto a su nueva tableta-ordenador, la semana pasada lanzaron la segunda versión: Transformer Prime. Como la que ya comercializan, se trata de una tableta con sistema operativo Android que se puede acoplar a un teclado. La pantalla tiene 8 horas de batería. Con el teclado acoplado suma otras ocho horas. Pero la nueva versión, fruto de la cooperación de Asus con Nvidia, es más ligera, tiene los nuevos procesadores Tegra 3 y es el primer aparato de este tipo con cuatro núcleos. Según la marca, le confieren gran potencia gráfica. Está previsto que en España se venda a principios de 2012.
En el caso del móvil-tableta, todavía no se ha presentado oficialmente para su salida al mercado, más allá de vídeos y algunas demostraciones privadas. Según cuenta una empleada en la sede de Asus en Taipei está previsto que la lancen oficialmente en febrero, coincidiendo con el Congreso Mundial del Móvil que tendrá lugar en febrero en Barcelona, como desde 2006.
El teléfono y la tableta se pueden usar juntos o por separado. Cuando el móvil se coloca dentro de la tableta, comparten la conexión 3G del móvil e intercambian la información. Para tratar de cerrar el círculo de novedades tienen también su ultrabook, un portátil ligero, de aluminio, entre 3 y 9 milímetros de grosor y que se enciende instantáneamente al abrirlo, al estilo de las tabletas. Se llama Zenbook y ya se vende desde el pasado octubre.
¿Será suficiente para sostener sus cuentas? Actualmente los miniportátiles suponen el 58% del negocio de Asus. Las tabletas (tienen más modelos además del Transformer), un 6%. Los ordenadores, un 9%. El resto llega de otros componentes, por ejemplo, de las placas bases. Este año tienen una previsión de ingresos de 12.000 millones de dólares, frente a los 10.100 millones del anterior ejercicio, y muy por encima de los 2.000 millones que facturaban en 2003. La marca taiwanesa ya no es fabricante, y ha externalizado su producción. Aun así, según Cecilia Huang Fu, directora de Marketing, asegura que tienen 11.000 empleados directos, 3.000 de ellos exclusivamente para I+D. "Buscamos el negocio a largo plazo", asegura.

"El chip controlará ordenadores con la mente"

Ordenadores controlados por la mente, Internet en tres dimensiones, bomberos-robot que socorren en incendios y reconocimiento facial en las tiendas para vender más y mejor. Si preguntásemos por el futuro a los más de 2.000 investigadores de Intel Labs, estas serían sus apuestas.

La investigación de Intel, junto a la de Microsoft o IBM, es de las pocas que aún funciona a la vieja usanza, a lo grande. 4.700 millones de euros de presupuesto anual, una legión de científicos esparcidos por el mundo y un veterano al mando: "Soy al que le pagan por adivinar qué vendrá en cinco años", dice con un deje escéptico Justin Rattner, jefe de Intel Labs.
Al gigante de los microprocesadores le urge adivinarlo más que nunca. En la era de la movilidad, el ordenador corre peligro. En Estados Unidos las ventas siguen sin levantar cabeza y en Europa volvieron a caer un 3% en el tercer trimestre, según la consultora IDC. El bolsillo, castigado, no da para todo: teléfonos inteligentes, tabletas, consolas, portátiles... ¿Dejará el PC de ser el rey?
Rattner desmonta "exageraciones" encantado. "El portátil nació hace 15 años y ahí sigue, ¡ni siquiera ha matado al PC de sobremesa!", señala. "Nos empeñamos en hablar de giros dramáticos que no existen. Estamos viviendo una evolución de la plataforma, un progreso continuo. Quienes saben adaptarse a los cambios, sobreviven, y los que no, desaparecen. Ahora nosotros, y otras compañías como Google o Microsoft, tenemos que evolucionar el PC. Si no lo hacemos morirá".
Salpica sus respuestas aquí y allá con el nombre de Google, síntoma de que los tiempos han cambiado. Ambas compañías cerraron en septiembre un acuerdo para llevar los chips de Intel a los teléfonos Android. Si wintel (Window-Intel) fue la pareja ganadora en los ordenadores en la década pasada, en la siguiente algunos apuestan por Android e Intel (¿Indroid?) en los móviles y tabletas. "El primer Android con nuestro procesador saldrá al mercado antes de junio de 2012. Nos ha llevado un tiempo madurar la relación con Google pero después de trabajar con ellos en Google TV y en los Chromebooks, era el siguiente paso", explica Rattner.
Intel intentará colarse en móviles y tabletas, por si acaso, pero su apuesta sigue siendo el ordenador personal (PC). Portátiles ultrafinos, elegantes y con procesadores de bajo consumo que alargarán la batería varios días. "Creo que el ultrabook hará a la gente pensar sobre el verdadero sentido de las tabletas y su uso. Solo hay una compañía que las esté vendiendo con cierto volumen, Apple. Aún está por demostrar que haya mercado para estos equipos".
Rattner describe un futuro mixto, lleno de múltiples aparatos, en el que el portátil seguirá teniendo un hueco para entretenerse y crear a la vez. La evolución no la veremos tanto en el diseño, como en el software.
"Interactuaremos con estos equipos con la voz, con los gestos, con sonidos, y ellos nos identificarán y ofrecerán contenido personalizado. Por ejemplo: los músculos de la mano tiemblan de forma diferente en cada uno al coger un objeto. Hemos creado un mando a distancia que reconoce a las personas por estas vibraciones y selecciona al instante en la televisión sus canales y contenido favorito", señala. "Veremos mucha innovación en este terreno".
La Internet de las cosas, la conexión a la Red de cualquier aparato, ya está en marcha, pero Rattner coincide con otros científicos en vaticinar la Internet del cuerpo humano. "En Seattle desarrollamos un chip subcutáneo para controlar ordenadores con el pensamiento. Ahora se están incrustando en la ropa y en los aparatos. En 10 años los tendremos debajo de la piel".

Amazon retocará su Kindle Fire

Amazon lanzó el 14 de noviembre su tableta Kindle Fire. Probablemente, a falta de datos oficiales, sea el dispositivo que con más éxito compite en Estados Unidos con la tableta de Apple. Podría haber vendido unos dos millones de unidades, pero este dispositivo, equipado con Android, ha recibido importantes reproches de consumidores y analistas. Ahora, Amazon ha anunciado una actualización en el plazo de dos semanas. No se sabe exactamente las correcciones que introducirá.
Nielsen Norman Group, especialista en usabilidad, publicó un análisis preocupante sobre la tableta. De entrada, la apuesta por una pantalla de siete pulgadas, como había hecho Samsung inicialmente, no parece la mejor para este tipo de aparatos, con un uso distinto a los libros electrónicos. Nielsen asegura que la tableta presenta errores de navegación, dificultad en la pulsación de los botones y ofrece un enorme retraso en la respuestas tras presionarlos. El estudio considera que faltan dos botones básicos para regresar a la pantalla de inicio y para controlar el volumen. Los consumidores han planteado quejas sobre la conexión wifi.

El Gobierno 'paró' la 'Ley Sinde' por temor a las redes sociales

Los consejos de ministros de las dos últimas semanas, los últimos de la era Zapatero, no han 'cerrado' la aprobación del reglamento de la llamada 'Ley Sinde' sobre el intercambio de archivos en internet, por el miedo del Gobierno saliente a la presión de las redes sociales y por las disensiones dentro del equipo de Zapatero.
Así lo ha reconocido el todavía presidente del Gobierno en unas declaraciones a ABC punto Radio en las que ha calificado esa presión de 'movilización en internet'. "Ese reglamento era muy polémico, era un tema de debate, y hubo compañeros del Consejo de Ministros que ponían en cuestión su aprobación. Visto, además, el debate que se produjo en las redes sociales decidí que no lo apropaba. Fue una decisión mía".
Hace dos semanas, la aprobación del reglamento se daba por hecha hasta unos minutos antes del Consejo. A última hora, el tema se cayó de la agenda. Entonces, las filtraciones apuntaron a que el vicepresidente Rubalcaba y los ministros Camaaño y Sebastián detuvieron la aprobación por su impopularidad política, frente al criterio del propio Zapatero. Según este relato, el criterio de Rubalcaba pasaba por dejar para el futuro Gobierno del PP, que da por buena la 'Ley Sinde', el mal trago de aprobar el reglamento.
Esta mañana, Zapatero ha añadido que el debate que se produjo ese día en el Consejo de Ministros sobre la aprobación del Reglamento "ha estado más o menos exagerado en los medios" y ha hecho hincapié en que no fue "tenso". El presidente ha dicho que es "cierto" que hubo "compañeros del Consejo" que abogaron por que no se aprobara el Reglamento, además de "la propia manifestación que uno advertía en la red esa noche y esa mañana que ponía en cuestión que se aprobara", máxime estando el Gobierno en funciones y "a pesar de que se le había comunicado al PP".

Homenaje de Google al padre del circuito integrado

La compañía del buscador más famosos de Internet homenajea al padre del circuito integrado y cofundador del gigante de tecnología Intel, Robert Noyce, para celebrar el 84 aniversario de su nacimiento, con un nuevo 'doodle'.
El logotipo de Google pasa hoy a formar parte de un circuito integrado. Este pequeño dispositivo ha revolucionado el mundo de la informática y la electrónica.

El último 'doodle' de los de Mountain View no sólo homenajea el nacimiento de Noyce sino que también rinde especial homenaje a su principal creación, el circuito integrado o 'chip'.
Conocido como 'el alcalde de Silicon Valley' fue cofundador de Fairchild Semiconductor en el año 1957 y de Intel en 1968. El primer 'chip' apareció en el mercado en 1961 de la mano de Jack Kilby. En 1964 algunos ya contenían 32 transistores y en 1965 el chip más complejo del mercado se había desarrollado en Fairchild, empresa de los fundadores de Intel) y ya contaba con 64 transistores.
En julio de 1968, Robert Noyce, Gordon Moore y Andrew Grove crean la empresa Intel en la que se desarrollan ideas prácticas para la memoria de semiconductores. La recién estrenada Intel creía en las posibilidades de la memoria de silicio y apostaron valientemente por ella en detrimento de la memoria magnética que, aunque ocupaba más espacio, consumía más energía y tenía menos prestaciones, era 100 veces más barata.
Finalmente, en el año 1971 nació el primer microprocesador 4004, compuesto por 4 de estos chips y otros 2 chips de memoria. Este conjunto de 2.300 transistores que ejecutaba 60.000 operaciones por segundo se puso a la venta por 200 dólares.
Seguidamente, Intel comercializó el 8008, capaz de procesar el doble de datos que su antecesor y que inundó los aparatos de aeropuertos, restaurantes, hospitales e incluso gasolineras.

Nuevas alertas sobre 'ciberataques' que pueden afectar al suministro de petróleo

Ataques contra infraestructuras críticas, espionaje industrial y amenazas de estragos para el medio ambiente. Desde hace meses algunos expertos vienen alertando sobre los potenciales peligros de determinados 'ciberataques' que, en algunos casos, podrían afectar gravemente a sectores tan sensibles como el suministro mundial de petróleo.
Ejecutivos de compañías petroleras advierten de que los ataques son cada vez más frecuente y planificados con más cuidado. "Si alguien logra meterse en el área donde se controla la apertura y el cierre de válvulas, incluso aquéllas de escape, se puede imaginar lo que sucede", comentó Ludolf Luehmann, responsable de tecnología de Shell, la compañía petrolífera más grande de Europa.
"Costaría vidas y costaría producción, por supuesto costaría dinero, provocaría incendios y causaría pérdidas de crudo, unas fugas que dañarían al medio ambiente; el daño sería enorme, enorme", alertó Luehmann en el Congreso Mundial del Petróleo en Doha.
Los ordenadores controlan casi toda la producción y distribución de energía del mundo mediante unos sistemas cada vez más vulnerables a los ataques cibernéticos.
"Vemos un número creciente de ataques a nuestros sistemas de información y hay muchas motivaciones detrás de este hecho", dijo Luehmann, quien añadió que están constatando la existencia de un creciente número de ataques con claras intenciones de guerra comercial, centrados en investigación y desarrollo, para obtener una ventaja competitiva.

Stuxnet

Luehmann añadió que el gusano informático Stuxnet descubierto en 2010, el primero descubierto que había sido diseñado específicamente para atacar sistemas industriales, ha sacudido el mundo de las grandes compañías petroleras multinacionales, ya que fue el primero en atacar de forma visible y con un impacto significativo un control de un proceso industrial.
Sin embargo, puso de manifiesto la determinación y la resistencia mostrada por los 'piratas' informáticos cuando atacan a sistemas industriales de las empresas, y aseguró que ha habido un aumento de ataques para entrar en los sistemas de operación específica dentro de las compañías.
"La 'ciberdelincuencia' es un gran problema. No es algo restringido a una compañía u otra, es algo muy amplio y está pasando", dijo Dennis Painchaud, director de relaciones internacionales de gobierno de la copmpañía canadiense Nexen. "Es un riesgo muy importante para nuestro negocio". "Se trata de algo de lo que tenemos que estar pendientes todos los días. Es un riesgo que sólo va a crecer", añadió
Luehmann afirmó que los 'ciberintrusos' atacan cada vez más durante largos periodos, recopilan información -discreta pero constantemente-, durante semanas o meses, antes de pasar a la acción contra objetivos específicos dentro de la empresa, y ayudados por la información que han recogido. "Es una nueva dimensión de los ataques, que estamos viendo en Shell", dijo.

No hay control

En octubre, el fabricante de 'software' de seguridad Symantec publicó un informe sobre un misterioso virus, descubierto y bautizado Duqu por el laboratorio de criptografía y sistemas de seguridad de Hungría, y que contenía un código similar al Stuxnet.
Los expertos afirmaron que parecía estar diseñado más bien para recopilar datos, de modo que podría facilitar el lanzamiento de futuros ataques cibernéticos.

Mientras que otras industrias pueden cerrar sus sistemas para instalar parches de 'software' de seguridad y actualizar sistemas operativos vulnerables, las empresas de energía no pueden cerrar las plantas para solucionar sus vulnerabilidades informáticas.
"El petróleo tiene que seguir fluyendo", dijo Riemer Brouwer, jefe de seguridad tecnológica para la compañía ADCO en Abu Dhabi. Tenemos una posición estratégica en el mercado mundial de petróleo y de gas", agregó. "Si pueden dejar fuera de combate a uno de los pesos pesados en el mercado del petróleo y el gas, se puede imaginar lo que podría suponer para el precio del crudo: supondría un mazazo al mercado".
De esta manera, los 'ciberintrusos' podrían financiar sus operaciones mediante el uso de opciones para apostar sobre los movimientos de precios causados por la interrupciones, dijo Brouwer. "Hasta ahora no hemos tenido ningún incidente importante", reconoció, pero añadió: "¿Tenemos el asunto realmente bajo control? La respuesta tiene que ser 'No'. "

Precios del petróleo

Los precios del petróleo suelen subir cuando las tensiones se acrecienten sobre el disputado programa nuclear de Irán -el propio objetivo principal del gusano Stuxnet- debido a la preocupación de que la producción de petróleo o las exportaciones de Oriente Medio se vean afectadas por un nuevo conflicto en la zona.
No obstante, la amenaza de un ataque coordinado a instalaciones energéticas en todo el mundo también es real, dicen los expertos, ya que a diferencia de un bloqueo en el Golfo Pérsico, el 'ciberataque' puede ser lanzado desde en cualquier lugar y con pocas probabilidades de encontrar al autor.
"Sabemos que el Estrecho de Ormuz tiene una importancia estratégica para el mundo", dijo Stephan Klein, vicepresidente de SAP de operaciones de petróleo y gas en el Oriente Medio y África del Norte. "¿Qué pasa con los aproximadamente 80 millones de barriles que se procesan a través de los sistemas tecnológicos?", dijo Klein.
Ataques como Stuxnet son tan complejos que muy pocas organizaciones en el mundo son capaces de crearlos, añadió Gordon Muehl, director de seguridad deSAP, aunque reconoció que era demasiado simple para atacar a las industrias directamente desde Internet.
Sólo hace unos años los 'ciberataques' eran protagonizados por un número reducido de expertos programadores, pero gracias a los tutoriales en línea irrumpir en los sistemas operativos de las empresas es ahora algo al alcance de cualquiera, en principio.
"Todo el mundo puede hacer 'hacks' hoy en día", dijo Luehmann. "El número de potenciales 'ciberintrusos' ya no se limita a unos pocosn expertos; ahora puede ser todo el mundo".

La Iglesia Católica de Filipinas envía sus fieles por error a un sitio web porno

La iglesia católica de Filipinas remitió a sus fieles a una página web pornográfica por equivocación al dar la dirección de Internet en la que, supuestamente, se podía seguir en directo la ceremonia de toma de posesión del nuevo arzobispo de Manila.
La archidiócesis anunció por la mañana en su portal de Internet que el nombramiento del arzobispo Luis Antonio Tagle podría verse en tvmaria.com.
Los fieles que abrieron esa página se encontraron con la imagen de un travestido en lencería y tumbado en un sofá.
La Iglésia, que inicialmente creyó que se trataba de un ataque de un pirata informático, reenvió el anuncio con la dirección de internet correcta, tvmaria.net.
Más del 80% de los 94 millones de habitantes de Filipinas se declaran católicos.

La NASA pierde cientos de rocas espaciales

EEUU ha perdido más de medio millar de rocas y polvo extraterrestre recogidos a lo largo de décadas de exploración espacial, según un informe interno de la NASA publicado el jueves. El trabajo alerta de que el país está fallando en la tarea de controlar los préstamos y devoluciones de rocas lunares y meteoritos a investigadores o museos y que, en ocasiones, acaban siendo robadas o terminan en paradero desconocido.
El trabajo, firmado por Paul Martin, inspector general de la agencia espacial estadounidense, es el segundo bofetón que la NASA se lleva desde dentro en menos de un año debido a sus relajados estándares de seguridad.
En diciembre de 2010, otro trabajo del inspector general denunció que la agencia se deshizo de ordenadores sin borrar los datos que contenían, tiró discos duros con información "delicada" y pensaba vender PC que habrían permitido el acceso a la red interna de la NASA.
El nuevo informe asegura que, entre 1970 y 2010, la NASA perdió 517 muestras de rocas lunares y otros materiales llegados del espacio. Algunas fueron robadas, como 218 piezas lunares del Centro Espacial Johnson (después recuperadas) y otras se perdieron sin más, como es el caso de 18 fragmentos de rocas lunares cedidas a un investigador que reconoció su desaparición el año pasado.
"La NASA carece de suficiente control sobre los préstamos de rocas lunares y otros materiales espaciales, lo que aumenta el riesgo de que se pierdan estos materiales únicos", espeta el trabajo.

Plato traspapelado

En junio de 2010, el responsable de seguir el rastro de las más de 160.000 muestras de la Luna, meteoritos y viento solar que atesora la NASA alertó del extravío de un plato que contenía varias muestras de roca y polvo lunares traídas por los astronautas del programa Apolo.
El material había sido prestado al Observatorio Astronómico Mount Cuba, en el estado de Delaware, allá por 1978. El préstamo expiraba en 2008 pero la NASA no se interesó por la devolución hasta el año pasado, cuando responsables del observatorio le contestaron que el administrador había muerto y que en sus archivos constaba que las piedras habían sido devueltas en la década de los noventa.
La pérdida motivó a la oficina del inspector general a realizar un estudio sobre el material cedido por la NASA a investigadores. El informe se centró sólo en parte de los préstamos realizados en EEUU. El análisis comprendía el 23% de las 26.000 muestras que, en la actualidad, la NASA tiene cedidas a investigadores de todo el mundo.
Los resultados destapan errores graves. En el 19% de los casos, el material cedido se había perdido o en los archivos de la NASA constaba como muestras que habían sido destruidas y que, en realidad, estaban aún en poder de investigadores. En 12 casos los científicos que recibieron las muestras habían muerto sin que estas hubieran sido devueltas.
El trabajo concluye con una serie de mejoras necesarias en el sistema de préstamo, incluidas las que se envían a museos. 

Los Álamos: el laboratorio de la bomba atómica se marchita

Si [Robert ] Oppenheimer estuviera vivo se echaría a llorar". Así resume el experto en la historia nuclear americana Hugh Gusterson la impresión que se llevaría el director del Proyecto Manhattan si viera la situación en la que se encuentra el Laboratorio Nacional Los Álamos, donde él y los mejores científicos del entonces llamado mundo libre crearon la bomba atómica para sentenciar la II Guerra Mundial. Ni el fin de la Guerra Fría ni los procesos de desarme nuclear han dañado tanto la excelencia científica de Los Álamos como la interferencia de los políticos y la aplicación de criterios de gestión empresarial.
En 1943, cuando los aliados aún iban perdiendo la guerra, los militares estadounidenses decidieron concentrar las investigaciones para conseguir la bomba atómica en un único lugar. El responsable militar del Proyecto Manhattan, el general Leslie Groves, quería un sitio aislado y alejado de las fronteras exteriores de EEUU. Fue Robert Oppenheimer, director científico del programa atómico, el que eligió el lugar: un desierto en la zona norte de Nuevo México. De allí salieron Trinity (el primer ensayo) y las bombas Little Boy y Fat Man, que fueron arrojadas sobre Hiroshima y Nagasaki, respectivamente.

Los Álamos, que ocupa una extensión de unos 90 kilómetros cuadrados salpicada de decenas de edificios, fue secreto durante años y comparte con el Lawrence Livermore National Laboratory, creado una década después, la misión de diseñar las armas nucleares de EEUU. Eso lo convirtió en uno de los mayores centros de investigación del mundo, donde acababan algunos de los mejores físicos, matemáticos o ingenieros. Tenían aceleradores de partículas, las computadoras más potentes de la época como la serie MANIAC y vía libre para investigar.
El precio de los militares era un férreo control sobre la vida de los científicos y sus familias. Tenían prohibido hablar de lo que hacían allí dentro. Su vida pasada y la de los suyos eran concienzudamente investigadas. Aún les someten a controles de drogas y alcoholemia por sorpresa y, ocasionalmente, sufren registros de sus casas y pertenencias. Todavía hoy necesitan permisos para viajar al extranjero. Todo eso no ha impedido que, junto a logros como el desarrollo de la bomba H y las sucesivas generaciones de misiles nucleares, los científicos hayan aportado grandes avances en campos como la energía, la aventura espacial, la supercomputación y, paradójicamente, el control y desmantelamiento de armas nucleares.
"Habiendo sobrevivido a las protestas antinucleares de los años 80 y al fin de la Guerra Fría años después, los científicos de armamento nuclear estadounidenses están comprobando que la principal amenaza a su trabajo proviene de una fuente inesperada: los políticos y administradores que se suponía estaban de su lado", escribe Gusterson en un artículo publicado en la pasada edición del Bulletin of the Atomic Scientists. Para este antropólogo y sociólogo, autor de varios libros sobre la historia del armamento nuclear, Los Álamos vive en un proceso de declive que, además de comprometer su futuro, socava su misión original: ofrecer seguridad a EEUU.

Un drama en tres actos

En su artículo The assault on Los Alamos National Laboratory: A drama in three acts, recoge cómo muchos medios de comunicación y políticos le tenían ganas el laboratorio. La institución funcionaba de forma autónoma. Ni siquiera los militares interferían demasiado en el trabajo de los científicos. Pero, como escribe Gusterson, algunos empezaron a acusarles de arrogantes.
La carnaza a los enemigos de Los Álamos se la dio el llamado caso Lee. En marzo de 1999, The New York Times publicó que un científico estadounidense de origen chino, Wen Ho Lee, había robado secretos militares del complejo. Aunque nunca se probó que Lee tratara con espías chinos, el asunto le costó el puesto al director de las instalaciones, que fue sustituido por un militar, el almirante Pete Nanos, con el que el presidente George W. Bush, escribe Gusterson, "esperaba llevar la disciplina de la marina a los melenudos del laboratorio".
La presunta desaparición de nuevos discos con información confidencial (que después se comprobó que nunca habían existido) hizo que Nanos implantara un régimen casi de terror que le granjeó la oposición de los científicos, pidiendo la nómina muchos de ellos. En 2004, y tras un informe encargado por el Congreso de EEUU, el Gobierno sacó a concurso la gestión de Los Álamos, que ganaría un consorcio liderado por la corporación Bechtel. Esto trajo la aplicación de un sistema de gestión empresarial que antepuso los resultados empresariales a los logros científicos.
Desde entonces, la producción científica de Los Álamos no ha dejado de bajar. Desde mediados de los años 90, el número de patentes aumentó hasta el pico de 71, conseguidas en 2003. En 2004 fueron 62, en 2008 29 y en 2009, últimos datos disponibles, remontaron algo hasta las 48. Público ha intentado en las últimas semanas contrastar los datos y argumentos de este experto con los responsables de Los Álamos, pero la respuesta, que no llegó, "estaba en manos de Washington", aseguraron desde su departamento de comunicación.
Los Álamos ha intentado diversificar su campo de investigación. Son los responsables del control y mantenimiento de las más de 5.000 cabezas nucleares que conserva EEUU, pero ahora buena parte de su investigación se centra en el estudio de nuevas energías.
Con todo, el programa de armas y el de no proliferación de las mismas aún se llevaron el 59% de los 2.000 millones de dólares de los que dispuso Los Álamos en 2010. También es la nuclear su gran baza para seguir adelante. Desde hace una década se proyecta el CMRR Project, un nuevo laboratorio para gestionar el plutonio (retirada y reposición) del arsenal nuclear de EEUU
El problema es que la justicia puede parar su construcción. El colectivo Los Alamos Study Group (LASG) ha conseguido que un juez federal acepte su denuncia contra el proyecto por no incluir un adecuado estudio de impacto ambiental. También el desastre de Fukushima ha provocado la alarma ya que Los Álamos se encuentra en una zona de moderada sismicidad. En un artículo esta semana, el director del proyecto aclaraba en The Washington Post que el edificio aguantará terremotos de magnitud 7,3 (el de Fukushima llegó a 9). El líder de LASG, Greg Mello, dijo al periódico: "Los Álamos no tiene esa cultura de seguridad necesaria para una instalación que almacenará la mayor reserva de plutonio del país". Sea como sea, sin el nuevo laboratorio, Los Alamos se quedará sin futuro.

Bruselas pide que los 27 abran sus datos en internet

Si no es por la calidad de la democracia, al menos que sea por dinero. Con ambos objetivos, la Comisión Europea propondrá hoy una reforma legal que obligará a los países a abrir sus archivos y hacer públicos todos los datos recogidos a todos los niveles de la Administración, con excepción de aquellos que ya estén protegidos por el derecho a la privacidad o que sean sensibles para la seguridad nacional.
Bruselas recuerda que el derecho a saber pertenece a los ciudadanos, pero calcula además que un acceso abierto a datos y documentos públicos podría traducirse en unos beneficios directos e indirectos de hasta 140.000 millones de euros al año en la UE. "Tus datos tienen más valor si son accesibles, así que empecemos a liberarlos ya", porque "los contribuyentes ya han pagado por esta información y lo mínimo que podemos hacer es devolverlos a aquellos que quieran usarlos para crear crecimiento y puestos de trabajo", tiene previsto decir hoy la comisaria a cargo del sector de las telecomunicaciones, Neelie Kroes, en un discurso al que ha tenido acceso este diario.

Muro tecnológico

La reforma legal incluye reforzar la directiva de "reutilización de la información del sector público", en vigor desde 2003, para "crear una regla general" que permita el uso de esos datos para fines "comerciales y no comerciales" a un precio "que no supere los costes marginales de la petición de información". Además, la Comisión pretende que esté disponible a través de "formatos accesibles" que acaben con la barrera tecnológica de muchos datos que ya son públicos pero lejos del alcance del ciudadano.
La propuesta será debatida por los gobiernos, pero Bruselas espera que entre en vigor en 2013. La norma llenaría el vacío legal europeo que existe entre países como Reino Unido o Francia, que en los últimos meses han puesto a disposición de los ciudadanos una ingente cantidad de datos públicos a través de portales en internet. Otros como España son una excepción entre los grandes países al no contar con una ley de transparencia.
En julio, y tras años de promesas, el Consejo de Ministros aprobó formalmente un anteproyecto de ley de transparencia, aunque el Ejecutivo era consciente de que el calendario electoral acabaría sepultándolo en el cajón de leyes pendientes sobre cuya tramitación deberá decidir ahora el futuro Gobierno del PP.
Según la Comisión, en países como España hay una "falta de claridad sobre si ciertos datos existen o están disponibles, sobre qué autoridad pública los posee o sus condiciones de reutilización" y, en algunos casos, es muy difícil o costoso hacerse con ellos por barreras burocráticas.
El anteproyecto fue publicado tan sólo dos meses después del estallido del Movimiento 15-M, en el que la reivindicación de una ley de transparencia estuvo muy presente, pero ponía fin a unos esfuerzos dirigidos por la exvicepresidenta María Teresa Fernández de la Vega que se toparon con el no del Consejo de Ministros. El borrador de la ley preveía "el suministro preferentemente por medios electrónicos", pero reservaba al organismo competente un plazo de 30 días ampliable a dos meses en caso de que los datos fuesen muy difíciles de conseguir o muy voluminosos. Entre los datos que pasarían a ser completamente accesibles figuraban las directrices, textos normativos en trámite, planes y estrategia, convenios alcanzados, contratos adjudicados, sueldos o subvenciones públicas, presupuestos y datos de ejecución.
La propuesta se centra en los datos recolectados por organismos públicos y reclama la aparición de portales públicos que acaben con los intermediarios. El Gobierno francés lanzó este mes un portal con una aportación inicial de 352.000 tablas de datos de 90 organismos públicos. Se une a webs como la creada por el Gobierno británico, donde figura el calendario de reuniones de los ministros, los contratos públicos, la ejecución de los presupuestos o la posibilidad de descubrir datos recogidos en un punto geográfico concreto con sólo introducir un código postal.
"La Comisión abrirá su propia caja fuerte de información", asegura Ryan Heath, portavoz comunitario para la Agenda Digital, en referencia a un portal europeo que estará disponible en primavera.
"Esperamos que las administraciones nacionales hagan lo mismo", porque "dará un gran impulso a industrias como las de aplicaciones para teléfonos inteligentes, revolucionará la investigación académica y, en algunos casos, cambiará hasta la manera de hacer periodismo", confía. En la mente de los funcionarios comunitarios están documentos como los del Departamento de Estado de EEUU filtrados por Wikileaks.
Las leyes de la UE son claras en cuanto a las excepciones de la directiva, que comienzan por las normas que garantizan la privacidad de los ciudadanos, los datos de empresas privadas y de carácter principalmente comercial o los que estén sujetos a derechos de autor. El resto de información debería ser pública por el potencial económico de su reutilización y su valor democrático, según la Comisón.
El Ejecutivo comunitario señala que el mercado de la información geolocalizada o ligada a lugares concretos es "un motor de creación de empleo". "El mercado alemán de información geolocalizada en 2007 era de aproximadamente 1.400 millones de euros, el doble que en 2000. En Países Bajos, el sector dio trabajo a 15.000 personas en 2008", señala uno de los documentos que serán presentados hoy. La UE calcula que poner a disposición de ciudadanos y empresas datos como la localización de establecimientos, precios o mediciones e información producida por los Gobiernos puede incrementar la riqueza de la UE en 40.000 millones al año. La reutilización y comercialización de esos datos podría elevar el impacto directo e indirecto hasta los 140.000 millones.
La directiva incluirá además los datos de "bibliotecas, museos y archivos" que hasta ahora no estaban cubiertos por el texto en vigor. Según Jonathan Gray, de la asociación británica Open Knowledge Foundation, la actual directiva fue "aguada" por un "ámbito deliberadamente abierto" que permitía a los gobiernos decidir qué publicaban y qué no, algo que el nuevo texto se propone limitar.

Apple abre su mayor tienda en la estación Grand Central de Nueva York

El gigante tecnológico Apple inauguró hoy en la emblemática estación Grand Central de Nueva York su mayor tienda del mundo, un acontecimiento que provocó largas colas y cuya puesta en escena llenó de curiosos el vestíbulo de la terminal.
Algunas personas llegaron incluso a pasar la noche para ser los primeros en entrar al local, que abrió sus puertas a las 10.00 hora local (15.00 GMT) entre los vítores del gentío, los trabajadores y cientos de entusiastas que tomaban sin parar fotos y vídeos con sus iPhones y iPads. Los primeros 4.000 clientes recibieron como regalo una camiseta roja con el conocido logo en forma de manzana de la compañía, cuyo mayor comercio propio se hallaba hasta ahora en el céntrico Covent Garden de Londres. Algunos fanáticos de la marca llegaron a esperar hasta nueve horas en la fila.
Según la nota de prensa de Apple, la nueva tienda cuenta con 315 empleados y un espacio de más de 2.100 metros cuadrados en Grand Central, donde ocupa la mitad del piso superior del vestíbulo de la estación, una de las más transitadas del mundo y toda una atracción turística de Nueva York. El establecimiento dispone de dos Genius Bars -un servicio gratuito de consultas técnicas en la barra de un bar- y ofrece charlas gratis de 15 minutos sobre productos de Apple para captar nuevos clientes y entretener a los viajeros que esperan su tren.
Apple acordó el pasado julio con la Autoridad Metropolitana de Transporte de Nueva York un contrato de diez años de alquiler y pagó 5 millones de dólares al restaurante que ocupaba el espacio para que se lo cediera ocho años antes de que expirara su arriendo. El gigante tecnológico tiene 361 Macstores en 11 países del mundo. En Nueva York dispone de otros cuatro centros, entre ellos la tienda subterránea con entrada en forma de cubo situada en la icónica Quinta Avenida.