Búsqueda personalizada

10 jul. 2009

Una canción contra United Airlines hace furor en YouTube

Fuente: Google.

Un músico canadiense que no consiguió una indemnización por su guitarra rota -según él- a causa del maltrato de los portaequipajes de United Airlines, se tomó la venganza colgando en internet el vídeo de una canción burlándose de la aerolínea y ha conseguido un éxito arrollador.
En el 'clip' colgado el lunes en la página para compartir vídeos YouTube, Dave Carroll cuenta con humor la forma brutal en que su guitarra, una 'Taylor' de 3.500 dólares, habría sido manipulada por los mozos de equipaje de la compañía estadounidense en un aeropuerto de Chicago el año pasado.
Cuando comprobó el daño en su intrumento, intentó infructuosamente que el aeropuerto o la empresa se responsabilizaran por el incidente. Tras nueve meses de rechazos, grabó la canción titulada 'United rompe guitarras'.
El video ha sido visto por más de medio millón de personas desde que fue puesto en línea el lunes.
Desde entonces Carroll recibió invitaciones de entrevistas en televisiones de toda América del Norte, que lo han tenido tan ocupado que no ha podido hablar con responsables de United, quienes en dos ocasiones trataron de comunicarse con él desde que el vídeo es un éxito en YouTube.

GMail se gradúa y Google Apps pasa a ser de pago

Fuente: Baquia.

GMail se presentó el 1 de abril de 2004. Más de cinco años y millones de usuarios después, pierde la etiqueta de “beta”, que generalmente se coloca temporalmente en proyectos en fase de prueba. Oficialmente es ya un producto redondo.

Lo mismo ha sucedido con el paquete de aplicaciones Google Apps, que incluye al propio GMail, más Google Calendar, Google Docs y Google Talk. Desde ahora todos estos servicios dejarán de lucir el “beta” en sus logos, aunque desde Google se asegura que eso no significa que vayan a dejar de lado la innovación y las mejoras.

Hay otra novedad en relación a Google Apps, y esta no será del agrado de muchos de sus usuarios: el paquete de aplicaciones dejará de ser gratuito. A partir de ahora, las empresas que deseen utilizarlo tendrán un periodo de prueba de 30 días, y después deberán abonar una cuota de 40 euros mensuales, aunque aún existirá una versión básica gratuita.

A cambio se han introducido algunos nuevos servicios, como el soporte 24/7 o réplica de datos para recuperación de desastres. También hay algunas novedades para la versión del correo corporativo, como la función de delegar el envío de mensajes o la limpieza de correos después de un cierto tiempo.

Lo cierto es que al suprimir la etiqueta de “beta”, poco van a cambiar todos estos programas, que ya llevan años incorporando mejoras y nuevas funcionalidades. La verdadera intención de Google con este movimiento parece ser la de intentar aumentar su presencia en el mercado corporativo.

Actualmente Google Apps es utilizado por 1.75 millones de empresas (aunque en esta cifra se incluye a muchos autónomos), pero el hecho de ser todavía presentado como un producto “beta” (es decir, en fase de pruebas) supone una barrera para ser adoptado por muchas empresas, que tienden a desconfiar de productos cuya eficiencia no esté claramente demostrada.

Como explica Matt Glotzbach, director de productos en Google, “para los clientes corporativos, es una señal importante en términos de madurez de nuestros productos y utilidad para sus negocios”. En el horizonte a largo plazo de Google se presenta pues otro desafío: acercarse a Microsoft en el mercado de aplicaciones corporativas.

Se anuncia 'Command & Conquer 4'

Fuente: 20minutos.

Se llevaba rumoreando desde hace unas semanas. Se olía que Electronic Arts iba a hacer algo con su franquicia Command & Conquer, y que esa cosa no iba a ser precisamente lanzar una nueva actualización para su tercera entrega. Todo apuntaba a que lo que tenía que anunciarse era una cuarta entrega de la serie. Ahora, esa noticia se ha convertido en realidad.

EA ha anunciado que el próximo año se comenzará a vender Command & Conquer 4, el nuevo capítulo de una serie de juegos de estrategia que han vendido más de 30 millones de unidades y que llevan 15 años en el mercado.

Según declaraciones de Mike Glosecki, Productor Jefe del juego "Command & Conquer es una gran franquicia con un legado de 15 años a sus espaldas. Estamos realmente entusiasmados de llevar la saga Tiberium a un final en Command & Conquer 4. Este nuevo juego va a estar diseñado para dar a los fans todas las respuestas que han estado buscando".

Después, hablando un poco más de su jugabilidad añadía "Con su objetivo - basado en el modo multijugador - la persistencia y la progresión de un jugador, todo en una base móvil, los jugadores experimentarán Command & Conquer como nunca antes los habían hecho".

La historia de C&C4 tiene lugar después de los acontecimientos ocurridos tras Command & Conquer 3: Tiberium Wars. Nos encontraríamos en el año 2062 y la humanidad está al borde de la extinción. Sólo quedan seis años para que la estructura Tuberium haga que la Tierra sea completamente inhabitable. Los dos frentes en conflicto, los IMM y la Hermandas de Nod tendrán que luchar con un mismo objetivo, por primera vez en la historia: la de acabar con el Tiberium para salvar a la humanidad de sus extinción.Y todo rodeado de grandes misterios, planes secretos y mayores sorpresas.

Además de las dos campañas, tanto para un jugador como en coperativo, C&C4 también contará con un nuevo modo multijugador 5V5. En dicho modo se podrá ver un modo de cooperación y de trabajo en equipo nuca antes visto.

El juego está siendo desarrollado por EA Los Angeles y saldrá a la venta en 2010, únicamente para PC.

'Forza Motorsport 3': hecho el juego, hecha la trampa

Fuente: El Mundo.
"Si algo funciona, no lo toques"... o no demasiado. Microsoft se ha aprendido la máxima y la ha aplicado con acierto a su saga estrella de conducción, 'Forza Motorsport'. La tercera entrega, también en exclusiva para Xbox 360, conserva la esencia de la segunda y añade algunas mejoras que sitúan al juego un paso por delante de sus rivales mientras continúa la interminable espera por 'Gran Turismo 5'. Tres meses antes del lanzamiento oficial del nuevo 'Forza', elmundo.es se puso al volante en la reciente feria IDEF de Cannes.
De forma similar a la anterior edición, el juego desarrollado por los estudios Turn 10 plantea un calendario de competiciones que se adapta gradualmente a la habilidad de cada conductor. Cuanta más destreza tengamos, mejores serán nuestros adversarios y más difícil nos lo pondrán para llegar primeros a la meta.
Pero esta vez hay truco. Si en 'Forza 2' una curva mal tomada podía arrastrarnos irreversiblemente hasta la última plaza en cuestión de segundos y hundirnos en un cabreo gigantesco, ahora será posible rebobinar la carrera hasta el instante previo al fallo para volver a intentarlo sin necesidad de reiniciar la carrera desde la parrilla. Se trata de una idea que ya introdujo 'Race Driver: GRID' el año anterior y que, por razones obvias, sólo estará disponible en el modo individual.

Y no es la única novedad. Mientras que la segunda versión del simulador consistía básicamente en ganar una carrera tras otra, la que llegará a las tiendas en otoño incluye otros formatos que recuerdan a 'Need for Speed ProStreet'. Así, tendremos que ser los más rápidos en competiciones de 'drag' o aceleración en tramos cortos, demostrar talento a base de derrapes o dominar la pista en las pruebas de contrarreloj.
Se ha corregido también uno de los puntos débiles de 'Forza 2': frente a los 18 escenarios presentes en aquella edición —configurados en unos 60 trazados diferentes—, Microsoft promete esta vez un centenar de pistas reales y circuitos de todo el mundo. Además de recorrer los clásicos Suzuka, Nürburgring o Sebring, los neumáticos se achicharrarán ahora sobre el asfalto de las montañas catalanas de Montserrat o la costa italiana de Amalfi.
¿Y los coches? "Los 400 más espectaculares de los 50 fabricantes más prestigiosos", anuncia la compañía. Un repertorio deslumbrante: el espectacular Audi R8 V10, el superdeportivo Nissan 370Z, el renacido Ford GT... y así hasta unos 100 vehículos más que en la anterior entrega, todos ellos modelados con un número de polígonos 10 veces superior. O eso aseguran, a la espera de que los usuarios puedan comparar uno y otro juego después del verano.

Chrome y la libertad de los usuarios

Fuente: Publico.

Chrome, el futuro sistema operativo de Google, no es tal. En realidad, el sistema que la compañía va a lanzar no es otro que GNU/Linux, con más o menos adaptaciones, con su navegador libre Chrome y con un escritorio del que aún se desconocen los detalles pero que posiblemente hará poco más que arrancar inmediatamente el navegador.

Es probable que Google se base en una premisa que Microsoft todavía no ha entendido: hacer invisible para el usuario el sistema operativo.

Windows, 20 años después, sigue siendo lento, caro y plagado de fallos pero, aun así, consigue mantenerse como el sistema operativo más instalado gracias a una agresiva política comercial y a acuerdos de dudosa limpieza. Con esto, y pese a saberse acorralados por uno de los movimientos sociales más importantes de la historia de la humanidad, el software libre, consiguen frenar su avance y seguir vendiendo algo, el código, que hace mucho que otros distribuyen bajo otras denominaciones de forma gratuita y mejorada.

Pero hay alguien más en el barrio. Se llama Google, también es muy listo y ha sabido ganarle canicas a otros durante mucho tiempo. Google también es muy grande, no se asusta fácilmente y tiene capacidad de negociación con fabricantes y gobiernos. Se acercan tiempos interesantes y Microsoft tendrá que reciclarse. Los fabricantes de móviles liberarán su software, usarán Android, o corren el riesgo de acabar fuera del mercado.

Hay que estar a la expectativa para ver si Google cumple con las licencias y si de verdad es libre. No tendría sentido que lo hiciese de otra forma, ya no se puede vender algo que vale cero. El software libre garantiza las libertades del usuario, venga de Google, de un club de amigos o de la propia Microsoft. Bienvenido sea. Nos vamos a divertir mucho.

Japon: 'Dragon Ball' volverá a sus orígenes en Wii

Fuente: Europa Press.

Son siempre algunos de los títulos más esperados de cada temporada "videojueguil" y todavía tienen curda para rato. Y aunque los videojuegos basados en 'Bola de Dragón' levantan expectación en todo el mundo gracias al éxito del la mítica serie de anime japonesa, dos críticas son inevitables: abusan del género '1 vs 1' y se centran casi siempre en la saga Z.

Sin embargo, tras años de incontables juegos de lucha basados en las tres líneas argumentales con Goku de adulto -Sayans, Célula y Boo-, la serie pronto inspirará una entrega más atípica en las consolas de sobremesa. Wii recibirá el 23 de julio en Japón -En nuestro país no llegará antes de navidades- 'Dragon Ball: Revenge of King Piccolo', un nuevo videojuego que apostará por un desarrollo aventurero en tercera persona.

En esta ocasión los jugadores podrán controlar a Goku cuando era niño, los inicios de la mítica serie. Será en una mezcla de 'beat'em up' y plataformas con desarrollo 2D, todo arropado por un apartado gráfico tridimensional muy colorista. Namco Bandai ha liberado unas cuantas imágenes y un trailer muy prometedores que auguran un título que no defraudará a los fans del saiyan más bondadoso del universo.

Goku tendrá que evitar obstáculos, saltar por plataformas y evitar precipicios dando saltos. También contará con la ayuda de sus bastón mágico con la facultad de alargarse para sortear estos peligros y, claro, acabar con los enemigos. Los combates tendrán un gran peso en el desarrollo de 'Dragon Ball: Revenge of King Piccolo' y los jugadores se encontrarán con enemigos muy populares como Tao Pai Pai o el propio Piccolo.

El título recordará vivamente a la entrega 'Dragon Ball: Advanced Adventure' que llegó hace algunos años a Gameboy Advance, recibiendo muy buenas críticas por parte de la prensa.

Además del modo historia que seguirá las aventuras de Goku para encontrar las bolas del dragón, acabar con el ejército del Lazo Rojo o con el namekiano que azotó la tierra, habrá un modo de juego de combates uno contra uno. En él se seguirá el desarrollo habitual del género con personajes como Krillin, el Maestro tortuga o Ten Shin Han.

'Dragon Ball' o 'Bola de dragón' vivió su gran momento en España en la década de los 90, poco tiempo después de hacerlo en otros países de Europa y, por supuesto, Japón. En aquel momento sirvió para inspirar productos de 'merchandising' y, por supuesto, videojuegos. Sin embargo, no triunfó en Estados Unidos hasta hace pocos años, lo que le ha concedido una nueva edad de oro.

Cierra el periódico en papel basado en blogs

Fuente: El Pais.

The Printed Blog se inventó un modelo de negocio original, pero también arriesgado: editar un periódico gratuito cuyos artículos provenían de los blogs. El diario se distribuía en las estaciones de transporte público de Chicago y San Francisco... hasta su cierre el pasado martes por inviabilidad económica. En total han salido 16 números de The Printed Blog, se han distribuido 80.000 copias impresas y realizado 100.000 descargas por Internet de unos contenidos (locales y nacionales) que pertenecían a los bloggers. "Con gran tristeza tengo que anunciar que, por la falta de capital externo, The Printed Blog finaliza su publicación". A pesar de la significativa inversión que he realizado, y el apoyo de cinco o seis entidades de crédito, somos incapaces de captar la inversión económica mínima necesaria para seguir avanzando en este proyecto. Es una decisión difícil, pero la realidad financiera nos obliga a suspender la publicación inmediatamente y definitivamente", aseguraba Josh Karp, el creador del invento.

A pesar del disgusto, Karp mira con optimismo al futuro: "Creo que los próximos años serán los tiempos más interesantes en la historia del periodismo. Esta industria está al borde de grandes cambios, y cuando sea redefinida, será muy distinta a como es hoy, pero su función también será mejor".

Intel también trabaja en el desarrollo de Chrome OS

Fuente: ITespresso.

Google dio a conocer ayer la lista inicial de fabricantes con los que habían iniciado los contactos para trabajar en el desarrollo de su sistema operativo, Chrome OS.

El listado incluye a compañías como Lenovo, Hewlett-Packard, ASUS, Acer y Toshiba, pero también nombraba a desarrolladores de software como Adobe y a algunos fabricantes de semiconductores como Freescale, Qualcomm y Texas Instruments.

La ausencia de Intel entre los socios de Google extrañó a los expertos y usuarios, teniendo en cuenta que el sistema operativo está enfocado a netbooks e Intel controla prácticamente el 100% de este mercado. De hecho, el lanzamiento del primer miniportátil con procesador de AMD fue noticia hace pocas semanas.

"Hemos estado al tanto del proyecto durante cierto tiempo y hemos trabajado con Google en una variedad de iniciativas, incluida ésta", ha aclarado un portavoz Intel, tal y como recoge Silicon News.

Google Maps y la geolocalización

Fuente: the INQUIRER.

Los servicios de geolocalización cada vez están poniéndose más de moda, y los receptores GPS que muchos smartphones incluyen están siendo uno de los motivos de esa fiebre GPS, que ahora Google quiere potenciar en Google Maps.

Para ello Google ha anunciado que si disponemos de Google Chrome 2.0+ o Firefox 3.5+ seremos capaces de posicionarnos fácilmente en Google Maps gracias a un pequeño icono que aparece en la parte superior izquierda de los mapas, justo encima del iconito del hombrecito “Street View”.

Para localizarnos Google hace uso de la W3C Geolocation API, que toma datos de receptores GPS si los hay, pero que también puede localizarnos a través de la triangulación con antenas Wi-Fi e incluso a partir de la IP, siendo este último un método mucho menos preciso y que incluso puede ser erróneo.

Isla de Pascua, la clave de la vida larga

Fuente: BBC Mundo.

Un compuesto descubierto en la Isla de Pascua podría ayudar a combatir el proceso de envejecimiento, afirma una nueva investigación.
En pruebas llevadas a cabo con ratones, científicos estadounidenses dieron a los animales un fármaco hecho de este compuesto, el rapamycin, y lograron extender la vida de los animales en hasta 38%.
El estudio -publicado en la revista Nature- afirma que el hallazgo aumenta las posibilidades de que algún día se pueda retrasar el envejecimiento de los ancianos.
El rapamycin es un antibiótico que se suministra a los pacientes que han sido sometidos a trasplantes porque suprime el sistema inmune.
Por lo tanto los expertos advierten que el fármaco actualmente no se puede utilizar para extender las perspectivas de vida. Pero en el futuro quizás se podrá desarrollar otros medicamentos a base de este mismo compuesto.
El rapamycin, también conocido como sirolimus, fue descubierto por primera vez en la isla chilena en la década de los años 1970, y es producto de la bacteria Streptomyces hygroscopicus hallada en una muestra de tierra.
Además se utilizado para evitar el rechazo de órganos trasplantados, se usa también en los stent, los aparatos que se implantan en pacientes cardíacos para mantener abiertas sus arterias coronarias.
E igualmente está siendo probado como un posible tratamiento contra el cáncer.

Longevidad

En el estudio, llevado a cabo por científicos del Centro de Ciencias de la Salud de la Universidad de Texas, de la Universidad de Michigan y el Laboratorio Jackson, en Maine, Estados Unidos, se dio rapamycin a ratones de una edad equivalente a 60 años en seres humanos.
Los ratones fueron creados simulando lo mejor posible la diversidad genética y la susceptibilidad a enfermedades que tienen los humanos.
Los resultados mostraron que se logró extender las perspectivas de vida de los ratones entre un 28% a 38%.
En términos humanos, dicen los científicos, esto sería un período más largo que el incremento que significaría en la vida del ser humano si llegaran encontrarse curas tanto para el cáncer como para las enfermedades del corazón.
"He estado involucrado en la investigación de la vejez durante 35 años y durante este tiempo han surgido muchas de las llamadas intervenciones "antienvejecimiento"" afirma el doctor Arlan Richardson, del Instituto Barshop de Estudios de Longevidad y Vejez de la Universidad de Texas.
"Pero nunca habían sido exitosas.
"Nunca he pensado que durante mi vida lograríamos encontrar una píldora antienvejecimiento para seres humanos", agrega.
"Sin embargo, rapamycin ha mostrado un enorme potencial", expresa el investigador.
Cuando fue descubierto el rapamycin, lo primero que se encontró fueron sus propiedades antifúngicas y después se descubrieron sus beneficios como inmunosupresor.
Ahora, con los nuevos experimentos, los científicos creen que el rapamycin también puede tener propiedades contra el envejecimiento en seres humanos.
Tal como señala el profesor Randy Strong, otro de los autores del estudio de la Universidad de Texas, "creemos que ésta es la primera evidencia convincente de que el proceso de envejecimiento puede ser retrasado y las perspectivas de vida pueden ser extendidas con un fármaco que se puede comenzar a utilizar en la edad avanzada".

Restricción calórica

Hasta ahora se había establecido que puede haber dos procesos por los cuales se extendería la vida de los mamíferos: tanto con la restricción calórica como con la manipulación genética.
Los científicos creen que el rapamycin tiene un efecto similar a la restricción del consumo de calorías para aumentar la longevidad.
La sustancia produce un efecto en una proteína en las células llamada mTOR, que controla muchos procesos involucrados en el metabolismo y la respuesta al estrés celular.
Ahora, los investigadores tienen que encontrar la forma de reformular el fármaco para que sea lo suficientemente estable y pueda llegar al intestino de los ratones antes de que comience a descomponerse.
El objetivo original del estudio era alimentar a los ratones con rapamycin desde que tenían cuatro meses de edad, pero por el retraso causado en el desarrollo de nuevas fórmulas no le logró empezar el experimento sino hasta que los animales tenían 20 meses de edad (60 años humanos).
Los científicos pensaron que los animales ya eran muy viejos para que el fármaco tuviera un efecto. Y les sorprendió encontrar que sí lo tuvo.
"El estudio claramente ha identificado un blanco terapéutico potencial para el desarrollo de fármacos diseñados para prevenir enfermedades relacionadas con la edad y a extender las perspectivas de una vida sana", afirma el doctor Strong.
Y agrega que "si rapamycin, o un fármaco parecido al rapamycin, funciona como pensamos, la reducción potencial en los costos de salud serán enormes".
Otros expertos advierten, sin embargo, que aunque los resultados del estudio son muy estimulantes, todavía será necesario llevar a cabo muchas más investigaciones para confirmarlos en la población humana.

La NASA pide ayuda a los internautas para buscar una nave perdida en Marte

Fuente: ABC.

En diciembre de 1999 y tras su entrada en la atmósfera de Marte, la sonda norteamericana Mars Polar Lander, que debía estudiar el polo sur del Planeta Rojo, desapareció sin dejar rastro. Todos los intentos para localizar la nave resultaron infructuosos, incluído el exhaustivo rastreo realizado con las cámaras de la Mars Global Surveyor para localizar el punto en el que presumiblemente el ingenio se estrelló contra el suelo. Al final, tras más de un año de íntensa búsqueda, los técnicos de la agencia espacial se rindieron y dejaron el asunto sin resolver.

Hasta ahora. En efecto, la potente cámara de la Mars Reconnaisance Orbiter, otra de las sondas que actualmente orbitan Marte, podría tener éxito donde sus predecesores han fracasado. No en vano, la cámara de alta resolución HiRISE ya ha tenido éxito al obtener fotografías de los dos rovers marcianos (Spirit y Opportunity), así como de la misión Phoenix, que demostró hace unos meses la existencia de agua líquida en el Planeta Rojo.

Cubiertos de polvo y hieloClaro que, en esas ocasiones, se sabía exactamente dónde buscar, cosa que no ocurre con la desaparecida Mars Polar Lander. Por eso, esta vez la NASA ha decidido (de nuevo) pedir la ayuda de los internautas. Y para ello ha hecho públicas en su página web una serie de imágenes con objeto de que cualquiera pueda estudiarlas y ayudar en la localización de la sonda perdida. Los científicos dan algunas pistas: después de tanto tiempo, por ejemplo, se espera que los restos de la sonda estén cubiertos de polvo y hielo, lo que hace aún más difícil su localización.

El módulo de descenso de la Polar Lander habría tenido que tocar suelo marciano entre los 73ºS y 76ºS en una zona que se encuentra a menos de 1.000 km del polo sur y que se llama Planum Australe. Sin embargo, el aterrizaje no se pudo confirmar, y tampoco es seguro que, en caso de estrellarse, lo hiciera precisamente allí. Al bajar en paracaídas, los vientos que barren la polvorienta superficie de Marte podrían haber desplazado el ingenio a varios kilómetros de su punto previsto de destino.

Nadie sabe aún lo que pasó. Se especula con la posibilidad de que sus retropropulsores se averiaran, o que la secuencia de aterrizaje fallara por completo, abriendo las patas de la sonda antes de tiempo y cortando las cuerdas del paracaídas a cientos de metros del suelo. Encontrar los restos será la única manera de resolver el misterio.

Así que, manos a la obra. Las instrucciones para colaborar están en la página web. La búsqueda empieza de nuevo, y esta vez estamos todos invitados.

"Si un internauta no usa Explorer es porque ya domina la Red"

Fuente: Gaceta.
Espontáneo, políglota (habla inglés, francés, catalán y español) y un apasionado de su trabajo. Pascal Chevrel lleva ocho años dedicado al proyecto Mozilla, cinco de ellos como voluntario. “En 2003 escribí la primera página de Mozilla que no estaba en inglés. Ahora tenemos FireFox en ¡74 idiomas! Gracias a nuestra red de colaboradores, Mozilla ha pasado de ser un proyecto en inglés de EEUU, a ser internacional. Creemos que la Web debe ser abierta a todo el mundo y en eso trabajamos”. El próximo lunes estará en Madrid presentando la versión 3.5 de FireFox, “el doble de rápida que la 3.0 y con un sistema de privacidad que permite no dejar rastro en la Red”.

Privacidad, velocidad… ¿qué más ofrece el nuevo navegador FireFox?
La revolución será en el vídeo. Ya no hará falta un programa externo como Flash para verlos sino que el vídeo formará parte de la página web.
¿En qué beneficia al usuario?
Primero en que irá más rápido pero sobre todo que, al no depender de un servicio externo como YouTube para colgar un vídeo en un blog, el usuario no perderá los derechos de autor.
¿Cómo explicaría a un usuario qué es Mozilla?
Enseñándoselo. Cuando un usuario no usa Explorer es porque ya tienen un dominio decente de internet. Lo complicado es convencer a gente que sabe poco sobre navegar. Muchos nos diferencian entre el motor de búsqueda (Yahoo, Google…) y el navegador.

¿En qué se diferencia Mozilla de Microsoft?
En nuestro sistema de extensiones. Son aplicaciones parecidas a las del iPhone con las que puedes crear tu propio navegador. Te ayudan a definir las búsquedas y te ofrecen respuestas que sólo con Google no obtendrías.
Y usted, ¿a qué se dedica?
Nosotros lo llamamos la tecnoevangelización, (risas). Es decir, buscamos en la Red páginas que están mal hechas, que no son compatibles con todos los navegadores. Les contactamos y enseñamos a mejorarla.
¿Gratis?
¡Por supuesto! El proyecto de Mozilla empuja los estándares de la Red. No tiene sentido que hagas una página web a través de un solo navegador porque llegas a menos gente.

¿Es fácil convencer a la gente para que cambie?
Cuando empecé sólo teníamos un 0,2% del mercado y, en fin, era bastante más complicado (Risas). Ahora con un 30% de cuota, son las empresas las que contactan con nosotros. Aunque en EEUU seguimos teniendo problemas…

Es territorio de Microsoft...
Sí. Es curioso, aunque Mozilla es un proyecto que nació en EEUU, tenemos más éxito en Europa. En Polonia y Finlandia ya tenemos más del 50%.

¿A qué cree que se debe?
Es algo que me pregunta mi jefe de EEUU continuamente. “Tenéis una cuota de mercado muy buena pero quiero saber la receta”. (Más risas) Creo que la principal razón es que Microsoft no tiene tan mala imagen como en Europa, lo ven como empresa nacional.

10 años de Cervantes Virtual

Fuente: Baquia.

La Biblioteca Virtual Miguel de Cervantes nació por iniciativa de la Universidad de Alicante, con la colaboración de la Fundación Marcelino Botín y de Banco Santander.

Constituye una de las empresas de la universidad, el taller digital, donde unas 80 personas se encargan de la digitalización de textos, su corrección, diseño de portales, asegurar que las obras son de dominio público, y el mantenimiento del portal.

El nuevo proyecto de la Biblioteca es la descarga de libros en dispositivos móviles: PC, teléfono móvil, PDA o eReader, el lector de libros electrónicos.

La Cervantes también trabaja en su incorporación a la nueva Internet (Web 2.0). Se trata de llegar al mayor número de usuarios, con una oferta muy selecta, como por ejemplo, literatura hispano-rusa.

La labor se complementa con la de la Fundación Biblioteca Virtual Miguel de Cervantes , compuesta por un Patronato en el que se sientan 16 instituciones de ámbito público y privado -el soporte financiero de un proyecto que para este año cuenta con un presupuesto de 1,5 millones de euros-, y un consejo científico.

La Fundación está presidida por Mario Vargas Llosa y cuenta con un patrono de honor a título póstumo desde el 9 de junio, Mario Benedetti. El escritor uruguayo fue el primer autor que contó con un portal en la Cervantes. Actualmente, trabajan en la actualización de los más de 50 registros que poseen de este escritor. Benedetti siempre apoyó el trabajo de la institución, señalan en la Cervantes.

En la Biblioteca han visto como en estos diez años los autores vivos han perdido su miedo a Internet. Consideran que ha sido un trabajo basado en la confianza con autores, editores, traductores y demás personas vinculadas a una obra.

Secuenciado el quinto genoma humano

Fuente: El Pais.

La secuenciación de un genoma humano será pronto un proceso rutinario. Tras presentarse en 2001 el primer borrador, todo un hito científico anunciado a bombo y platillo por dos presidentes de Gobierno (Bill Clinton y Tony Blair), sólo se han secuenciado cuatro genomas de personas sanas. Hoy se publica en Nature el quinto, que aporta una valiosa información sobre la estructura de los genes y la variabilidad genética al compararlo con los cuatro precedentes. Aunque de momento se cuentan con los dedos de una mano, los investigadores anticipan que en los próximos años se descifrarán miles de genomas individuales.

El genoma que presenta hoy un equipo dirigido por Jeong-Sun Seo, de la Universidad Nacional de Seúl (Corea del Sur), corresponde a una persona de origen coreano. En la jerga científica se denomina AK1 y se viene a añadir a los de un chino (YH), un africano (NA18507) y dos más de origen europeo: James Watson, el que fuera director del consorcio público del Proyecto Genoma Humano, y Craig Venter, fundador de Celera Genomics, la empresa privada que rivalizó con el proyecto público para descifrar el primer genoma humano.

La enorme variabilidad genética humana ha quedado patente al comparar los cinco genomas: sólo comparten un 8% de los nueve millones de SNP o variantes de una sola letra estudiadas en las cinco personas. Un SNP significa simplemente la diferencia de una letra en la secuencia de 3.000 millones de pares de bases o letras de todo el ADN humano. Estos SNP normalmente no tienen ninguna importancia, pero una pequeña parte se asocia con enfermedades. El genoma coreano tiene un 21% de SNP únicos, que no comparte con ninguno de los otros cuatro genomas.

"El coreano aporta información detallada sobre la estructura del genoma humano y datos sobre una nueva etnia", explica Xavier Estivill, director del Programa Genes y Enfermedades del Centro de Regulación Genómica, en Barcelona. Y añade: "Tener un mapa descriptivo de toda la variabilidad del genoma humano nos da herramientas para entender la función de los genes en relación con los rasgos individuales y diferentes enfermedades".

Con el progresivo perfeccionamiento y abaratamiento de las técnicas de secuenciación, este investigador aventura que pronto habrá un auténtico aluvión de genomas descifrados: "En pocos años, la secuenciación completa del genoma será un procedimiento casi tan rutinario en medicina como hoy lo es un escáner".

El genoma coreano o AK1 ayuda también a entender la ascendencia genética y las migraciones. Comparados con el genoma humano de referencia (el secuenciado por el consorcio internacional con el ADN de varias personas europeas o caucasianas), "el africano presenta más diferencias que los europeos o los asiáticos", explica Estivill. Esto indica que "la población africana es más antigua y ha tenido más tiempo de generar variaciones".

La Universidad de Bolonia usa a modelos para promocionarse

Fuente: Publico.
La Universidad de Bolonia cuenta con muchos atractivos para promocionar la sabiduría que encierran sus aulas entre la población estudiantil. Es el centro educativo superior más antiguo de Europa. El mejor de Italia. Con profesores de renombre, entre los que se encuentran el semiólogo Umberto Eco y el ex primer ministro Romano Prodi. Sin embargo, la alma mater studiorum ha dejado de lado los reclamos clásicos y ha optado por una revisión de un cómic de la Marvel en clave velina, o sea, la modelo o azafata presente en cada rincón de la vida y la televisión italiana.
Así, la prestigiosa universidad ha reclutado a cuatro señoritas, las ha enfundado en un mono de lycra blanco con braguita roja y, a modo de escudo apto para superheroínas, ha estampado el nombre de sus campus de Cesena, Forlì, Ravenna y Rimini.
Son Las Cuatro Fantásticas, dos rubias y dos morenas. Lo máximo para tus estudios universitarios, reza el eslogan de una institución educativa en la que debería primar, por encima de las excelencias del cuerpo, el desarrollo de la mente.

Brasil devuelve 1.000 toneladas de basura ilegal a Inglaterra

Fuente: AFP.

Más de 1.000 toneladas de residuos domésticos que llegaron ilegalmente desde Inglaterra son investigados en dos puertos de Brasil y deberán ser devueltos en los próximos días, informaron funcionarios del Instituto Brasileño de Medio Ambiente (Imaba) el martes a AFP.

Unos 16 contenedores llegaron al puerto de Santos, Estado de Sao Paulo (sudeste), y otros 40 al puerto de Rio Grande, en el Estado de Rio Grande do Sul (sur), con una "declaración falsa" que informaba de que se trataba de plástico reciclable, informó a AFP Ingrid Oberg, jefa de Imaba de la sede en Santos.

El Imaba denunciará el caso en Basilea, cuyo Convenio controla el movimiento transfronterizo de desechos, ya que en Brasil está prohibido recibir este tipo de basura, precisó.

Unas 293 toneladas que se encuentran en Santos son principalmente de origen doméstico (envases plásticos y de vidrio, almohadas y periódicos), pero entre las 754 toneladas de desechos descubiertas en Rio Grande por la Dirección Fiscal se encontraron jeringas, preservativos, pilas y pañales, se informó.

Las empresas importadora y transportadora fueron multadas cada una a pagar 155.000 reales (77.811 dólares al cambio del día), y se les solicitó devolver la carga a Inglaterra en un plazo de 10 días.

Este caso "es un absurdo, una falta de respeto hacia Brasil", declaró Oberg al diario OGlobo.

Los navíos habrían partido en febrero desde Inglaterra, e hicieron escala en Bélgica antes de llegar a Brasil.

Según había señalado a la red mediática local RBS tras el hallazgo el procurador de la República en Rio Grande, Julio Castro Jr., la carga debe retornar y las autoridades en el lugar de origen evaluar su destino pues "Brasil no puede convertirse en un punto de recepción de residuos de otras naciones".

Google trabaja con HP y Acer para lanzar su sistema operativo

Fuente: Cinco Dias.

A ninguna empresa de la industria TIC se le escapa que para que un nuevo producto tecnológico triunfe hay que convencer al usuario, pero previamente también a todo el ecosistema de empresas que hay alrededor. Microsoft lo sabe bien. Y Google parece igualmente tenerlo claro. Ayer desveló que está trabajando con nueve fabricantes del sector para diseñar y construir equipos que saquen todo el partido a su inminente sistema operativo Chrome OS. Todos son pesos pesados en sus sectores. En la lista están Acer, HP, Lenovo, Asus y Toshiba, como fabricantes de PC. Y Freescale, Qualcomm y Texas Instruments, del lado de la industria de los chips.

Todas las empresas de PC citadas trabajan actualmente con Microsoft. Pero, como explica Iván González, director de Análisis de Penteo, que lo hagan ahora con Google es un síntoma de un mercado sano. "La misión de estos fabricantes es colaborar con todos los partners que puedan ser complementarios para ampliar su negocio".

Los primeros aliados de Google buscan, sin duda, aprovechar las oportunidades que se abren con el Chrome OS, un sistema ligero, veloz y gratuito. Unas oportunidades que a corto plazo González ve limitadas al mundo del portátil de bajo precio (netbook). "Google se está introduciendo poco a poco en el terreno de los sistemas operativos. Primero lo hizo en los móviles con Android, ahora lo intentará con el netbook y después tratará de llegar al laptop portátil tradicional, pero aquí lo va a tener muy difícil porque casi todo el parque mundial de estos equipos funciona con Windows".

Muchos expertos creen que el Chrome OS, que llegará al mercado en 2010, tendrá su gran oportunidad en nuevos dispositivos que traen nuevos hábitos de uso. Es el caso de los netbooks. "Internet tiene cada vez más presencia en el uso de estos equipos, porque cada vez hay más aplicaciones en la web y es muy difícil disociarlo", dice González. El analista de Penteo cree, en este punto, que el buscador está ejecutando desde hace tiempo un trabajo magistral del lado de las aplicaciones para el mercado doméstico (como Google Map), pero no ha logrado un efecto similar en las aplicaciones empresariales, donde la oferta de Microsoft tiene gran arraigo y ha creado un hábito difícil de cambiar. Además, según Techcrunch esta compañía podría anunciar el lunes una nueva versión de Office para la web.

La respuesta de Microsoft se está 'cocinando'

Google ha nacido en la era de internet. Y se nota, porque su apuesta es un sistema operativo basado en software libre, concebido para trabajar en la red y que pasa de apagado a conectado en pocos segundos. La cuestión es que Microsoft no es ajeno a que el futuro pasa por abrazar más internet, y trabaja ya en un navegador que asuma funciones de sistema operativo. Lo que ha hecho Google con Chrome. Microsoft ha desvelado algún dato de este prototipo que ha denominado en clave Gazelle y sobre el que trabaja en sus laboratorios. Este navegador futuro de Microsoft actuará como una plataforma sobre la que trabajarán distintas aplicaciones que estarán en la red. La cuestión es ¿llegará tarde a este cambio en la forma de entender lo que es un sistema operativo? "Ya va tarde. Google le saca ventaja en los nuevos servicios de internet", dice González, que sostiene que Microsoft no consigue imprimir la velocidad necesaria en su cambio cultural.

China supera a los EE.UU. en venta de autos

Fuente: Invertia.

China superó a Estados Unidos como el mayor mercado de automóviles del mundo en el primer semestre del 2009 luego que las ventas de junio repuntaron 36,5% con respecto al año anterior, según cifras reportadas el jueves.

Las ventas de vehículos de China en junio subieron a 1,14 millones, el segundo mes más alto hasta la fecha luego de los 1,15 millones de unidades vendidos en abril, señaló la Asociación de Fabricantes de Automóviles de China. La venta de autos de pasajeros registró una cifra mensual récord de 872.900 unidades.

Las ventas totales para la primera mitad del año subieron a 6,1 millones, o un alza de 17,7% frente al año previo, dijo el grupo industrial. Esta cifra superó a Estados Unidos, donde la venta de autos para pasajeros en el mismo período cayó a 4,8 millones entre una desaceleración económica.

Las ventas de autos en China bajaron a finales del 2008 debido a la crisis financiera mundial, pero repuntaron luego que Beijing lanzó un paquete de estímulos con recorte de impuestos a las ventas, subsidios para cambiar vehículos más viejos y otros incentivos.

Los fabricantes de autos del mundo están volteando a mirar a China para ayudarse a aumentar sus ingresos mientras batallas con una caída en la demanda en Norteamérica y otros mercados.

"Fue realmente duro para nuestra industria automotriz lograr este gran resultado contra un telón de fondo tan sombrío en la industria internacional de vehículos", señaló la asociación en un comunicado.

Hace tiempo que se esperaba que China, con 1.300 millones de habitantes, superara a Estados Unidos como el mayor mercado automotriz del mundo; pero el desplome económico estadounidense aceleró ese proceso al deprimir las ventas en el país americano, mientras que en China han repuntado.

Sony responde a las amenazas de Activision sobre dejar de desarrollar para PS3

Fuente: 20minutos.

Hace unos días publicábamos las declaraciones de Robert Kotick, CEO de Activision , refiriéndose al precio elevado de la consola PlayStation 3. El directivo llegaba a decir que "en 2010 y 2011 se podría reconsiderar si su compañía iba a continuar apoyando a la consola y a PSP". Ahora, y después de mucho silencio, llegan las primeras respuestas por parte de cargos importantes en Sony.

El primero en abrir la boca ha sido Sir Howar Stringer, responsable de las relaciones con Third Parties de Sony. Stringer ha dicho de Kotick "le gusta hacer mucho ruido. Él ejerce presión sobre mí, yo ejerzo presión sobre él... Pero, ¿Perder dinero por cada Playstation 3 que hacemos? ¿Cómo es eso de lógico?".

Por su parte, Jack Tretton, CEO de SCE América comenta: "Sentimos que estamos realizando un sacrificio a corto plazo para pagar dividendos a largo plazo. La gente piensa a corto plazo. La plataforma ni siquiera tiene tres años. No cuesta mucho para estar invirtiendo en el despliegue de nuevas tecnologías. Si el consumidor se aleja antes de que el ciclo de vida llegue más lejos... Usted puede hablar de la base instalada de hardware pero, ¿Cuántas de esas máquinas todavía están activas, qué número de personas están jugando todavía con ellas?".

Además de este largo discurso en el que no llega a concluir nada en absoluto, Tretton también acabó escudándose en la crisis, comentando que "2008 fue el punto más bajo de la crisis económica mundial, que ha conseguido desacelerar la industria de los videojuegos en general y las ventas de PS3 en particular. Sin embargo, el mercado de PS3 ha aumentado en 2009. Eso es una señal de progreso".

Tretton continúa: "En 2008 tuvimos un aumento de las ventas de un 38%. Hemos alcanzado el objetivo de 10 millones de consolas vendidas en todo el mundo. En los EE UU hemos conseguido unos ingresos de 6,4 mil millones de dólares, sólo en la marca PlayStation, y un 116 % de aumento de ventas de software. En el peor momento posible, si los números caen y se acaba el éxito... Mi esperanza es que tanto nuestra producción como nuestra eficiencia mejoren y lleguen mejores juegos al mercado. El horizonte tiene que ser mejor para 2009 y 2010".

Y es que, en la vida como en los negocios, no hay que perder la confianza, ni dejar a un lado el optimismo.

Colombia: Tecnologías y empleo, relación directa según Telefónica

Fuente: El Mundo.

El incremento de los accesos de banda ancha a Internet es determinante a la hora de impulsar el crecimiento del empleo en los países latinoamericanos en vías de desarrollo, según un estudio presentado por la Fundación Telefónica en el marco de la segunda edición de la Campus Party en Colombia.

El trabajo, realizado por investigadores del >Columbia Institute for Tele-Information, analiza la contribución de las TIC en el desarrollo de los países de la región y concluye que si, por ejemplo, se duplicaran los accesos de banda ancha de los 20 millones actuales que dispone Colombia se generarían 630.000 nuevos empleos.

Telefónica ha reunido en el entorno de Campus Party Colombia a representantes de distintos agentes multilaterales como la Comisión Económica para América Latina y el Caribe (CEPAL), la Comisión Europea (CE), la Secretaría General Iberoamericana (SEGIB) o el Foro Latinoamericano de Entes Reguladores de Telecomunicaciones (Regulartel) para analizar la innovación como motor de impulso para salir de la actual crisis económica.

En el foro se ha debatido sobre "la necesidad de apostar por las tecnologías y la innovación como palancas de crecimiento económico y desarrollo de nuevos modelos de negocio basados en la innovación". De hecho, según la Fundación Telefónica, aumentando un 10% la inversión en tecnología se generaría un incremento de la productividad del 2%.

Los monos aprenden reglas básicas de gramática

Fuente: Publico.

A las capacidades cognitivas de los primates no humanos, que nuevos estudios no cesan de ampliar, se une ahora un sentido primitivo de la gramática, según publica un grupo de científicos de la Universidad de Harvard (EEUU) en Biology Letters.

Los investigadores partieron de una observación: muchos idiomas construyen palabras combinando sistemas de prefijos y sufijos. Incluso en otras especies, como aves, ballenas o monos, la concatenación de los sonidos en un orden particular es crucial para transmitir el mensaje.

Esto, indican los científicos, les indujo a plantear que el lenguaje humano se basa en patrones ancestrales no lingüísticos facilitados por los mecanismos de la memoria.

El modelo animal elegido fue el mono tití de cabeza blanca (Saguinus oedipus). Los autores del trabajo sometieron a 14 de estos animales a un aprendizaje acústico de palabras inventadas que tenían en común un mismo prefijo. A través de unos altavoces, los monos escuchaban una lista de palabras como shoybi, shoyka, shoyna o shoyro.

Al día siguiente, tocaba examen. El test consistió en reproducir por el altavoz una nueva lista de palabras, pero en este caso, alternando algún vocablo incorrecto, en el que shoy aparecía al final y no al comienzo de la palabra. El método era simple: comprobar si, al escuchar la palabra errónea, los monos se quedaban mirando el altavoz. "Esto es exactamente lo que hicieron", dice el director del estudio, Ansgar Endress.

Según los autores, esta habilidad básica de los monos es la que también ayuda a los niños a aprender los fundamentos del lenguaje.

El eBook no es un sustituto, es un aliado

Fuente: Europa Press.

El responsable de Google Books en España, Luis Collado, aseguró que "el 'ebook' no pretende sustituir al libro de papel, sino facilitar la forma de acceso a la lectura". Collado ofreció la conferencia sobre 'El libro e Internet, ¿buen matrimonio?' enmarcada dentro de los Cursos de Verano de la Universidad de La Rioja.

Este curso pretende desvelar qué es el 'ebook', la versión digital de un libro, en alusión tanto al aparato utilizado para leer obras como al programa de contenidos como los que usa un libro en papel. Además, se abordará la influencia que Internet ha supuesto en la sociedad.

Sólo hace quince años desde que se implantó de forma universal Internet y, sin embargo, ahora el día que no tenemos acceso a él parece que estemos desconectados del mundo", aseguró Collado, insistiendo en que resulta "asombroso como se ha implantado como medio de comunicación".

Gracias a Internet los más de 1,5 millones de usuarios que utilizan Internet en el mundo acceden diariamente a "un volumen impensable" de contenidos. "La mente humana no está preparada para absorber esa cantidad de información y debemos aprender a discriminar contenidos".

Fruto de la cantidad de datos de la red surgen las "perversiones", como la microlectura, refiriéndose a que las personas ya no se sientan a leer y entender tranquilamente los contenidos, sino que en Internet se lee de forma dispersa sin procesar el contenido completo "perdiendo el concepto de trabajar un libro de principio a fin".

MÁS DE 10 MILLONES DE EJEMPLARES.

En cuanto al 'ciberlibro', tema central de la conferencia, informó de que Google Books actualmente registra más de 10 millones de libros digitalizados en la red, tras los acuerdos con las bibliotecas y editores, los usuarios podrán disfrutar de las consultas de las obras.

El funcionamiento es muy sencillo, el usuario sólo ha de teclear en su PC una palabra y el buscador registrará inmediatamente en la pantalla en qué libro y página concreta se encuentran.

Aún así, el lector sólo podrá consultar la obra, "al igual que haría en una librería, donde tú ojeas los libros y no los lees enteros". Por lo tanto, se trata de un servicio gratuito "en el acceso", que dependerá de los derechos de copyright de cada ejemplar.

El 'ebook' hace que "sean muchos más los lectores y compradores potenciales de un libro", ya que descubren con más facilidad el contenido. "No han tenido que ir donde está el papel, sino sólo a través de Internet".

Además, reiteró que el libro de papel "no tiene caducidad", puesto que el ciberlibro es tan sólo una "posibilidad más de que la gente acceda a una lectura" que incorpora todo el conocimiento de los libros de papel a Internet.

FIFA 10 llegará el 20 de octubre

Fuente: La Vanguardia.

La empresa estadounidense Electronic Arts (EA) presentó en Nueva York FIFA 10, la última versión de su popular vídeojuego de fútbol, que saldrá a la venta el próximo 20 de octubre en todo el mundo con nuevas aplicaciones y mayor interactividad con el usuario. "Lo hemos reestructurado de arriba a abajo, hay multitud de nuevas aplicaciones y el juego tiene más acción, mayor energía y va más rápido. Además, las animaciones son más realistas y hemos incluido nuevos estadios y atmósferas", explicó el responsable del producto de FIFA 10, Enrico Bongo.

El nuevo vídeojuego se ha desarrollado a partir de la opinión de quienes lo probaron "online" entre septiembre de 2008 y junio de 2009 y jugaron un total de 275 millones de partidos. "Hemos escuchado y reaccionado ante sus opiniones para mejorar el control y la respuesta del jugador y crear lo que creemos que es el vídeojuego de fútbol más realista del mundo", afirmó el vicepresidente y productor ejecutivo de FIFA, Andrew Wilson, en un comunicado.

Esta nueva versión estará disponible para las consolas PlayStation 2, PlayStation 3, Xbox 360, Wii y PSP, así como para ordenadores personales y teléfonos móviles. La novedad que introduce el juego para la consola Wii de Nintendo es la posibilidad de jugar hasta cuatro personas conectadas a internet desde dos consolas situadas en lugares diferentes. "Este es un juego social y hemos añadido esta posibilidad porque es un sistema pensado para los amigos y los grupos de gente, y eso es lo que queremos fomentar", explicó Bongo. Recalcó que el lanzamiento del juego en octubre tendrá especial importancia porque será tan solo unos meses antes de que comience el campeonato de la Copa Mundial de Fútbol, que está previsto que se celebre en junio del 2010.

La Universidad de Lleida crea un teclado virtual para personas con discapacidad motriz

Fuente: El Pais.

La Universidad de Lleida (UdL) ha creado un teclado virtual para personas con movilidad reducida, que se puede descargar gratuitamente de internet y que reduce hasta en un 40% las pulsaciones necesarias para escribir un texto, ya que el sistema añade automáticamente las palabras que faltan.
Se cree que en España hay 1,8 millones de usuarios potenciales de este teclado virtual, que desde hoy ya se puede descargar de forma gratuita a través de la web del departamento de robótica de la UdL.
Este teclado, que es virtual ya que se descarga en el ordenador como un programa y no requiere de teclado físico, se ha creado en el marco de la cátedra de la UdL que la multinacional tecnológica Indra y la Fundación Adecco impulsaron en 2008.

Cuba desarrollará tecnología y software propios

Fuente: ITexpresso.

El viceministro cubano de Informática y Comunicaciones, Jorge Luis Perdomo ha destacado los esfuerzos de su Gobierno para "transitar hacia una sociedad informatizada y basada en el conocimiento".

La I Conferencia Iberoamericana de Ministros de Telecomunicaciones que concluye hoy en la ciudad portuguesa de Estoril, ha sido el lugar escogido por Jorge Luis Perdomo, viceministro cubano de Informática y Comunicaciones, para anunciar su propósito de “potenciar las Tecnologías de la Información con infraestructuras, enseñanza y desarrollos propios, como una herramienta para una mayor eficiencia y competitividad del país y mejor calidad de vida ciudadana”.

El político ha asegurado que "está implementando las infraestructuras necesarias para un adecuado acceso de la población a las nuevas tecnologías". Y no solo eso, también apuesta por los productos cubanos, por lo que el país caribeño desarrollará tecnología y software propios, así como la formación de especialistas informáticos.

La oferta de 600 puestos en toda la isla de trabajadores que han cursado las carreras universitarias de Ciencias Informáticas y Ciencias de la información, es una apuesta segura para la promoción del uso de las nuevas tecnologías, según Perdomo.

La Conferencia, a la que asistieron 14 países iberoamericanos, sirvió para promover el acceso generalizado a la banda ancha, en especial en áreas rurales y sectores de menores ingresos.

Microsoft lanza Silverlight 3

Fuente: the INQUIRER.

El competido de Adobe Flash de la casa de Redmond ya está listo para descargar y llega cargadito de novedades. Ahora que parece que no ha habido consenso sobre el formato de las etiquetas vídeo de HTML 5, la solución de Microsoft jugar su gran baza.

Para más datos se puede descargar desde aquí y curiosamente aparece una nota sobre la descarga que dice: “¡No te preocupes! No instalaremos ningún montón de software adicional en tu ordenador ni tampoco intentaremos registrarte para emails no deseados.

Silverlight 3 incluye actualizaciones importantes y un buen número de nuevas características. Si queréis saber más de ello os remitimos al blog de Tim Heuer, Manager de Programa de Silverlight, donde se recogen todas las novedades del mismo.

El lenguaje predice el riesgo de demencia

Fuente: BBC Mundo.

La gente que tiene una capacidad superior de lenguaje durante la juventud podría tener menos probabilidades de desarrollar Alzheimer más tarde en la vida, afirma una investigación.

El equipo de científicos de la Universidad Johns Hopkins, en Estados Unidos, estudió los cerebros de 38 monjas católicas después de morir.

Descubrieron que aquéllas que habían tenido buenas capacidades de lenguaje durante su juventud tuvieron menos probabilidades de sufrir problemas de memoria, incluso si sus cerebros mostraban los signos característicos del daño que causa la demencia.

Los detalles del estudio aparecen publicados en Neurology (Neurología), la revista de la Academia Estadounidense de Neurología.

A pesar del daño cerebral

"Una característica misteriosa de la enfermedad de Alzheimer es la forma como ésta afecta a la gente de forma diferente" afirma el doctor Juan Troncoso, quien dirigió el estudio.

"Una persona que muestra placas y nudos fibrilares severos -los signos típicos de la enfermedad de Alzheimer en su cerebro- podría no mostrar los síntomas que afectan su memoria.

"Pero otra persona con esas mismas placas y nudos en la misma zona de su cerebro podría terminar con un caso confirmado de enfermedad de Alzheimer.

"Nosotros analizamos cómo las capacidades de lenguaje pueden afectar la aparición de esos síntomas", explica el investigador.

En efecto, estudios en el pasado llevadas a cabo con cerebros de personas que han muerto con Alzheimer, han vinculado a la enfermedad con el depósito de placas de proteína, llamadas placas amiloideas y estructuras de fibras nerviosas entrelazadas en el cerebro.

Pero hasta ahora los científicos no sabían porqué estos signos de daños producían síntomas de demencia en unas personas pero no en otras.

El doctor Troncoso y su equipo enfocaron su estudio en monjas que formaban parte de un estudio clínico continuo.

Dividieron a las 38 mujeres en las que tenían problemas de memoria y signos de daños causados por demencia en el cerebro, y en las que no tenían dificultades de memoria aunque tuvieran signos de daños por demencia en el cerebro.

Los científicos también analizaron los ensayos que 14 de las mujeres habían escrito cuando entraron al convento a fines de su adolescencia o principios de sus 20 años y estudiaron la complejidad del lenguaje y gramática en éstos.

El análisis mostró que la capacidad de lenguaje era 20% más alta en las mujeres sin problemas de memoria que en aquellas con signos de dificultades en la memoria.

Los resultados en gramática no mostraron ninguna diferencia entre los dos grupos.

"A pesar del pequeño número de participantes en esta parte del estudio, los resultados son fascinantes" afirma el doctor Troncoso.

"Nuestro hallazgo muestra que una prueba de capacidad intelectual a principios de los 20 años de la persona podría predecir la probabilidad de permanecer cognitivamente normal cinco o seis décadas más tarde, incluso con la presencia de una gran cantidad de patología de la enfermedad de Alzheimer" dice el científico.

Crecimiento de neuronas

El estudio también descubrió que las neuronas eran más grandes en las mujeres que conservaron una memoria normal, a pesar de mostrar signos de la enfermedad en sus cerebros.

Según los científicos esto revela que el crecimiento de las neuronas podría ser la primera respuesta del organismo ante la aparición de la demencia, y esto podría ayudar a prevenir los problemas de memoria.

"Quizás las capacidades mentales a los 20 años son un indicio de un cerebro que estará mejor preparado para enfrentar las enfermedades más tarde en la vida" dice el doctor Troncoso.

Otros expertos afirman que el estudio es importante, pero será necesario llevar a cabo más estudios para confirmarlo.

Porque hasta ahora se ha demostrado que la demencia afecta a la gente de todas las profesiones y condiciones sociales.

"La demencia no es una parte natural del envejecimiento" dice la doctora Susanne Sorenses, de la organización Alzheimer Society.

"Es interesante que las monjas en este estudio con mejores capacidades de lenguaje en su juventud evitaron los problemas de memoria más tarde en su vida.

"Sin embargo, la investigación fue llevada a cabo en un grupo muy pequeño y selecto y sería difícil decir a estas alturas que las capacidades del lenguaje relamente pueden predecir la demencia", expresa la experta.

La rescatada AIG planea volver a pagar bonos a sus ejecutivos, según la prensa

Fuente: Cinco Dias.
El grupo asegurador, en el que el Gobierno controla un 80% del accionariado, habría contactado con el 'zar' encargado de supervisar el pago de compensaciones a ejecutivos por siete de las entidades rescatadas con dinero público, Kenneth Feinberg, para que autorice el pago de unos 2,4 millones de dólares (1,7 millones de euros) en 'bonus' para unos 40 altos ejecutivos de AIG, según señala el diario 'The New York Times'.
No obstante, 'The Washington Post' recuerda que AIG no está obligada a pedir permiso a Feinberg para el pago de bonificaciones, pero afirma que la aseguradora pretende contar con el respaldo del Gobierno para realizar estos pagos y así evitar las iras de la opinión pública estadounidense.
En concreto, Feinberg cuenta con autoridad para determinar los salarios, bonificaciones y planes de jubilación de los ejecutivos de las empresas rescatadas por el Gobierno, como Citigroup, General Motors o la propia AIG, pero en el caso de las primas propuestas por la aseguradora, el 'zar' no tiene capacidad para prohibirlas ya que corresponden al ejercicio 2008.
"Nos gustaría sentirnos cómodos sabiendo que el Gobierno está cómodo con lo que hacemos", señalaron fuentes de la aseguradora, que destacaron el elevado grado de escrutinio al que se somete "cada cheque" de la compañía.

Científicos españoles investigan la aplicación de nanopartículas de oro para detectar y curar tumores

Fuente: ADN.
Las nanopartículas de oro, de un diámetro 10.000 veces inferior al grueso de un cabello, se inyectarían en el torrente sanguíneo del enfermo y, gracias a sus propiedades, se convertirían en fuentes de luz y calor dentro del cuerpo después de iluminarlas con un rayo láser.
La idea básica es que, si los investigadores son capaces de hacer que las nanopartículas se fijen selectivamente en las células afectadas de cáncer, podrían posteriormente calentarlas hasta destruir el tumor maligno.
Este método presentaría dos ventajas respecto a los existentes en la actualidad para tratar el cáncer, la radioterapia y la quimioterapia, ya que, a diferencia de ellos, solo destruiría las células malignas y no los tejidos sanos.
Quidant, que explicó en rueda de prensa que el método es "atractivo" pero todavía se encuentra en fase inicial de investigación, mostró los resultados obtenidos por científicos estadounidenses, que consiguieron destruir el tumor de un ratón tras 21 días de tratamiento láser sobre las nanopartículas de oro que habían sido introducidas previamente.
El joven investigador del ICFO señaló que todavía no se sabe si la terapia será efectiva en los hospitales, aunque mantienen conversaciones con oncólogos para explorar sus posibilidades, y fijó los dos principales problemas pendientes de la investigación en conseguir que las partículas de oro se fijen únicamente en las células cancerígenas, por un lado, y averiguar cómo se podrían eliminar las nanopartículas del cuerpo una vez utilizadas, por otro.
OTRAS APLICACIONES
El equipo de Quidant trabaja paralelamente en el desarrollo de un pequeño chip para detectar marcadores cancerígenos solo con una gota de sangre del paciente, y que podría estar listo a partir del próximo año, ya que se encuentra en una fase avanzada y únicamente falta integrar todos los sensores en un mismo producto final.
El chip permitiría hacer análisis "sin laboratorios", y sería especialmente útil en el caso de países en vías de desarrollo que no disponen de infraestructuras médicas avanzadas por ser "barato" y "transportable".
Este mecanismo detectaría los multiplicadores de células que se esconden detrás de cualquier tipo de cáncer, y si bien no sería capaz de indicar en qué zona del cuerpo humano se desarrollo el tumor, si sería una prueba adecuada para saber "si hay que ir a buscar más lejos".
La aplicación de las nanopartículas de oro, capaces de enviar señales luminosas desde dentro del cuerpo humano y mostrar alteraciones en caso de fijarse en su superficie moléculas específicas, también sería útil para detectar casos de dopaje en los deportistas, como el uso de esteroides.

La canción más vendida del momento en Internet también se descarga gratis

Fuente: La Segunda.

Por estos días, la canción de Moby “Shot in the Back of the Head” aparece como la más vendida en iTunes, la tienda online de Apple. Lo particular de esto, es que el cantante ha estado ofreciendo la canción para su descarga absolutamente gratuita en Internet .

El hecho podría parecer una curiosidad, pero destruye uno de los argumentos más utilizados por la industria discográfica en contra de las descargas de Internet, como explicó el sitio ALT1040.

El autor especula que los usuarios la compran a pesar de poder obtenerla gratis por el “efecto estación de radio”, lo que implica que la canción se ha escuchado tanto gracias a las descargas gratuitas, que al empezar la venta oficial, las personas a las que le gustó lo compran de inmediato.

La industria discográfica ha visto sus ventas decaer de manera dramática, y culpa directamente a las descargas ilegales de Internet por ello, argumentando que cada canción descargada implica una venta menos para ellos, y en base a eso calcula sus pérdidas.

Esto la ha llevado a demandar a usuarios y a sitios web por utilizar y compartir contenido protegido por el derecho de autor. El reciente juicio en contra del sitio de descargas P2P The Pirate Bay, donde sus responsables fueron condenados a un año de cárcel, se ha convertido en el hito más reciente de esta disputa
.

Intel, presente en un 80% de las supercomputadoras más rápidas

Fuente: Informador.

Según la última lista TOP500 de las supercomputadoras más poderosas del mundo, informa que el 80% de estas utilizan procesadores de Intel. La comunidad de cómputo de alto desempeño (HPC, por sus siglas en inglés) está especialmente entusiasmada con los procesadores de la serie Intel Xeon 5500, que hace sólo tres meses fueron lanzados, y cuyos chips ya están impulsando la investigación y aumentando las capacidades de análisis de 33 sistemas de esta lista.

La 33 ª edición de la lista TOP500 muestra que 399 de las 500 computadoras más potentes del mundo, incluyendo dos de ellas entre las diez primeras, cuentan con tecnología Intel en su interior. Los sistemas que usan procesadores Intel Xeon quad-core destacan significativamente en la lista, con 340 registros. Así mismo, 263 computadoras trabajan con la serie Intel Xeon 5400 con los transistores reinventados de High-k Metal Gate que usan la generación anterior de procesadores quad-core de 45nm de Intel.

Las plataformas de súper cómputo basadas en tecnología Intel están jugando un papel fundamental en diversas áreas de investigación, desde la mejora de la seguridad en la exploración del espacio hasta la previsión de las condiciones meteorológicas globales. Cada día más industrias catalogadas como "fundamentales", tales como servicios financieros y cuidados de la salud, están utilizando también sistemas basados en Intel para lograr resultados más rápidos y precisos, con el objetivo de acelerar el ritmo de la innovación y mejorar la ventaja competitiva.

Diseñan el Atnmbl, un "autonomóvil" para no volver a conducir

Fuente: Invertia.

Para el más purista incluso la transmisión automática es un atentado al más hermoso acto de la conducción, así que para muchos fanáticos el ATMNMBL (que significa 'autonomóvil', por sus siglas en inglés) es la antítesis de un vehículo, una manera tal vez excesivamente racional para analizar este medio de transporte.
El auto diseñado por el estudio 'Mike and Maaike' (que toma el nombre de sus fundadores) es la manera de observar, según sus creadores, 30 años en el futuro. El concepto de desempeño deja a un lado la aceleración y la velocidad máxima y se enfoca principalmente en el tiempo que las personas podrían ahorrar si aprovechan con alguna actividad productiva los largos momentos que se gastan en sus desplazamientos en ciudad, especialmente cuando hay embotellamientos.
Centrándose en su idea principal, el ATNMBL se movería (recordemos que este auto sólo existe en el mundo virtual y en las mentes de sus creadores) automáticamente gracias a avanzados sistemas de radares, acelerómetros y varios sensores en la carrocería para evitar colisiones, y guiará a sus pasajeros a sus respectivos destinos a través de sistemas de GPS.
Tendría tracción total gracias a unos motores eléctricos ubicados en cada rueda, todo sin emitir directamente contaminación debido a que el movimiento lo proporcionaría la energía solar.
No hay dirección ni pedales, sólo un espacio habitable en donde se tiene acceso total a Internet y se está conectado siempre a, por ejemplo, redes sociales vinculadas a iniciativas de 'carpooling', para así compartir con personas cercanas al propietario el auto y usarlo de la manera más eficiente posible, también se puede contactar a servicios de rutas de turismo, entre varias otras aplicaciones.
Sin duda se trata de toda una utopía sobre ruedas, más teniendo en cuenta que en algunos países como el nuestro a duras penas hay reglas establecidas relacionadas con el mundo automotor o una malla vial competentemente funcional, sin embargo es bueno saber que todo esto es técnicamente posible.

Cómo hacer de Internet un espacio para todos

Fuente: La Nacion.

La red de redes permite teletrabajar, realizar trámites on line y estar comunicado con personas a distancia, lo que facilita la vida a quienes tienen dificultades motrices o visuales. Sin embargo, aún son varias las barreras que dificultan la accesibilidad.

Todas las innovaciones tecnológicas han producido un importante impacto en las personas con discapacidad, por permitirles un estilo de vida independiente en muchos aspectos que antes tenían vedados. Internet les ha dado la posibilidad de acceder a diversos contenidos, informarse, comunicarse, darse a conocer, realizar cursos e, incluso, trabajar a distancia. "La Web ha permitido sacar del aislamiento a muchas personas con discapacidades o problemas de movilidad que antes sólo interactuaban con su familia o su círculo íntimo", dice Nicolás Trotta, subsecretario de Tecnologías de Gestión, dependiente de la Secretaría de Gabinete y Gestión Pública.

Las barreras de la Web

Pero tal como ocurre con los edificios y el transporte público, la Web puede tener escaleras virtuales que dificultan o impiden su uso a las personas con discapacidad. "Ponerse en el lugar de quienes utilizan Internet para poder entender sus necesidades y, a partir de esa mirada, pensar los desarrollos es, aún, la gran cuenta pendiente", observa Trotta.

Las discapacidades más afectadas por la inaccesibilidad de los sitios Web son las visuales. Muchas personas con esta limitación ya cuentan con software especiales que leen las pantallas para que puedan ser utilizadas por el usuario. Pero para que estos programas funcionen los sitios deben estar construidos cumpliendo con una serie de normas que les dan sentido a la lectura y la navegación. "Aún son muchísimos los sitios con contenidos gráficos o multimediales sin alternativas textuales o auditivas", afirma Martín Baldassarre, coordinador de la Fundación Sidar (Seminario Iberoamericano sobre Discapacidad y Accesibilidad en la Red) y miembro de ISOC-AR (Internet Society-Capítulo Argentina).

Por su parte, Trotta asegura que la responsabilidad social del Estado es garantizar el acceso a la información de toda la población, independientemente de su contexto y eliminando las barreras que lo obstaculicen para que las tecnologías no se conviertan en otro medio de discriminación. "Por eso, cuando hablamos de sociedad de la información y brecha digital creemos que no debemos restringirnos a pensarla y resolverla únicamente ampliando la conectividad o mejorando el acceso a infraestructura adecuada. El salto no debe ser sólo en términos cuantitativos, debemos garantizar el acceso en términos cualitativos. Y esto se logra estableciendo normas de accesibilidad para desarrollar los productos electrónicos y evitar así reproducir las barreras existentes y crear nuevas", asegura el subsecretario. Por su parte, Ezequiel Glinsky, gerente de Nuevas Tecnologías para Microsoft para Argentina y Uruguay, comenta: "La tecnología Microsoft ya es compatible con dispositivos adicionales diseñados especialmente para personas con discapacidades. No obstante, en muchos casos estos dispositivos adicionales son costosos y presentan una barrera de entrada".

¿Cuándo es accesible?

Se considera que un sitio es accesible cuando su contenido puede ser utilizado por múltiples usuarios y recibidos en distintos dispositivos. "Al diseñar y desarrollar una página Web debe tenerse en cuenta que muchos usuarios intentarán usarla en una variedad de contextos. Algunos pueden no ver, no oír o tener problemas de movilidad o motricidad; otros pueden no estar en condiciones de usar un mouse, o tienen monitores muy pequeños que sólo pueden visualizar texto. También puede ser que su conexión a Internet sea lenta o que tengan hardware o software desactualizados o, a la inversa, de última generación", enumera Trotta.

Existen pautas y estándares internacionales del Consorcio Web ( www.w3.org ) para determinar si un sitio es accesible o no. En nuestro país se realizó un proyecto de ley -que cuenta con media sanción en la Cámara de Diputados- para asegurar que los sitios Web públicos cumplan con estas pautas internacionales. "Pero si no hay políticas públicas al respecto no sirven de mucho", reclama Baldassarre.

Los especialistas aseguran que desarrollar un sitio accesible no incrementa los costos ni sacrifica la creatividad de los mismos. "Asimismo, hacer accesibles las páginas Web aumenta el número de visitas, mejora la posición en los buscadores, facilita la navegación y reduce el costo de mantenimiento, entre otras ventajas", asegura el coordinador de Sidar.

Existen páginas como www.tawdis.net , de la fundación TCIC, que ofrece herramientas para analizar la accesibilidad del diseño y el desarrollo de una página. Una vez ingresada la página de interés, esta herramienta señala las secciones de la página inaccesibles para personas con discapacidad, que los programadores deberían adaptar para mejorar.

Entre estos requisitos está el que posibilite una clara identificación de los contenidos por parte del usuario, y que éste pueda acceder a ellos y controlar su propia navegación. "Partimos de la idea de que la tecnología debe adaptarse a los usuarios y no al revés. La accesibilidad no es un privilegio, sino un derecho", resume Baldassarre.

Un responsable de Google: "El error de Microsoft es que no valoró Internet"

Fuente: 20minutos.

El responsable de Google Books España, Luis Collado, ha afirmado que el problema de los creadores de Microsoft es que desarrollaron su sistema operativo antes de que Internet fuese el gran medio de comunicación que es ahora, y que "no valoraron" en su justa medida su importancia. Además, ha recordado que su empresa lanzará en 2010 su propio sistema operativo pensado para Internet.

El sistema operativo de Microsoft, que actualmente utilizan el 90% de los ordenadores, tendrá que competirá a partir del año que viene con Chrome (Google).

"No desafiamos a nadie, pero en Google, como empresa que opera en Internet, hemos decidido que hay que tener algún sistema operativo pensado para Internet", ha señalado Collado.

El nuevo sistema se podrá utilizar en cualquier tipo de ordenador, aunque están más pensados para los miniportátiles o notebooks.

Collado ha revelado, además, que este sistema está pensado para ser abierto, de manera que cualquier desarrollador podrá mejorarlo y aportar cosas nuevas.

"Será la propia comunidad de usuarios quienes optimicen el sistema operativo en cada momento", ha declarado.

¿Cómo funciona Google Books?

Respecto al sistema de búsqueda de libros en Google (Google Books), Collado ha explicado que lo que hace es incorporar libros con contenidos no creados para Internet.

"Lo que llevamos a cabo es la digitalización de esos libros", aclaró.

Tras la digitalización, se realiza un proceso de reconocimiento de las palabras de cada página, con lo que se consegue que muchos lectores potenciales conozcan la existencia del libro sin tener que acudir al libro impreso.

Es acceso es gratuito, pero Google respeta los "copyright": "Es igual que una librería, la gente hojea, pero no lee", concluyó.

Vuelve 'El Niño'

Fuente: El Mundo.
El fenómeno climatológico 'El Niño', que provoca un calentamiento anormal de las aguas en el Pacífico y estragos meteorológicos que van desde Asia hasta América del Norte, ha llegado ya a las aguas tropicales del Pacífico central y del este.
Según los científicos de la Administración Nacional Oceánica y Atmosférica (por sus siglas en inglés, NOAA), una agencia científica del Departamento de Comercio de Estados Unidos, 'El Niño' persistirá hasta finales del próximo invierno, incluso entrado ya el 2010, y es probable que aumente su fuerza con el tiempo.
Sin embargo, fuentes oficiales del Centro de Predicción del Clima (CPC) en Estados Unidos afirman que el fenómeno El Niño ha evolucionado y podría no ser tan poderoso como aquel que azotó el mundo hace más de una década.
Para la Oficina de Meteorología de Australia hay "muy pocas posibilidades de que el actual desarrollo (de El Niño) se estanque o se revierta". "No se ve débil, pero tampoco alcanzará la intensidad 1997 y 1998", dijo Andrew Watkins de la oficina en Sidney.
No obstante, según apuntan los expertos, no todos los efectos son negativos ya que puede ayudar a contener los huracanes en la zona del Atlántico que amenazan los yacimientos de crudo en el Golfo de México y las plantaciones en México, el Caribe y el sur de Estados Unidos. Además, reduce el riesgo de grandes incendios en Florida.
Por el contrario, sus efectos negativos incluyen fuertes tormentas invernales en California así como inundaciones severas y ríos de lodo en las zonas centro y sur de América, así como sequías en Indonesia. Además, reduce los niveles de nutrientes en el océano que pueden influir en la alimentación de diversos pájaros, y mamíferos marinos.
Con respecto a sus efectos sobre la economía, el banco de inversión Fortis ya ha adelantado que El Niño podría causar una interrupción significativa en el sector del cacao: "Se acerca un período de alto riesgo sin la comodidad de abundantes existencias mundiales (de cacao)".
El último tuvo lugar en 2006. Este fenómeno sucede cada dos o cinco años y suele contar con una duración aproximada de doce meses. Su impacto depende de diversos factores como la intensidad y la extensión del calentamiento global, así como la época del año.
Entre 1997 y 1998 El Niño causó la muerte de más de 2.000 personas y la pérdida de miles de millones de dólares en infraestructuras desde Indonesia a Perú.

ARM desafía el reinado de Intel

Fuente: Publico.

El mercado de los netbook no es sólo un campo de batalla para las compañías de software. En el mundo de la fabricación de microchips para estos ordenadores, dos son los competidores y su enfrentamiento va más allá de la lucha por las ventas. En liza están dos filosofías de diseño de procesadores, que reproducen la guerra de los Mac contra los PC de finales de los 80. Y ambas intentan ahora hacerse con el mercado que abrirá Google Chrome.

Por un lado está la arquitectura x86 del gigante Intel, principal fabricante de microprocesadores para ordenadores personales. La compañía lanzó en 2008 la gama Atom de chips diseñados específicamente para este sector.

Del otro se encuentra el holding ARM, que en la actualidad domina el mercado de los pequeños aparatos portátiles, como los teléfonos móviles, en gran parte gracias a su amplia distribución de licencias de fabricación a empresas como Nokia, Sony Ericsson, Samsung, Texas Instruments, Qualcomm, e incluso la propia Intel.

Los procesadores ARM Cortex A8 son similares en rendimiento a los Intel Atom, pero su principal ventaja está en su reducido consumo energético, unas 20 veces inferior, lo que permite alargar la duración de la carga de batería de un netbook hasta cerca de las 10 horas de uso.

Sin embargo Intel Atom, de momento, saca ventaja a sus competidores. Warren East, presidente de ARM Holdings, espera que su compañía controle un 20% del mercado el año que viene, estimación que comparten algunos analistas, aunque otros son más optimistas y auguran un dominio para el año 2012. El principal freno a su avance era, hasta el momento, la falta de un sistema operativo de uso masivo.

Mientras que Google ya ha anunciado que su nuevo sistema operativo Chrome podrá ejecutarse en ambos tipos de arquitecturas, Android, su sistema para móviles que también podría servir para netbook, no puede ser utilizado en ordenadores con plataforma x86. Por la parte de Microsoft, sólo Windows CE puede ser instalado en netbook que lleven chips ARM, aunque East comentó la posibilidad de que el próximo Windows 7 sí podrá. Gazelle, el equivalente al Chrome de Microsoft, probablemente pueda ejecutarse en ambas plataformas. La guerra está servida.

La guerra Google-Microsoft de sistemas operativos podría rebajar precios de PC

Fuente: Europa Press.

El intento de Google por competir con Windows, el sistema operativo de Microsoft, podría ayudar a rebajar el coste de los ordenadores personales (PC,en sus siglas en inglés) en un momento en que los precios ya se están ajustando por los baratos portátiles 'netbooks'.

Algunos analistas prevén que Google podría ofrecer su recién anunciado Sistema Operativo Chrome por una pequeña tarifa o incluso gratis cuando se lance en el primer semestre del 2010, una iniciativa que podría llevar a Microsoft a una guerra de precios.

Aunque Windows es el sistema operativo dominante, instalado en el 90 por ciento de los PC del mundo, Microsoft no se tomará a la ligera el desafío de Google, según analistas. Su nuevo sistema operativo Windows 7 estará disponible en octubre.

"La estrategia de Microsoft será probablemente competir en precios", opinó el analista de Benchmark Brent Williams. "Ahora existe un competidor con el músculo y el reconocimiento de marca. Google es esa compañía".

Google dijo que el sistema operativo Chrome, que está basado en el código de fuente abierta Linux, está siendo diseñado para todos los PC, aunque debutará en los netbooks.

Tiene sentido que Google se dirija primero a estos portátiles centrados en navegar por internet, uno de los únicos segmentos que está mostrando crecimiento en un mercado de PC que vive una contracción.

SIGUIENDO LA ESTELA DE LOS NETBOOKS.

Los netbooks se venden generalmente entre 300 y 400 dólares, pero los precios están cayendo a medida que salen nuevas ofertas al mercado y las operadoras inalámbricas ofrecen subsidios con la compra de un plan de internet.

El analista Shaw Wu de Kaufman Bros subrayó que aunque los precios de casi todos los componentes de PC han estado cayendo, "lo único que no ha bajado es el costo del sistema operativo. Esto va a meter alguna presión a Microsoft", adelantó.

Microsoft no dice cuánto cobra a las marcas de PC por el Windows, pero analistas estiman que se lleva de 20 a 40 dólares por el antiguo sistema XP utilizado en la mayoría de los netbooks, y al menos 150 dólares por el actual sistema Vista.

Wu dijo que la competencia de precios podría a la larga incrementar los márgenes de los fabricantes de PC. "Creo que en general debería mejorar la rentabilidad para los vendedores de PC. Realmente es una cuestión de cuánto se traspasará a los clientes", declaró.

Diseñan los primeros 'árboles' sintéticos que absorben más CO2 que los naturales

Fuente: La Vanguardia.

Científicos estadounidenses de la Universidad de Columbia han diseñado los primeros árboles sintéticos capaces de absorber más CO2 que los naturales, una forma de limpiar el dióxido de carbono de la atmósfera buscada durante años por los investigadores . Según los expertos, estos árboles podrían ayudar a mitigar la quema excesiva de combustibles fósiles, así como luchar contra el calentamiento global.

Estas máquinas están estructuradas como torres de alta tecnología con materiales especiales absorbentes, según comentó su inventor, el doctor Klaus Lackner, geofísico del Centro de Ingeniería de la Tierra de la Universidad de Columbia en Nueva York, quien en las últimas dos décadas ha estado investigando la captura de CO2.

"El árbol tiene ramas similares a las de un pino y sus agujas están hechas de un material plástico que puede absorber dióxido de carbono a medida que fluye el aire" explicó, al tiempo que puntualizó que de igual forma que un ejemplar natural, a medida que fluye el aire por sus ramas estos árboles absorben el CO2 y lo mantienen en su interior, una absorción "casí mil veces" más rápida que la de árboles naturales.

Según recoge la BBC, los árboles y otras plantas naturales, que son los principales encargados de limpiar el CO2 de la atmósfera terrestre, absorben CO2 y lo almacenan en sus tejidos.

El árbol sintético atraparía el CO2 en un filtro donde sería comprimido como dióxido de carbono líquido. Así, podría ser enterrado y almacenado de forma permanente en la profundidad de la Tierra. No obstante, una de las ventajas con las que cuenta este árbol es que no precisa de luz solar o agua para funcionar.

Aunque el prototipo creado por el investigador es pequeño, se espera que en el futuro sea más grande y pueda ser colocado en cualquier parte. "Lo que veo a corto plazo es un aparato del tamaño de un camión en el que se puedan colocar las ramas juntas en una caja similar al filtro de una caldera.

Una tonelada de dióxido al día
Cada máquina tendría 30 filtros que en total medirían unos 2,5 metros de altura y un metro de ancho", explicó. Cada árbol sintético, dice Klaus Lackner, podría absorber una tonelada de dióxido de carbono al día, eliminando una cantidad de gas equivalente al que producen veinte coches.

En teoría y a partir de estimaciones, se necesitarían millones de estas unidades para absorber suficiente CO2 como para poder tener un impacto en el planeta. Además, la tecnología no es barata, se cree que cada máquina costaría unos 21.637 euros. «Creo que es viable poder producir estas unidades», concluyó el científico.

La tecnología de 32 nanómetros fabricará el ordenador en un 'chip'

Fuente: El Pais.

Los sistemas completos dentro de un chip serán posibles con la próxima generación de 32 nanómetros, que se empezará a vender a finales de año.

El ordenador en un chip -con el procesador, la gráfica y la gestión de la memoria integrados- dejará de ser un sueño porque habrá espacio suficiente y no hará falta restringir las prestaciones como hasta ahora. Se entrará así en la era de los sistemas totalmente integrados, con tamaño diminuto, coste reducido, consumo energético mínimo y máximas prestaciones, lo que permitirá a su vez diseñar productos realmente autónomos, pequeños, potentes y baratos.

Hasta ahora, la progresiva miniaturización de los chips ha permitido hacer componentes más rápidos y potentes, aparte de más pequeños y económicos. No se podían integrar más funciones dentro del chip, porque no había espacio para ello y se necesitaban más prestaciones respecto al proceso.

El bajo consumo, prioritario

Desde mediados de la década, la prioridad esencial ha sido reducir el consumo de energía y así favorecer la movilidad de los equipos. A partir de ahora, con prestaciones razonables y consumo energético limitado, se podrán integrar varios componentes en un mismo chip. Se entra en la era del Sistemas en un Chip, o System-On-a-Chip (SoC).

El transistor es como un interruptor que consume energía en función de su tamaño cuando funciona. Si el tamaño de un transistor se reduce a la mitad el circuito integrado pasa a consumir mucha menos energía. Además, como los electrones deben recorrer menos espacio dentro del chip, se procesa información con menos energía. Si, además, varios chips de una placa pasan a formar uno solo, el consumo de energía también se reduce y las prestaciones aumentan.

"La integración en cuanto al sistema es necesaria para conseguir elevadas prestaciones, bajo consumo y tamaño reducido", recalca Mark Bohr, uno de los más destacados especialistas en tecnología microelectrónica de Intel. "El reto actual es integrar en un mismo chip una amplia gama de elementos heterogéneos".

A juicio de Bohr, la ley de Moore continúa, pero la fórmula del éxito está cambiando: se necesitan nuevos materiales y estructura de dispositivos para continuar reduciendo el tamaño de los chips, al mismo tiempo que el enfoque actual de los circuitos se centra en la eficiencia, en el consumo eléctrico.

Bohr compara el chip con el cuerpo humano. En el cuerpo humano tenemos unos 100.000 millones de neuronas, cuando los chips actuales alojan varios centenares de millones de transistores y antes de cinco años tendrán 1.000 millones. "La naturaleza es sabia porque hace funcionar todas las neuronas del cuerpo humano con muy poca energía, unos 20 vatios". Un chip consume hoy unos 40 vatios.

Antonio González, director del único laboratorio de tecnología de microprocesadores que la Universidad Politécnica de Cataluña e Intel tienen en Europa, señala que las prestaciones de un procesador nunca son suficientes y que el avance se logra con innovaciones constantes en muchos ámbitos, tanto en el diseño de los circuitos y transistores como de los bloques funcionales. "La coherencia del diseño es fundamental, porque hay múltiples interrelaciones", sostiene.

Para Ramón Planet, director de ventas en AMD España, el problema que había en un chip era la falta de espacio, porque todo debía estar ocupado por el núcleo o núcleos del procesador y una pequeña memoria, la caché. Con la tecnología de 32 nanómetros, será posible tener dentro del microprocesador la codificación del vídeo, gráficos y sonido, una memoria interna generosa y la gestión de todos estos componentes. El chipset -o juego de circuitos que gobierna el procesador- y la tarjeta gráfica externa no serán ya necesarias, porque irán en el chip.

La clave es económica

La cuestión clave, para Ramón Planet, no es tanto de diseño de circuitos ni de tecnología como económica. Una fábrica de semiconductores supone una inversión de 4.000 millones de euros: Se tienen que fabricar miles de millones de chips para amortizarla. Cada chip diseñado debe tener un amplio mercado para que puedan fabricarse millones de unidades. "La economía es la parte menos atractiva pero tan importante como la tecnología", reconoce. Hoy, además, se prefieren equipos baratos antes que potentes, lo que complica la situación.

Los actuales microprocesadores Core i7 de Intel de 45 nanómetros ya llevan cierta capacidad gráfica y gestión de memoria integrada. Con los nuevos procesadores de 32 nanómetros que Intel sacará a finales de año y que tienen el nombre de código Westmere, se dispondrá del doble de transistores porque la superficie será la misma. Intel aprovechará esta capacidad extra para sacar una gama de procesadores de muy altas prestaciones con ocho núcleos (hoy son cuatro) para ordenadores de sobremesa y servidores, y otra gama con sólo dos núcleos, pero con la gráfica y el controlador integrados, y muy potentes para portátiles.

El procesador Atom de Intel, que es la base de los miniportátiles o netbooks, es un sistema integrado, porque lleva los componentes fundamentales dentro del chip. A la hora de diseñar el Atom, se requirió que fuera muy barato y consumiera muy poca energía. Por eso tiene el máximo de componentes integrados en un chip, seis veces más pequeño que un Celeron. El tamaño diminuto del Atom hace que haya pocos transistores y, por tanto, una limitada capacidad de proceso bruta, aunque muy elevada en términos de superficie.

Gadi Singer, director general de SoC en Intel, advierte de que los sistemas integrados que aparecerán en los próximos cinco años serán una décima parte de los actuales sin merma aparente de prestaciones. Se podrá hacer un teléfono móvil con la capacidad de portátil actual.

La ley de Moore continúa...

Cada dos años aproximadamente se duplica el número de transistores o elementos primarios que hay en un chip. No es una ley física ni inmutable, sino la constatación práctica de lo que ocurre hace más de cuarenta años y que se conoce como la ley de Moore, en honor de Gordon Moore, uno de los cofundadores de Intel y que fue quien primero constató el fenómeno.

Esto significa que cada dos años el tamaño de un chip con determinado número de transistores se reduce a la mitad, que en la misma superficie de silicio cabe el doble de transistores y es el doble de potente o que un chip con los mismos transistores pasa a costar la mitad porque el coste es proporcional a la superficie: Las tres son consecuencia de la ley de Moore.

Así ha sido y será en la próxima década. En el año 2006 se introdujo la tecnología de fabricación de semiconductores de 64 nanómetros, en 2008 la de 45 y a finales de este año empezarán los chips de 32 nanómetros.

En el año 2012 tocará el turno a los 22 nanómetros y en 2014 a los 16 nanómetros. Generalmente se tardan dos años en poner a punto los equipos para fabricar los chips y otro más para optimizar la producción. Al cuarto año comieza la producción comercial masiva.

Ya se está trabajando en los 12 nanómetros, pero por debajo de los doce nanómetros el tema se complica porque se topan con leyes físicas. El tamaño será por entonces minúsculo: es como si pasáramos de escribir lo mismo de un folio a una tarjeta de visita.

Related Posts Plugin for WordPress, Blogger...