Buscar

2009/07/10

El lenguaje predice el riesgo de demencia

Fuente: BBC Mundo.

La gente que tiene una capacidad superior de lenguaje durante la juventud podría tener menos probabilidades de desarrollar Alzheimer más tarde en la vida, afirma una investigación.

El equipo de científicos de la Universidad Johns Hopkins, en Estados Unidos, estudió los cerebros de 38 monjas católicas después de morir.

Descubrieron que aquéllas que habían tenido buenas capacidades de lenguaje durante su juventud tuvieron menos probabilidades de sufrir problemas de memoria, incluso si sus cerebros mostraban los signos característicos del daño que causa la demencia.

Los detalles del estudio aparecen publicados en Neurology (Neurología), la revista de la Academia Estadounidense de Neurología.

A pesar del daño cerebral

"Una característica misteriosa de la enfermedad de Alzheimer es la forma como ésta afecta a la gente de forma diferente" afirma el doctor Juan Troncoso, quien dirigió el estudio.

"Una persona que muestra placas y nudos fibrilares severos -los signos típicos de la enfermedad de Alzheimer en su cerebro- podría no mostrar los síntomas que afectan su memoria.

"Pero otra persona con esas mismas placas y nudos en la misma zona de su cerebro podría terminar con un caso confirmado de enfermedad de Alzheimer.

"Nosotros analizamos cómo las capacidades de lenguaje pueden afectar la aparición de esos síntomas", explica el investigador.

En efecto, estudios en el pasado llevadas a cabo con cerebros de personas que han muerto con Alzheimer, han vinculado a la enfermedad con el depósito de placas de proteína, llamadas placas amiloideas y estructuras de fibras nerviosas entrelazadas en el cerebro.

Pero hasta ahora los científicos no sabían porqué estos signos de daños producían síntomas de demencia en unas personas pero no en otras.

El doctor Troncoso y su equipo enfocaron su estudio en monjas que formaban parte de un estudio clínico continuo.

Dividieron a las 38 mujeres en las que tenían problemas de memoria y signos de daños causados por demencia en el cerebro, y en las que no tenían dificultades de memoria aunque tuvieran signos de daños por demencia en el cerebro.

Los científicos también analizaron los ensayos que 14 de las mujeres habían escrito cuando entraron al convento a fines de su adolescencia o principios de sus 20 años y estudiaron la complejidad del lenguaje y gramática en éstos.

El análisis mostró que la capacidad de lenguaje era 20% más alta en las mujeres sin problemas de memoria que en aquellas con signos de dificultades en la memoria.

Los resultados en gramática no mostraron ninguna diferencia entre los dos grupos.

"A pesar del pequeño número de participantes en esta parte del estudio, los resultados son fascinantes" afirma el doctor Troncoso.

"Nuestro hallazgo muestra que una prueba de capacidad intelectual a principios de los 20 años de la persona podría predecir la probabilidad de permanecer cognitivamente normal cinco o seis décadas más tarde, incluso con la presencia de una gran cantidad de patología de la enfermedad de Alzheimer" dice el científico.

Crecimiento de neuronas

El estudio también descubrió que las neuronas eran más grandes en las mujeres que conservaron una memoria normal, a pesar de mostrar signos de la enfermedad en sus cerebros.

Según los científicos esto revela que el crecimiento de las neuronas podría ser la primera respuesta del organismo ante la aparición de la demencia, y esto podría ayudar a prevenir los problemas de memoria.

"Quizás las capacidades mentales a los 20 años son un indicio de un cerebro que estará mejor preparado para enfrentar las enfermedades más tarde en la vida" dice el doctor Troncoso.

Otros expertos afirman que el estudio es importante, pero será necesario llevar a cabo más estudios para confirmarlo.

Porque hasta ahora se ha demostrado que la demencia afecta a la gente de todas las profesiones y condiciones sociales.

"La demencia no es una parte natural del envejecimiento" dice la doctora Susanne Sorenses, de la organización Alzheimer Society.

"Es interesante que las monjas en este estudio con mejores capacidades de lenguaje en su juventud evitaron los problemas de memoria más tarde en su vida.

"Sin embargo, la investigación fue llevada a cabo en un grupo muy pequeño y selecto y sería difícil decir a estas alturas que las capacidades del lenguaje relamente pueden predecir la demencia", expresa la experta.

La rescatada AIG planea volver a pagar bonos a sus ejecutivos, según la prensa

Fuente: Cinco Dias.
El grupo asegurador, en el que el Gobierno controla un 80% del accionariado, habría contactado con el 'zar' encargado de supervisar el pago de compensaciones a ejecutivos por siete de las entidades rescatadas con dinero público, Kenneth Feinberg, para que autorice el pago de unos 2,4 millones de dólares (1,7 millones de euros) en 'bonus' para unos 40 altos ejecutivos de AIG, según señala el diario 'The New York Times'.
No obstante, 'The Washington Post' recuerda que AIG no está obligada a pedir permiso a Feinberg para el pago de bonificaciones, pero afirma que la aseguradora pretende contar con el respaldo del Gobierno para realizar estos pagos y así evitar las iras de la opinión pública estadounidense.
En concreto, Feinberg cuenta con autoridad para determinar los salarios, bonificaciones y planes de jubilación de los ejecutivos de las empresas rescatadas por el Gobierno, como Citigroup, General Motors o la propia AIG, pero en el caso de las primas propuestas por la aseguradora, el 'zar' no tiene capacidad para prohibirlas ya que corresponden al ejercicio 2008.
"Nos gustaría sentirnos cómodos sabiendo que el Gobierno está cómodo con lo que hacemos", señalaron fuentes de la aseguradora, que destacaron el elevado grado de escrutinio al que se somete "cada cheque" de la compañía.

Científicos españoles investigan la aplicación de nanopartículas de oro para detectar y curar tumores

Fuente: ADN.
Las nanopartículas de oro, de un diámetro 10.000 veces inferior al grueso de un cabello, se inyectarían en el torrente sanguíneo del enfermo y, gracias a sus propiedades, se convertirían en fuentes de luz y calor dentro del cuerpo después de iluminarlas con un rayo láser.
La idea básica es que, si los investigadores son capaces de hacer que las nanopartículas se fijen selectivamente en las células afectadas de cáncer, podrían posteriormente calentarlas hasta destruir el tumor maligno.
Este método presentaría dos ventajas respecto a los existentes en la actualidad para tratar el cáncer, la radioterapia y la quimioterapia, ya que, a diferencia de ellos, solo destruiría las células malignas y no los tejidos sanos.
Quidant, que explicó en rueda de prensa que el método es "atractivo" pero todavía se encuentra en fase inicial de investigación, mostró los resultados obtenidos por científicos estadounidenses, que consiguieron destruir el tumor de un ratón tras 21 días de tratamiento láser sobre las nanopartículas de oro que habían sido introducidas previamente.
El joven investigador del ICFO señaló que todavía no se sabe si la terapia será efectiva en los hospitales, aunque mantienen conversaciones con oncólogos para explorar sus posibilidades, y fijó los dos principales problemas pendientes de la investigación en conseguir que las partículas de oro se fijen únicamente en las células cancerígenas, por un lado, y averiguar cómo se podrían eliminar las nanopartículas del cuerpo una vez utilizadas, por otro.
OTRAS APLICACIONES
El equipo de Quidant trabaja paralelamente en el desarrollo de un pequeño chip para detectar marcadores cancerígenos solo con una gota de sangre del paciente, y que podría estar listo a partir del próximo año, ya que se encuentra en una fase avanzada y únicamente falta integrar todos los sensores en un mismo producto final.
El chip permitiría hacer análisis "sin laboratorios", y sería especialmente útil en el caso de países en vías de desarrollo que no disponen de infraestructuras médicas avanzadas por ser "barato" y "transportable".
Este mecanismo detectaría los multiplicadores de células que se esconden detrás de cualquier tipo de cáncer, y si bien no sería capaz de indicar en qué zona del cuerpo humano se desarrollo el tumor, si sería una prueba adecuada para saber "si hay que ir a buscar más lejos".
La aplicación de las nanopartículas de oro, capaces de enviar señales luminosas desde dentro del cuerpo humano y mostrar alteraciones en caso de fijarse en su superficie moléculas específicas, también sería útil para detectar casos de dopaje en los deportistas, como el uso de esteroides.

La canción más vendida del momento en Internet también se descarga gratis

Fuente: La Segunda.

Por estos días, la canción de Moby “Shot in the Back of the Head” aparece como la más vendida en iTunes, la tienda online de Apple. Lo particular de esto, es que el cantante ha estado ofreciendo la canción para su descarga absolutamente gratuita en Internet .

El hecho podría parecer una curiosidad, pero destruye uno de los argumentos más utilizados por la industria discográfica en contra de las descargas de Internet, como explicó el sitio ALT1040.

El autor especula que los usuarios la compran a pesar de poder obtenerla gratis por el “efecto estación de radio”, lo que implica que la canción se ha escuchado tanto gracias a las descargas gratuitas, que al empezar la venta oficial, las personas a las que le gustó lo compran de inmediato.

La industria discográfica ha visto sus ventas decaer de manera dramática, y culpa directamente a las descargas ilegales de Internet por ello, argumentando que cada canción descargada implica una venta menos para ellos, y en base a eso calcula sus pérdidas.

Esto la ha llevado a demandar a usuarios y a sitios web por utilizar y compartir contenido protegido por el derecho de autor. El reciente juicio en contra del sitio de descargas P2P The Pirate Bay, donde sus responsables fueron condenados a un año de cárcel, se ha convertido en el hito más reciente de esta disputa
.

Intel, presente en un 80% de las supercomputadoras más rápidas

Fuente: Informador.

Según la última lista TOP500 de las supercomputadoras más poderosas del mundo, informa que el 80% de estas utilizan procesadores de Intel. La comunidad de cómputo de alto desempeño (HPC, por sus siglas en inglés) está especialmente entusiasmada con los procesadores de la serie Intel Xeon 5500, que hace sólo tres meses fueron lanzados, y cuyos chips ya están impulsando la investigación y aumentando las capacidades de análisis de 33 sistemas de esta lista.

La 33 ª edición de la lista TOP500 muestra que 399 de las 500 computadoras más potentes del mundo, incluyendo dos de ellas entre las diez primeras, cuentan con tecnología Intel en su interior. Los sistemas que usan procesadores Intel Xeon quad-core destacan significativamente en la lista, con 340 registros. Así mismo, 263 computadoras trabajan con la serie Intel Xeon 5400 con los transistores reinventados de High-k Metal Gate que usan la generación anterior de procesadores quad-core de 45nm de Intel.

Las plataformas de súper cómputo basadas en tecnología Intel están jugando un papel fundamental en diversas áreas de investigación, desde la mejora de la seguridad en la exploración del espacio hasta la previsión de las condiciones meteorológicas globales. Cada día más industrias catalogadas como "fundamentales", tales como servicios financieros y cuidados de la salud, están utilizando también sistemas basados en Intel para lograr resultados más rápidos y precisos, con el objetivo de acelerar el ritmo de la innovación y mejorar la ventaja competitiva.

Diseñan el Atnmbl, un "autonomóvil" para no volver a conducir

Fuente: Invertia.

Para el más purista incluso la transmisión automática es un atentado al más hermoso acto de la conducción, así que para muchos fanáticos el ATMNMBL (que significa 'autonomóvil', por sus siglas en inglés) es la antítesis de un vehículo, una manera tal vez excesivamente racional para analizar este medio de transporte.
El auto diseñado por el estudio 'Mike and Maaike' (que toma el nombre de sus fundadores) es la manera de observar, según sus creadores, 30 años en el futuro. El concepto de desempeño deja a un lado la aceleración y la velocidad máxima y se enfoca principalmente en el tiempo que las personas podrían ahorrar si aprovechan con alguna actividad productiva los largos momentos que se gastan en sus desplazamientos en ciudad, especialmente cuando hay embotellamientos.
Centrándose en su idea principal, el ATNMBL se movería (recordemos que este auto sólo existe en el mundo virtual y en las mentes de sus creadores) automáticamente gracias a avanzados sistemas de radares, acelerómetros y varios sensores en la carrocería para evitar colisiones, y guiará a sus pasajeros a sus respectivos destinos a través de sistemas de GPS.
Tendría tracción total gracias a unos motores eléctricos ubicados en cada rueda, todo sin emitir directamente contaminación debido a que el movimiento lo proporcionaría la energía solar.
No hay dirección ni pedales, sólo un espacio habitable en donde se tiene acceso total a Internet y se está conectado siempre a, por ejemplo, redes sociales vinculadas a iniciativas de 'carpooling', para así compartir con personas cercanas al propietario el auto y usarlo de la manera más eficiente posible, también se puede contactar a servicios de rutas de turismo, entre varias otras aplicaciones.
Sin duda se trata de toda una utopía sobre ruedas, más teniendo en cuenta que en algunos países como el nuestro a duras penas hay reglas establecidas relacionadas con el mundo automotor o una malla vial competentemente funcional, sin embargo es bueno saber que todo esto es técnicamente posible.

Cómo hacer de Internet un espacio para todos

Fuente: La Nacion.

La red de redes permite teletrabajar, realizar trámites on line y estar comunicado con personas a distancia, lo que facilita la vida a quienes tienen dificultades motrices o visuales. Sin embargo, aún son varias las barreras que dificultan la accesibilidad.

Todas las innovaciones tecnológicas han producido un importante impacto en las personas con discapacidad, por permitirles un estilo de vida independiente en muchos aspectos que antes tenían vedados. Internet les ha dado la posibilidad de acceder a diversos contenidos, informarse, comunicarse, darse a conocer, realizar cursos e, incluso, trabajar a distancia. "La Web ha permitido sacar del aislamiento a muchas personas con discapacidades o problemas de movilidad que antes sólo interactuaban con su familia o su círculo íntimo", dice Nicolás Trotta, subsecretario de Tecnologías de Gestión, dependiente de la Secretaría de Gabinete y Gestión Pública.

Las barreras de la Web

Pero tal como ocurre con los edificios y el transporte público, la Web puede tener escaleras virtuales que dificultan o impiden su uso a las personas con discapacidad. "Ponerse en el lugar de quienes utilizan Internet para poder entender sus necesidades y, a partir de esa mirada, pensar los desarrollos es, aún, la gran cuenta pendiente", observa Trotta.

Las discapacidades más afectadas por la inaccesibilidad de los sitios Web son las visuales. Muchas personas con esta limitación ya cuentan con software especiales que leen las pantallas para que puedan ser utilizadas por el usuario. Pero para que estos programas funcionen los sitios deben estar construidos cumpliendo con una serie de normas que les dan sentido a la lectura y la navegación. "Aún son muchísimos los sitios con contenidos gráficos o multimediales sin alternativas textuales o auditivas", afirma Martín Baldassarre, coordinador de la Fundación Sidar (Seminario Iberoamericano sobre Discapacidad y Accesibilidad en la Red) y miembro de ISOC-AR (Internet Society-Capítulo Argentina).

Por su parte, Trotta asegura que la responsabilidad social del Estado es garantizar el acceso a la información de toda la población, independientemente de su contexto y eliminando las barreras que lo obstaculicen para que las tecnologías no se conviertan en otro medio de discriminación. "Por eso, cuando hablamos de sociedad de la información y brecha digital creemos que no debemos restringirnos a pensarla y resolverla únicamente ampliando la conectividad o mejorando el acceso a infraestructura adecuada. El salto no debe ser sólo en términos cuantitativos, debemos garantizar el acceso en términos cualitativos. Y esto se logra estableciendo normas de accesibilidad para desarrollar los productos electrónicos y evitar así reproducir las barreras existentes y crear nuevas", asegura el subsecretario. Por su parte, Ezequiel Glinsky, gerente de Nuevas Tecnologías para Microsoft para Argentina y Uruguay, comenta: "La tecnología Microsoft ya es compatible con dispositivos adicionales diseñados especialmente para personas con discapacidades. No obstante, en muchos casos estos dispositivos adicionales son costosos y presentan una barrera de entrada".

¿Cuándo es accesible?

Se considera que un sitio es accesible cuando su contenido puede ser utilizado por múltiples usuarios y recibidos en distintos dispositivos. "Al diseñar y desarrollar una página Web debe tenerse en cuenta que muchos usuarios intentarán usarla en una variedad de contextos. Algunos pueden no ver, no oír o tener problemas de movilidad o motricidad; otros pueden no estar en condiciones de usar un mouse, o tienen monitores muy pequeños que sólo pueden visualizar texto. También puede ser que su conexión a Internet sea lenta o que tengan hardware o software desactualizados o, a la inversa, de última generación", enumera Trotta.

Existen pautas y estándares internacionales del Consorcio Web ( www.w3.org ) para determinar si un sitio es accesible o no. En nuestro país se realizó un proyecto de ley -que cuenta con media sanción en la Cámara de Diputados- para asegurar que los sitios Web públicos cumplan con estas pautas internacionales. "Pero si no hay políticas públicas al respecto no sirven de mucho", reclama Baldassarre.

Los especialistas aseguran que desarrollar un sitio accesible no incrementa los costos ni sacrifica la creatividad de los mismos. "Asimismo, hacer accesibles las páginas Web aumenta el número de visitas, mejora la posición en los buscadores, facilita la navegación y reduce el costo de mantenimiento, entre otras ventajas", asegura el coordinador de Sidar.

Existen páginas como www.tawdis.net , de la fundación TCIC, que ofrece herramientas para analizar la accesibilidad del diseño y el desarrollo de una página. Una vez ingresada la página de interés, esta herramienta señala las secciones de la página inaccesibles para personas con discapacidad, que los programadores deberían adaptar para mejorar.

Entre estos requisitos está el que posibilite una clara identificación de los contenidos por parte del usuario, y que éste pueda acceder a ellos y controlar su propia navegación. "Partimos de la idea de que la tecnología debe adaptarse a los usuarios y no al revés. La accesibilidad no es un privilegio, sino un derecho", resume Baldassarre.

Un responsable de Google: "El error de Microsoft es que no valoró Internet"

Fuente: 20minutos.

El responsable de Google Books España, Luis Collado, ha afirmado que el problema de los creadores de Microsoft es que desarrollaron su sistema operativo antes de que Internet fuese el gran medio de comunicación que es ahora, y que "no valoraron" en su justa medida su importancia. Además, ha recordado que su empresa lanzará en 2010 su propio sistema operativo pensado para Internet.

El sistema operativo de Microsoft, que actualmente utilizan el 90% de los ordenadores, tendrá que competirá a partir del año que viene con Chrome (Google).

"No desafiamos a nadie, pero en Google, como empresa que opera en Internet, hemos decidido que hay que tener algún sistema operativo pensado para Internet", ha señalado Collado.

El nuevo sistema se podrá utilizar en cualquier tipo de ordenador, aunque están más pensados para los miniportátiles o notebooks.

Collado ha revelado, además, que este sistema está pensado para ser abierto, de manera que cualquier desarrollador podrá mejorarlo y aportar cosas nuevas.

"Será la propia comunidad de usuarios quienes optimicen el sistema operativo en cada momento", ha declarado.

¿Cómo funciona Google Books?

Respecto al sistema de búsqueda de libros en Google (Google Books), Collado ha explicado que lo que hace es incorporar libros con contenidos no creados para Internet.

"Lo que llevamos a cabo es la digitalización de esos libros", aclaró.

Tras la digitalización, se realiza un proceso de reconocimiento de las palabras de cada página, con lo que se consegue que muchos lectores potenciales conozcan la existencia del libro sin tener que acudir al libro impreso.

Es acceso es gratuito, pero Google respeta los "copyright": "Es igual que una librería, la gente hojea, pero no lee", concluyó.

Vuelve 'El Niño'

Fuente: El Mundo.
El fenómeno climatológico 'El Niño', que provoca un calentamiento anormal de las aguas en el Pacífico y estragos meteorológicos que van desde Asia hasta América del Norte, ha llegado ya a las aguas tropicales del Pacífico central y del este.
Según los científicos de la Administración Nacional Oceánica y Atmosférica (por sus siglas en inglés, NOAA), una agencia científica del Departamento de Comercio de Estados Unidos, 'El Niño' persistirá hasta finales del próximo invierno, incluso entrado ya el 2010, y es probable que aumente su fuerza con el tiempo.
Sin embargo, fuentes oficiales del Centro de Predicción del Clima (CPC) en Estados Unidos afirman que el fenómeno El Niño ha evolucionado y podría no ser tan poderoso como aquel que azotó el mundo hace más de una década.
Para la Oficina de Meteorología de Australia hay "muy pocas posibilidades de que el actual desarrollo (de El Niño) se estanque o se revierta". "No se ve débil, pero tampoco alcanzará la intensidad 1997 y 1998", dijo Andrew Watkins de la oficina en Sidney.
No obstante, según apuntan los expertos, no todos los efectos son negativos ya que puede ayudar a contener los huracanes en la zona del Atlántico que amenazan los yacimientos de crudo en el Golfo de México y las plantaciones en México, el Caribe y el sur de Estados Unidos. Además, reduce el riesgo de grandes incendios en Florida.
Por el contrario, sus efectos negativos incluyen fuertes tormentas invernales en California así como inundaciones severas y ríos de lodo en las zonas centro y sur de América, así como sequías en Indonesia. Además, reduce los niveles de nutrientes en el océano que pueden influir en la alimentación de diversos pájaros, y mamíferos marinos.
Con respecto a sus efectos sobre la economía, el banco de inversión Fortis ya ha adelantado que El Niño podría causar una interrupción significativa en el sector del cacao: "Se acerca un período de alto riesgo sin la comodidad de abundantes existencias mundiales (de cacao)".
El último tuvo lugar en 2006. Este fenómeno sucede cada dos o cinco años y suele contar con una duración aproximada de doce meses. Su impacto depende de diversos factores como la intensidad y la extensión del calentamiento global, así como la época del año.
Entre 1997 y 1998 El Niño causó la muerte de más de 2.000 personas y la pérdida de miles de millones de dólares en infraestructuras desde Indonesia a Perú.

ARM desafía el reinado de Intel

Fuente: Publico.

El mercado de los netbook no es sólo un campo de batalla para las compañías de software. En el mundo de la fabricación de microchips para estos ordenadores, dos son los competidores y su enfrentamiento va más allá de la lucha por las ventas. En liza están dos filosofías de diseño de procesadores, que reproducen la guerra de los Mac contra los PC de finales de los 80. Y ambas intentan ahora hacerse con el mercado que abrirá Google Chrome.

Por un lado está la arquitectura x86 del gigante Intel, principal fabricante de microprocesadores para ordenadores personales. La compañía lanzó en 2008 la gama Atom de chips diseñados específicamente para este sector.

Del otro se encuentra el holding ARM, que en la actualidad domina el mercado de los pequeños aparatos portátiles, como los teléfonos móviles, en gran parte gracias a su amplia distribución de licencias de fabricación a empresas como Nokia, Sony Ericsson, Samsung, Texas Instruments, Qualcomm, e incluso la propia Intel.

Los procesadores ARM Cortex A8 son similares en rendimiento a los Intel Atom, pero su principal ventaja está en su reducido consumo energético, unas 20 veces inferior, lo que permite alargar la duración de la carga de batería de un netbook hasta cerca de las 10 horas de uso.

Sin embargo Intel Atom, de momento, saca ventaja a sus competidores. Warren East, presidente de ARM Holdings, espera que su compañía controle un 20% del mercado el año que viene, estimación que comparten algunos analistas, aunque otros son más optimistas y auguran un dominio para el año 2012. El principal freno a su avance era, hasta el momento, la falta de un sistema operativo de uso masivo.

Mientras que Google ya ha anunciado que su nuevo sistema operativo Chrome podrá ejecutarse en ambos tipos de arquitecturas, Android, su sistema para móviles que también podría servir para netbook, no puede ser utilizado en ordenadores con plataforma x86. Por la parte de Microsoft, sólo Windows CE puede ser instalado en netbook que lleven chips ARM, aunque East comentó la posibilidad de que el próximo Windows 7 sí podrá. Gazelle, el equivalente al Chrome de Microsoft, probablemente pueda ejecutarse en ambas plataformas. La guerra está servida.

La guerra Google-Microsoft de sistemas operativos podría rebajar precios de PC

Fuente: Europa Press.

El intento de Google por competir con Windows, el sistema operativo de Microsoft, podría ayudar a rebajar el coste de los ordenadores personales (PC,en sus siglas en inglés) en un momento en que los precios ya se están ajustando por los baratos portátiles 'netbooks'.

Algunos analistas prevén que Google podría ofrecer su recién anunciado Sistema Operativo Chrome por una pequeña tarifa o incluso gratis cuando se lance en el primer semestre del 2010, una iniciativa que podría llevar a Microsoft a una guerra de precios.

Aunque Windows es el sistema operativo dominante, instalado en el 90 por ciento de los PC del mundo, Microsoft no se tomará a la ligera el desafío de Google, según analistas. Su nuevo sistema operativo Windows 7 estará disponible en octubre.

"La estrategia de Microsoft será probablemente competir en precios", opinó el analista de Benchmark Brent Williams. "Ahora existe un competidor con el músculo y el reconocimiento de marca. Google es esa compañía".

Google dijo que el sistema operativo Chrome, que está basado en el código de fuente abierta Linux, está siendo diseñado para todos los PC, aunque debutará en los netbooks.

Tiene sentido que Google se dirija primero a estos portátiles centrados en navegar por internet, uno de los únicos segmentos que está mostrando crecimiento en un mercado de PC que vive una contracción.

SIGUIENDO LA ESTELA DE LOS NETBOOKS.

Los netbooks se venden generalmente entre 300 y 400 dólares, pero los precios están cayendo a medida que salen nuevas ofertas al mercado y las operadoras inalámbricas ofrecen subsidios con la compra de un plan de internet.

El analista Shaw Wu de Kaufman Bros subrayó que aunque los precios de casi todos los componentes de PC han estado cayendo, "lo único que no ha bajado es el costo del sistema operativo. Esto va a meter alguna presión a Microsoft", adelantó.

Microsoft no dice cuánto cobra a las marcas de PC por el Windows, pero analistas estiman que se lleva de 20 a 40 dólares por el antiguo sistema XP utilizado en la mayoría de los netbooks, y al menos 150 dólares por el actual sistema Vista.

Wu dijo que la competencia de precios podría a la larga incrementar los márgenes de los fabricantes de PC. "Creo que en general debería mejorar la rentabilidad para los vendedores de PC. Realmente es una cuestión de cuánto se traspasará a los clientes", declaró.

Diseñan los primeros 'árboles' sintéticos que absorben más CO2 que los naturales

Fuente: La Vanguardia.

Científicos estadounidenses de la Universidad de Columbia han diseñado los primeros árboles sintéticos capaces de absorber más CO2 que los naturales, una forma de limpiar el dióxido de carbono de la atmósfera buscada durante años por los investigadores . Según los expertos, estos árboles podrían ayudar a mitigar la quema excesiva de combustibles fósiles, así como luchar contra el calentamiento global.

Estas máquinas están estructuradas como torres de alta tecnología con materiales especiales absorbentes, según comentó su inventor, el doctor Klaus Lackner, geofísico del Centro de Ingeniería de la Tierra de la Universidad de Columbia en Nueva York, quien en las últimas dos décadas ha estado investigando la captura de CO2.

"El árbol tiene ramas similares a las de un pino y sus agujas están hechas de un material plástico que puede absorber dióxido de carbono a medida que fluye el aire" explicó, al tiempo que puntualizó que de igual forma que un ejemplar natural, a medida que fluye el aire por sus ramas estos árboles absorben el CO2 y lo mantienen en su interior, una absorción "casí mil veces" más rápida que la de árboles naturales.

Según recoge la BBC, los árboles y otras plantas naturales, que son los principales encargados de limpiar el CO2 de la atmósfera terrestre, absorben CO2 y lo almacenan en sus tejidos.

El árbol sintético atraparía el CO2 en un filtro donde sería comprimido como dióxido de carbono líquido. Así, podría ser enterrado y almacenado de forma permanente en la profundidad de la Tierra. No obstante, una de las ventajas con las que cuenta este árbol es que no precisa de luz solar o agua para funcionar.

Aunque el prototipo creado por el investigador es pequeño, se espera que en el futuro sea más grande y pueda ser colocado en cualquier parte. "Lo que veo a corto plazo es un aparato del tamaño de un camión en el que se puedan colocar las ramas juntas en una caja similar al filtro de una caldera.

Una tonelada de dióxido al día
Cada máquina tendría 30 filtros que en total medirían unos 2,5 metros de altura y un metro de ancho", explicó. Cada árbol sintético, dice Klaus Lackner, podría absorber una tonelada de dióxido de carbono al día, eliminando una cantidad de gas equivalente al que producen veinte coches.

En teoría y a partir de estimaciones, se necesitarían millones de estas unidades para absorber suficiente CO2 como para poder tener un impacto en el planeta. Además, la tecnología no es barata, se cree que cada máquina costaría unos 21.637 euros. «Creo que es viable poder producir estas unidades», concluyó el científico.

La tecnología de 32 nanómetros fabricará el ordenador en un 'chip'

Fuente: El Pais.

Los sistemas completos dentro de un chip serán posibles con la próxima generación de 32 nanómetros, que se empezará a vender a finales de año.

El ordenador en un chip -con el procesador, la gráfica y la gestión de la memoria integrados- dejará de ser un sueño porque habrá espacio suficiente y no hará falta restringir las prestaciones como hasta ahora. Se entrará así en la era de los sistemas totalmente integrados, con tamaño diminuto, coste reducido, consumo energético mínimo y máximas prestaciones, lo que permitirá a su vez diseñar productos realmente autónomos, pequeños, potentes y baratos.

Hasta ahora, la progresiva miniaturización de los chips ha permitido hacer componentes más rápidos y potentes, aparte de más pequeños y económicos. No se podían integrar más funciones dentro del chip, porque no había espacio para ello y se necesitaban más prestaciones respecto al proceso.

El bajo consumo, prioritario

Desde mediados de la década, la prioridad esencial ha sido reducir el consumo de energía y así favorecer la movilidad de los equipos. A partir de ahora, con prestaciones razonables y consumo energético limitado, se podrán integrar varios componentes en un mismo chip. Se entra en la era del Sistemas en un Chip, o System-On-a-Chip (SoC).

El transistor es como un interruptor que consume energía en función de su tamaño cuando funciona. Si el tamaño de un transistor se reduce a la mitad el circuito integrado pasa a consumir mucha menos energía. Además, como los electrones deben recorrer menos espacio dentro del chip, se procesa información con menos energía. Si, además, varios chips de una placa pasan a formar uno solo, el consumo de energía también se reduce y las prestaciones aumentan.

"La integración en cuanto al sistema es necesaria para conseguir elevadas prestaciones, bajo consumo y tamaño reducido", recalca Mark Bohr, uno de los más destacados especialistas en tecnología microelectrónica de Intel. "El reto actual es integrar en un mismo chip una amplia gama de elementos heterogéneos".

A juicio de Bohr, la ley de Moore continúa, pero la fórmula del éxito está cambiando: se necesitan nuevos materiales y estructura de dispositivos para continuar reduciendo el tamaño de los chips, al mismo tiempo que el enfoque actual de los circuitos se centra en la eficiencia, en el consumo eléctrico.

Bohr compara el chip con el cuerpo humano. En el cuerpo humano tenemos unos 100.000 millones de neuronas, cuando los chips actuales alojan varios centenares de millones de transistores y antes de cinco años tendrán 1.000 millones. "La naturaleza es sabia porque hace funcionar todas las neuronas del cuerpo humano con muy poca energía, unos 20 vatios". Un chip consume hoy unos 40 vatios.

Antonio González, director del único laboratorio de tecnología de microprocesadores que la Universidad Politécnica de Cataluña e Intel tienen en Europa, señala que las prestaciones de un procesador nunca son suficientes y que el avance se logra con innovaciones constantes en muchos ámbitos, tanto en el diseño de los circuitos y transistores como de los bloques funcionales. "La coherencia del diseño es fundamental, porque hay múltiples interrelaciones", sostiene.

Para Ramón Planet, director de ventas en AMD España, el problema que había en un chip era la falta de espacio, porque todo debía estar ocupado por el núcleo o núcleos del procesador y una pequeña memoria, la caché. Con la tecnología de 32 nanómetros, será posible tener dentro del microprocesador la codificación del vídeo, gráficos y sonido, una memoria interna generosa y la gestión de todos estos componentes. El chipset -o juego de circuitos que gobierna el procesador- y la tarjeta gráfica externa no serán ya necesarias, porque irán en el chip.

La clave es económica

La cuestión clave, para Ramón Planet, no es tanto de diseño de circuitos ni de tecnología como económica. Una fábrica de semiconductores supone una inversión de 4.000 millones de euros: Se tienen que fabricar miles de millones de chips para amortizarla. Cada chip diseñado debe tener un amplio mercado para que puedan fabricarse millones de unidades. "La economía es la parte menos atractiva pero tan importante como la tecnología", reconoce. Hoy, además, se prefieren equipos baratos antes que potentes, lo que complica la situación.

Los actuales microprocesadores Core i7 de Intel de 45 nanómetros ya llevan cierta capacidad gráfica y gestión de memoria integrada. Con los nuevos procesadores de 32 nanómetros que Intel sacará a finales de año y que tienen el nombre de código Westmere, se dispondrá del doble de transistores porque la superficie será la misma. Intel aprovechará esta capacidad extra para sacar una gama de procesadores de muy altas prestaciones con ocho núcleos (hoy son cuatro) para ordenadores de sobremesa y servidores, y otra gama con sólo dos núcleos, pero con la gráfica y el controlador integrados, y muy potentes para portátiles.

El procesador Atom de Intel, que es la base de los miniportátiles o netbooks, es un sistema integrado, porque lleva los componentes fundamentales dentro del chip. A la hora de diseñar el Atom, se requirió que fuera muy barato y consumiera muy poca energía. Por eso tiene el máximo de componentes integrados en un chip, seis veces más pequeño que un Celeron. El tamaño diminuto del Atom hace que haya pocos transistores y, por tanto, una limitada capacidad de proceso bruta, aunque muy elevada en términos de superficie.

Gadi Singer, director general de SoC en Intel, advierte de que los sistemas integrados que aparecerán en los próximos cinco años serán una décima parte de los actuales sin merma aparente de prestaciones. Se podrá hacer un teléfono móvil con la capacidad de portátil actual.

La ley de Moore continúa...

Cada dos años aproximadamente se duplica el número de transistores o elementos primarios que hay en un chip. No es una ley física ni inmutable, sino la constatación práctica de lo que ocurre hace más de cuarenta años y que se conoce como la ley de Moore, en honor de Gordon Moore, uno de los cofundadores de Intel y que fue quien primero constató el fenómeno.

Esto significa que cada dos años el tamaño de un chip con determinado número de transistores se reduce a la mitad, que en la misma superficie de silicio cabe el doble de transistores y es el doble de potente o que un chip con los mismos transistores pasa a costar la mitad porque el coste es proporcional a la superficie: Las tres son consecuencia de la ley de Moore.

Así ha sido y será en la próxima década. En el año 2006 se introdujo la tecnología de fabricación de semiconductores de 64 nanómetros, en 2008 la de 45 y a finales de este año empezarán los chips de 32 nanómetros.

En el año 2012 tocará el turno a los 22 nanómetros y en 2014 a los 16 nanómetros. Generalmente se tardan dos años en poner a punto los equipos para fabricar los chips y otro más para optimizar la producción. Al cuarto año comieza la producción comercial masiva.

Ya se está trabajando en los 12 nanómetros, pero por debajo de los doce nanómetros el tema se complica porque se topan con leyes físicas. El tamaño será por entonces minúsculo: es como si pasáramos de escribir lo mismo de un folio a una tarjeta de visita.