Buscar

2009/07/10

La canción más vendida del momento en Internet también se descarga gratis

Fuente: La Segunda.

Por estos días, la canción de Moby “Shot in the Back of the Head” aparece como la más vendida en iTunes, la tienda online de Apple. Lo particular de esto, es que el cantante ha estado ofreciendo la canción para su descarga absolutamente gratuita en Internet .

El hecho podría parecer una curiosidad, pero destruye uno de los argumentos más utilizados por la industria discográfica en contra de las descargas de Internet, como explicó el sitio ALT1040.

El autor especula que los usuarios la compran a pesar de poder obtenerla gratis por el “efecto estación de radio”, lo que implica que la canción se ha escuchado tanto gracias a las descargas gratuitas, que al empezar la venta oficial, las personas a las que le gustó lo compran de inmediato.

La industria discográfica ha visto sus ventas decaer de manera dramática, y culpa directamente a las descargas ilegales de Internet por ello, argumentando que cada canción descargada implica una venta menos para ellos, y en base a eso calcula sus pérdidas.

Esto la ha llevado a demandar a usuarios y a sitios web por utilizar y compartir contenido protegido por el derecho de autor. El reciente juicio en contra del sitio de descargas P2P The Pirate Bay, donde sus responsables fueron condenados a un año de cárcel, se ha convertido en el hito más reciente de esta disputa
.

Intel, presente en un 80% de las supercomputadoras más rápidas

Fuente: Informador.

Según la última lista TOP500 de las supercomputadoras más poderosas del mundo, informa que el 80% de estas utilizan procesadores de Intel. La comunidad de cómputo de alto desempeño (HPC, por sus siglas en inglés) está especialmente entusiasmada con los procesadores de la serie Intel Xeon 5500, que hace sólo tres meses fueron lanzados, y cuyos chips ya están impulsando la investigación y aumentando las capacidades de análisis de 33 sistemas de esta lista.

La 33 ª edición de la lista TOP500 muestra que 399 de las 500 computadoras más potentes del mundo, incluyendo dos de ellas entre las diez primeras, cuentan con tecnología Intel en su interior. Los sistemas que usan procesadores Intel Xeon quad-core destacan significativamente en la lista, con 340 registros. Así mismo, 263 computadoras trabajan con la serie Intel Xeon 5400 con los transistores reinventados de High-k Metal Gate que usan la generación anterior de procesadores quad-core de 45nm de Intel.

Las plataformas de súper cómputo basadas en tecnología Intel están jugando un papel fundamental en diversas áreas de investigación, desde la mejora de la seguridad en la exploración del espacio hasta la previsión de las condiciones meteorológicas globales. Cada día más industrias catalogadas como "fundamentales", tales como servicios financieros y cuidados de la salud, están utilizando también sistemas basados en Intel para lograr resultados más rápidos y precisos, con el objetivo de acelerar el ritmo de la innovación y mejorar la ventaja competitiva.

Diseñan el Atnmbl, un "autonomóvil" para no volver a conducir

Fuente: Invertia.

Para el más purista incluso la transmisión automática es un atentado al más hermoso acto de la conducción, así que para muchos fanáticos el ATMNMBL (que significa 'autonomóvil', por sus siglas en inglés) es la antítesis de un vehículo, una manera tal vez excesivamente racional para analizar este medio de transporte.
El auto diseñado por el estudio 'Mike and Maaike' (que toma el nombre de sus fundadores) es la manera de observar, según sus creadores, 30 años en el futuro. El concepto de desempeño deja a un lado la aceleración y la velocidad máxima y se enfoca principalmente en el tiempo que las personas podrían ahorrar si aprovechan con alguna actividad productiva los largos momentos que se gastan en sus desplazamientos en ciudad, especialmente cuando hay embotellamientos.
Centrándose en su idea principal, el ATNMBL se movería (recordemos que este auto sólo existe en el mundo virtual y en las mentes de sus creadores) automáticamente gracias a avanzados sistemas de radares, acelerómetros y varios sensores en la carrocería para evitar colisiones, y guiará a sus pasajeros a sus respectivos destinos a través de sistemas de GPS.
Tendría tracción total gracias a unos motores eléctricos ubicados en cada rueda, todo sin emitir directamente contaminación debido a que el movimiento lo proporcionaría la energía solar.
No hay dirección ni pedales, sólo un espacio habitable en donde se tiene acceso total a Internet y se está conectado siempre a, por ejemplo, redes sociales vinculadas a iniciativas de 'carpooling', para así compartir con personas cercanas al propietario el auto y usarlo de la manera más eficiente posible, también se puede contactar a servicios de rutas de turismo, entre varias otras aplicaciones.
Sin duda se trata de toda una utopía sobre ruedas, más teniendo en cuenta que en algunos países como el nuestro a duras penas hay reglas establecidas relacionadas con el mundo automotor o una malla vial competentemente funcional, sin embargo es bueno saber que todo esto es técnicamente posible.

Cómo hacer de Internet un espacio para todos

Fuente: La Nacion.

La red de redes permite teletrabajar, realizar trámites on line y estar comunicado con personas a distancia, lo que facilita la vida a quienes tienen dificultades motrices o visuales. Sin embargo, aún son varias las barreras que dificultan la accesibilidad.

Todas las innovaciones tecnológicas han producido un importante impacto en las personas con discapacidad, por permitirles un estilo de vida independiente en muchos aspectos que antes tenían vedados. Internet les ha dado la posibilidad de acceder a diversos contenidos, informarse, comunicarse, darse a conocer, realizar cursos e, incluso, trabajar a distancia. "La Web ha permitido sacar del aislamiento a muchas personas con discapacidades o problemas de movilidad que antes sólo interactuaban con su familia o su círculo íntimo", dice Nicolás Trotta, subsecretario de Tecnologías de Gestión, dependiente de la Secretaría de Gabinete y Gestión Pública.

Las barreras de la Web

Pero tal como ocurre con los edificios y el transporte público, la Web puede tener escaleras virtuales que dificultan o impiden su uso a las personas con discapacidad. "Ponerse en el lugar de quienes utilizan Internet para poder entender sus necesidades y, a partir de esa mirada, pensar los desarrollos es, aún, la gran cuenta pendiente", observa Trotta.

Las discapacidades más afectadas por la inaccesibilidad de los sitios Web son las visuales. Muchas personas con esta limitación ya cuentan con software especiales que leen las pantallas para que puedan ser utilizadas por el usuario. Pero para que estos programas funcionen los sitios deben estar construidos cumpliendo con una serie de normas que les dan sentido a la lectura y la navegación. "Aún son muchísimos los sitios con contenidos gráficos o multimediales sin alternativas textuales o auditivas", afirma Martín Baldassarre, coordinador de la Fundación Sidar (Seminario Iberoamericano sobre Discapacidad y Accesibilidad en la Red) y miembro de ISOC-AR (Internet Society-Capítulo Argentina).

Por su parte, Trotta asegura que la responsabilidad social del Estado es garantizar el acceso a la información de toda la población, independientemente de su contexto y eliminando las barreras que lo obstaculicen para que las tecnologías no se conviertan en otro medio de discriminación. "Por eso, cuando hablamos de sociedad de la información y brecha digital creemos que no debemos restringirnos a pensarla y resolverla únicamente ampliando la conectividad o mejorando el acceso a infraestructura adecuada. El salto no debe ser sólo en términos cuantitativos, debemos garantizar el acceso en términos cualitativos. Y esto se logra estableciendo normas de accesibilidad para desarrollar los productos electrónicos y evitar así reproducir las barreras existentes y crear nuevas", asegura el subsecretario. Por su parte, Ezequiel Glinsky, gerente de Nuevas Tecnologías para Microsoft para Argentina y Uruguay, comenta: "La tecnología Microsoft ya es compatible con dispositivos adicionales diseñados especialmente para personas con discapacidades. No obstante, en muchos casos estos dispositivos adicionales son costosos y presentan una barrera de entrada".

¿Cuándo es accesible?

Se considera que un sitio es accesible cuando su contenido puede ser utilizado por múltiples usuarios y recibidos en distintos dispositivos. "Al diseñar y desarrollar una página Web debe tenerse en cuenta que muchos usuarios intentarán usarla en una variedad de contextos. Algunos pueden no ver, no oír o tener problemas de movilidad o motricidad; otros pueden no estar en condiciones de usar un mouse, o tienen monitores muy pequeños que sólo pueden visualizar texto. También puede ser que su conexión a Internet sea lenta o que tengan hardware o software desactualizados o, a la inversa, de última generación", enumera Trotta.

Existen pautas y estándares internacionales del Consorcio Web ( www.w3.org ) para determinar si un sitio es accesible o no. En nuestro país se realizó un proyecto de ley -que cuenta con media sanción en la Cámara de Diputados- para asegurar que los sitios Web públicos cumplan con estas pautas internacionales. "Pero si no hay políticas públicas al respecto no sirven de mucho", reclama Baldassarre.

Los especialistas aseguran que desarrollar un sitio accesible no incrementa los costos ni sacrifica la creatividad de los mismos. "Asimismo, hacer accesibles las páginas Web aumenta el número de visitas, mejora la posición en los buscadores, facilita la navegación y reduce el costo de mantenimiento, entre otras ventajas", asegura el coordinador de Sidar.

Existen páginas como www.tawdis.net , de la fundación TCIC, que ofrece herramientas para analizar la accesibilidad del diseño y el desarrollo de una página. Una vez ingresada la página de interés, esta herramienta señala las secciones de la página inaccesibles para personas con discapacidad, que los programadores deberían adaptar para mejorar.

Entre estos requisitos está el que posibilite una clara identificación de los contenidos por parte del usuario, y que éste pueda acceder a ellos y controlar su propia navegación. "Partimos de la idea de que la tecnología debe adaptarse a los usuarios y no al revés. La accesibilidad no es un privilegio, sino un derecho", resume Baldassarre.

Un responsable de Google: "El error de Microsoft es que no valoró Internet"

Fuente: 20minutos.

El responsable de Google Books España, Luis Collado, ha afirmado que el problema de los creadores de Microsoft es que desarrollaron su sistema operativo antes de que Internet fuese el gran medio de comunicación que es ahora, y que "no valoraron" en su justa medida su importancia. Además, ha recordado que su empresa lanzará en 2010 su propio sistema operativo pensado para Internet.

El sistema operativo de Microsoft, que actualmente utilizan el 90% de los ordenadores, tendrá que competirá a partir del año que viene con Chrome (Google).

"No desafiamos a nadie, pero en Google, como empresa que opera en Internet, hemos decidido que hay que tener algún sistema operativo pensado para Internet", ha señalado Collado.

El nuevo sistema se podrá utilizar en cualquier tipo de ordenador, aunque están más pensados para los miniportátiles o notebooks.

Collado ha revelado, además, que este sistema está pensado para ser abierto, de manera que cualquier desarrollador podrá mejorarlo y aportar cosas nuevas.

"Será la propia comunidad de usuarios quienes optimicen el sistema operativo en cada momento", ha declarado.

¿Cómo funciona Google Books?

Respecto al sistema de búsqueda de libros en Google (Google Books), Collado ha explicado que lo que hace es incorporar libros con contenidos no creados para Internet.

"Lo que llevamos a cabo es la digitalización de esos libros", aclaró.

Tras la digitalización, se realiza un proceso de reconocimiento de las palabras de cada página, con lo que se consegue que muchos lectores potenciales conozcan la existencia del libro sin tener que acudir al libro impreso.

Es acceso es gratuito, pero Google respeta los "copyright": "Es igual que una librería, la gente hojea, pero no lee", concluyó.

Vuelve 'El Niño'

Fuente: El Mundo.
El fenómeno climatológico 'El Niño', que provoca un calentamiento anormal de las aguas en el Pacífico y estragos meteorológicos que van desde Asia hasta América del Norte, ha llegado ya a las aguas tropicales del Pacífico central y del este.
Según los científicos de la Administración Nacional Oceánica y Atmosférica (por sus siglas en inglés, NOAA), una agencia científica del Departamento de Comercio de Estados Unidos, 'El Niño' persistirá hasta finales del próximo invierno, incluso entrado ya el 2010, y es probable que aumente su fuerza con el tiempo.
Sin embargo, fuentes oficiales del Centro de Predicción del Clima (CPC) en Estados Unidos afirman que el fenómeno El Niño ha evolucionado y podría no ser tan poderoso como aquel que azotó el mundo hace más de una década.
Para la Oficina de Meteorología de Australia hay "muy pocas posibilidades de que el actual desarrollo (de El Niño) se estanque o se revierta". "No se ve débil, pero tampoco alcanzará la intensidad 1997 y 1998", dijo Andrew Watkins de la oficina en Sidney.
No obstante, según apuntan los expertos, no todos los efectos son negativos ya que puede ayudar a contener los huracanes en la zona del Atlántico que amenazan los yacimientos de crudo en el Golfo de México y las plantaciones en México, el Caribe y el sur de Estados Unidos. Además, reduce el riesgo de grandes incendios en Florida.
Por el contrario, sus efectos negativos incluyen fuertes tormentas invernales en California así como inundaciones severas y ríos de lodo en las zonas centro y sur de América, así como sequías en Indonesia. Además, reduce los niveles de nutrientes en el océano que pueden influir en la alimentación de diversos pájaros, y mamíferos marinos.
Con respecto a sus efectos sobre la economía, el banco de inversión Fortis ya ha adelantado que El Niño podría causar una interrupción significativa en el sector del cacao: "Se acerca un período de alto riesgo sin la comodidad de abundantes existencias mundiales (de cacao)".
El último tuvo lugar en 2006. Este fenómeno sucede cada dos o cinco años y suele contar con una duración aproximada de doce meses. Su impacto depende de diversos factores como la intensidad y la extensión del calentamiento global, así como la época del año.
Entre 1997 y 1998 El Niño causó la muerte de más de 2.000 personas y la pérdida de miles de millones de dólares en infraestructuras desde Indonesia a Perú.

ARM desafía el reinado de Intel

Fuente: Publico.

El mercado de los netbook no es sólo un campo de batalla para las compañías de software. En el mundo de la fabricación de microchips para estos ordenadores, dos son los competidores y su enfrentamiento va más allá de la lucha por las ventas. En liza están dos filosofías de diseño de procesadores, que reproducen la guerra de los Mac contra los PC de finales de los 80. Y ambas intentan ahora hacerse con el mercado que abrirá Google Chrome.

Por un lado está la arquitectura x86 del gigante Intel, principal fabricante de microprocesadores para ordenadores personales. La compañía lanzó en 2008 la gama Atom de chips diseñados específicamente para este sector.

Del otro se encuentra el holding ARM, que en la actualidad domina el mercado de los pequeños aparatos portátiles, como los teléfonos móviles, en gran parte gracias a su amplia distribución de licencias de fabricación a empresas como Nokia, Sony Ericsson, Samsung, Texas Instruments, Qualcomm, e incluso la propia Intel.

Los procesadores ARM Cortex A8 son similares en rendimiento a los Intel Atom, pero su principal ventaja está en su reducido consumo energético, unas 20 veces inferior, lo que permite alargar la duración de la carga de batería de un netbook hasta cerca de las 10 horas de uso.

Sin embargo Intel Atom, de momento, saca ventaja a sus competidores. Warren East, presidente de ARM Holdings, espera que su compañía controle un 20% del mercado el año que viene, estimación que comparten algunos analistas, aunque otros son más optimistas y auguran un dominio para el año 2012. El principal freno a su avance era, hasta el momento, la falta de un sistema operativo de uso masivo.

Mientras que Google ya ha anunciado que su nuevo sistema operativo Chrome podrá ejecutarse en ambos tipos de arquitecturas, Android, su sistema para móviles que también podría servir para netbook, no puede ser utilizado en ordenadores con plataforma x86. Por la parte de Microsoft, sólo Windows CE puede ser instalado en netbook que lleven chips ARM, aunque East comentó la posibilidad de que el próximo Windows 7 sí podrá. Gazelle, el equivalente al Chrome de Microsoft, probablemente pueda ejecutarse en ambas plataformas. La guerra está servida.

La guerra Google-Microsoft de sistemas operativos podría rebajar precios de PC

Fuente: Europa Press.

El intento de Google por competir con Windows, el sistema operativo de Microsoft, podría ayudar a rebajar el coste de los ordenadores personales (PC,en sus siglas en inglés) en un momento en que los precios ya se están ajustando por los baratos portátiles 'netbooks'.

Algunos analistas prevén que Google podría ofrecer su recién anunciado Sistema Operativo Chrome por una pequeña tarifa o incluso gratis cuando se lance en el primer semestre del 2010, una iniciativa que podría llevar a Microsoft a una guerra de precios.

Aunque Windows es el sistema operativo dominante, instalado en el 90 por ciento de los PC del mundo, Microsoft no se tomará a la ligera el desafío de Google, según analistas. Su nuevo sistema operativo Windows 7 estará disponible en octubre.

"La estrategia de Microsoft será probablemente competir en precios", opinó el analista de Benchmark Brent Williams. "Ahora existe un competidor con el músculo y el reconocimiento de marca. Google es esa compañía".

Google dijo que el sistema operativo Chrome, que está basado en el código de fuente abierta Linux, está siendo diseñado para todos los PC, aunque debutará en los netbooks.

Tiene sentido que Google se dirija primero a estos portátiles centrados en navegar por internet, uno de los únicos segmentos que está mostrando crecimiento en un mercado de PC que vive una contracción.

SIGUIENDO LA ESTELA DE LOS NETBOOKS.

Los netbooks se venden generalmente entre 300 y 400 dólares, pero los precios están cayendo a medida que salen nuevas ofertas al mercado y las operadoras inalámbricas ofrecen subsidios con la compra de un plan de internet.

El analista Shaw Wu de Kaufman Bros subrayó que aunque los precios de casi todos los componentes de PC han estado cayendo, "lo único que no ha bajado es el costo del sistema operativo. Esto va a meter alguna presión a Microsoft", adelantó.

Microsoft no dice cuánto cobra a las marcas de PC por el Windows, pero analistas estiman que se lleva de 20 a 40 dólares por el antiguo sistema XP utilizado en la mayoría de los netbooks, y al menos 150 dólares por el actual sistema Vista.

Wu dijo que la competencia de precios podría a la larga incrementar los márgenes de los fabricantes de PC. "Creo que en general debería mejorar la rentabilidad para los vendedores de PC. Realmente es una cuestión de cuánto se traspasará a los clientes", declaró.

Diseñan los primeros 'árboles' sintéticos que absorben más CO2 que los naturales

Fuente: La Vanguardia.

Científicos estadounidenses de la Universidad de Columbia han diseñado los primeros árboles sintéticos capaces de absorber más CO2 que los naturales, una forma de limpiar el dióxido de carbono de la atmósfera buscada durante años por los investigadores . Según los expertos, estos árboles podrían ayudar a mitigar la quema excesiva de combustibles fósiles, así como luchar contra el calentamiento global.

Estas máquinas están estructuradas como torres de alta tecnología con materiales especiales absorbentes, según comentó su inventor, el doctor Klaus Lackner, geofísico del Centro de Ingeniería de la Tierra de la Universidad de Columbia en Nueva York, quien en las últimas dos décadas ha estado investigando la captura de CO2.

"El árbol tiene ramas similares a las de un pino y sus agujas están hechas de un material plástico que puede absorber dióxido de carbono a medida que fluye el aire" explicó, al tiempo que puntualizó que de igual forma que un ejemplar natural, a medida que fluye el aire por sus ramas estos árboles absorben el CO2 y lo mantienen en su interior, una absorción "casí mil veces" más rápida que la de árboles naturales.

Según recoge la BBC, los árboles y otras plantas naturales, que son los principales encargados de limpiar el CO2 de la atmósfera terrestre, absorben CO2 y lo almacenan en sus tejidos.

El árbol sintético atraparía el CO2 en un filtro donde sería comprimido como dióxido de carbono líquido. Así, podría ser enterrado y almacenado de forma permanente en la profundidad de la Tierra. No obstante, una de las ventajas con las que cuenta este árbol es que no precisa de luz solar o agua para funcionar.

Aunque el prototipo creado por el investigador es pequeño, se espera que en el futuro sea más grande y pueda ser colocado en cualquier parte. "Lo que veo a corto plazo es un aparato del tamaño de un camión en el que se puedan colocar las ramas juntas en una caja similar al filtro de una caldera.

Una tonelada de dióxido al día
Cada máquina tendría 30 filtros que en total medirían unos 2,5 metros de altura y un metro de ancho", explicó. Cada árbol sintético, dice Klaus Lackner, podría absorber una tonelada de dióxido de carbono al día, eliminando una cantidad de gas equivalente al que producen veinte coches.

En teoría y a partir de estimaciones, se necesitarían millones de estas unidades para absorber suficiente CO2 como para poder tener un impacto en el planeta. Además, la tecnología no es barata, se cree que cada máquina costaría unos 21.637 euros. «Creo que es viable poder producir estas unidades», concluyó el científico.

La tecnología de 32 nanómetros fabricará el ordenador en un 'chip'

Fuente: El Pais.

Los sistemas completos dentro de un chip serán posibles con la próxima generación de 32 nanómetros, que se empezará a vender a finales de año.

El ordenador en un chip -con el procesador, la gráfica y la gestión de la memoria integrados- dejará de ser un sueño porque habrá espacio suficiente y no hará falta restringir las prestaciones como hasta ahora. Se entrará así en la era de los sistemas totalmente integrados, con tamaño diminuto, coste reducido, consumo energético mínimo y máximas prestaciones, lo que permitirá a su vez diseñar productos realmente autónomos, pequeños, potentes y baratos.

Hasta ahora, la progresiva miniaturización de los chips ha permitido hacer componentes más rápidos y potentes, aparte de más pequeños y económicos. No se podían integrar más funciones dentro del chip, porque no había espacio para ello y se necesitaban más prestaciones respecto al proceso.

El bajo consumo, prioritario

Desde mediados de la década, la prioridad esencial ha sido reducir el consumo de energía y así favorecer la movilidad de los equipos. A partir de ahora, con prestaciones razonables y consumo energético limitado, se podrán integrar varios componentes en un mismo chip. Se entra en la era del Sistemas en un Chip, o System-On-a-Chip (SoC).

El transistor es como un interruptor que consume energía en función de su tamaño cuando funciona. Si el tamaño de un transistor se reduce a la mitad el circuito integrado pasa a consumir mucha menos energía. Además, como los electrones deben recorrer menos espacio dentro del chip, se procesa información con menos energía. Si, además, varios chips de una placa pasan a formar uno solo, el consumo de energía también se reduce y las prestaciones aumentan.

"La integración en cuanto al sistema es necesaria para conseguir elevadas prestaciones, bajo consumo y tamaño reducido", recalca Mark Bohr, uno de los más destacados especialistas en tecnología microelectrónica de Intel. "El reto actual es integrar en un mismo chip una amplia gama de elementos heterogéneos".

A juicio de Bohr, la ley de Moore continúa, pero la fórmula del éxito está cambiando: se necesitan nuevos materiales y estructura de dispositivos para continuar reduciendo el tamaño de los chips, al mismo tiempo que el enfoque actual de los circuitos se centra en la eficiencia, en el consumo eléctrico.

Bohr compara el chip con el cuerpo humano. En el cuerpo humano tenemos unos 100.000 millones de neuronas, cuando los chips actuales alojan varios centenares de millones de transistores y antes de cinco años tendrán 1.000 millones. "La naturaleza es sabia porque hace funcionar todas las neuronas del cuerpo humano con muy poca energía, unos 20 vatios". Un chip consume hoy unos 40 vatios.

Antonio González, director del único laboratorio de tecnología de microprocesadores que la Universidad Politécnica de Cataluña e Intel tienen en Europa, señala que las prestaciones de un procesador nunca son suficientes y que el avance se logra con innovaciones constantes en muchos ámbitos, tanto en el diseño de los circuitos y transistores como de los bloques funcionales. "La coherencia del diseño es fundamental, porque hay múltiples interrelaciones", sostiene.

Para Ramón Planet, director de ventas en AMD España, el problema que había en un chip era la falta de espacio, porque todo debía estar ocupado por el núcleo o núcleos del procesador y una pequeña memoria, la caché. Con la tecnología de 32 nanómetros, será posible tener dentro del microprocesador la codificación del vídeo, gráficos y sonido, una memoria interna generosa y la gestión de todos estos componentes. El chipset -o juego de circuitos que gobierna el procesador- y la tarjeta gráfica externa no serán ya necesarias, porque irán en el chip.

La clave es económica

La cuestión clave, para Ramón Planet, no es tanto de diseño de circuitos ni de tecnología como económica. Una fábrica de semiconductores supone una inversión de 4.000 millones de euros: Se tienen que fabricar miles de millones de chips para amortizarla. Cada chip diseñado debe tener un amplio mercado para que puedan fabricarse millones de unidades. "La economía es la parte menos atractiva pero tan importante como la tecnología", reconoce. Hoy, además, se prefieren equipos baratos antes que potentes, lo que complica la situación.

Los actuales microprocesadores Core i7 de Intel de 45 nanómetros ya llevan cierta capacidad gráfica y gestión de memoria integrada. Con los nuevos procesadores de 32 nanómetros que Intel sacará a finales de año y que tienen el nombre de código Westmere, se dispondrá del doble de transistores porque la superficie será la misma. Intel aprovechará esta capacidad extra para sacar una gama de procesadores de muy altas prestaciones con ocho núcleos (hoy son cuatro) para ordenadores de sobremesa y servidores, y otra gama con sólo dos núcleos, pero con la gráfica y el controlador integrados, y muy potentes para portátiles.

El procesador Atom de Intel, que es la base de los miniportátiles o netbooks, es un sistema integrado, porque lleva los componentes fundamentales dentro del chip. A la hora de diseñar el Atom, se requirió que fuera muy barato y consumiera muy poca energía. Por eso tiene el máximo de componentes integrados en un chip, seis veces más pequeño que un Celeron. El tamaño diminuto del Atom hace que haya pocos transistores y, por tanto, una limitada capacidad de proceso bruta, aunque muy elevada en términos de superficie.

Gadi Singer, director general de SoC en Intel, advierte de que los sistemas integrados que aparecerán en los próximos cinco años serán una décima parte de los actuales sin merma aparente de prestaciones. Se podrá hacer un teléfono móvil con la capacidad de portátil actual.

La ley de Moore continúa...

Cada dos años aproximadamente se duplica el número de transistores o elementos primarios que hay en un chip. No es una ley física ni inmutable, sino la constatación práctica de lo que ocurre hace más de cuarenta años y que se conoce como la ley de Moore, en honor de Gordon Moore, uno de los cofundadores de Intel y que fue quien primero constató el fenómeno.

Esto significa que cada dos años el tamaño de un chip con determinado número de transistores se reduce a la mitad, que en la misma superficie de silicio cabe el doble de transistores y es el doble de potente o que un chip con los mismos transistores pasa a costar la mitad porque el coste es proporcional a la superficie: Las tres son consecuencia de la ley de Moore.

Así ha sido y será en la próxima década. En el año 2006 se introdujo la tecnología de fabricación de semiconductores de 64 nanómetros, en 2008 la de 45 y a finales de este año empezarán los chips de 32 nanómetros.

En el año 2012 tocará el turno a los 22 nanómetros y en 2014 a los 16 nanómetros. Generalmente se tardan dos años en poner a punto los equipos para fabricar los chips y otro más para optimizar la producción. Al cuarto año comieza la producción comercial masiva.

Ya se está trabajando en los 12 nanómetros, pero por debajo de los doce nanómetros el tema se complica porque se topan con leyes físicas. El tamaño será por entonces minúsculo: es como si pasáramos de escribir lo mismo de un folio a una tarjeta de visita.