Una vez más se han realizado pruebas de referencia para los chips que llegarán al mercado durante las próximas semanas, y una vez más la familia Snapdragon S4 de Qualcomm ha derrotado a la competencia.
En concreto, se ha estudiado el procesador MSM8960 que ha sido fabricado con proceso de 28 nanómetros y consta de dos núcleos “Krait” a 1,5 GHZ. Esta arquitectura por sí sola es todo un adelanto respecto a la anterior generación de chipsets Qualcomm, ya que soporta memoria en dual-channel y multitud de estándares inalámbricos.
Sus puntuaciones Linpack, tanto en las pruebas individuales como en los test multi-hilo, han doblado los resultados más altos de todos los dispositivos: 106,79 y 218,19 Megaflops. El rival más fuerte en este sentido, sin contar la generación anterior de Snapdragon, es el Samsung Galaxy S II que alcanza una velocidad de 57,49 y 84,37 Megaflops y cuenta con un SoC Exynos de doble núcleo en su interior.
Mientras que sus 1.532 puntos en SunSpider y 110.345 en BrowserMark reflejan una mejora sustancial en el rendimiento de JavaScript.
Para entender estos números un poco mejor, comparándolos con los resultados del actual Samsung Galaxy Nexus, el nuevo procesador de Qualcomm reduce el tiempo de carga de las páginas web en 0,3 segundos con el caché deshabilitado o en 1,4 segundos si está operativo.
El diseño de referencia utilizado para realizar las pruebas fue montado por la propia Qualcomm, contaba con pantalla de 4 pulgadas, resolución 1024×600 píxeles, 16 GB de almacenamiento interno, batería de 5,6 vatios/hora y memoria DDR2 de bajo consumo. Además, estaba gobernado por Android 4.0 y, en palabas de AnandTech, permitió el uso “más suave” hasta al fecha de Ice Cream Sandwich. Esto es un gran elogio si se tiene en cuenta que MSM8960 es una versión dual-core y que Qualcomm ha prometido lanzar opciones de hasta cuatro núcleos.
Buscar
Mostrando entradas con la etiqueta microprocesadores. Mostrar todas las entradas
Mostrando entradas con la etiqueta microprocesadores. Mostrar todas las entradas
2012/02/22
2012/02/15
Logran mejorar el rendimiento de los procesadores un 20% cambiando su diseño
Cada vez resulta más difícil para fabricantes como Intel o AMD que el cumplimiento de la ley de Moore, que predice una duplicación cada dos años en el número de transistores de un circuito integrado, se traduzca en una mejora sustancial del rendimiento de los microprocesadores de nuestros ordenadores. De ahí que hayan escogido, primero, la vía de multiplicar el número de núcleos por cada procesador y, segundo, unir en un solo chip núcleos con las funciones del microprocesador tradicional, o CPU, con núcleos que ejecutan las de los procesadores gráficos o GPU.
Los procesadores gráficos, fabricados sobre todo para el mercado de consumo por AMD-ATI y Nvidia, están especializados en realizar un gran número de cálculos matemáticos complejos para poder representar escenas tridimensionales realistas en pantalla. Las CPU tradicionales, sin embargo, hacen una mejor labor en otras tareas, como ordenar las instrucciones para ejecutarlas más rápido o gestionar el movimiento de datos entre ellos y la memoria. Pero en los microprocesadores de AMD e Intel que incluyen tanto CPU como GPU, llamados APU (Accelerated Processing Unit, o Unidad de Procesamiento Acelerado), ambos tipos de núcleos son básicamente independientes.
Un grupo de investigadores de la Universidad estatal de Carolina del Norte, patrocinados por AMD, se ha propuesto demostrar que dicha separación es un error. De modo que han diseñado, basándose en un AMD Fusion, un nuevo microprocesador en el que cada tipo de núcleo se encarga de la tarea que mejor se le da. El resultado, en un simulador, sería de un aumento de rendimiento de un 21,4%, informa ExtremeTech.
Dado que en la carrera por tener en el mercado los microprocesadores con una mejor tecnología de impresión Intel lleva tiempo ganando –en concreto este año tendrá chips fabricados a 22 nanómetros frente a los AMD de 32 nm–, los de Sunnyvale han apostado por aprovechar la compra de ATI y su superioridad en los procesadores gráficos para intentar presentar batalla, especialmente en los ordenadores portátiles. Si AMD lograra implementar estas mejoras en una nueva microarquitectura en un año o dos, les permitiría reducir la distancia con Intel con microprocesadores que serían aún más baratos que los actuales.
Los procesadores gráficos, fabricados sobre todo para el mercado de consumo por AMD-ATI y Nvidia, están especializados en realizar un gran número de cálculos matemáticos complejos para poder representar escenas tridimensionales realistas en pantalla. Las CPU tradicionales, sin embargo, hacen una mejor labor en otras tareas, como ordenar las instrucciones para ejecutarlas más rápido o gestionar el movimiento de datos entre ellos y la memoria. Pero en los microprocesadores de AMD e Intel que incluyen tanto CPU como GPU, llamados APU (Accelerated Processing Unit, o Unidad de Procesamiento Acelerado), ambos tipos de núcleos son básicamente independientes.
Un grupo de investigadores de la Universidad estatal de Carolina del Norte, patrocinados por AMD, se ha propuesto demostrar que dicha separación es un error. De modo que han diseñado, basándose en un AMD Fusion, un nuevo microprocesador en el que cada tipo de núcleo se encarga de la tarea que mejor se le da. El resultado, en un simulador, sería de un aumento de rendimiento de un 21,4%, informa ExtremeTech.
Dado que en la carrera por tener en el mercado los microprocesadores con una mejor tecnología de impresión Intel lleva tiempo ganando –en concreto este año tendrá chips fabricados a 22 nanómetros frente a los AMD de 32 nm–, los de Sunnyvale han apostado por aprovechar la compra de ATI y su superioridad en los procesadores gráficos para intentar presentar batalla, especialmente en los ordenadores portátiles. Si AMD lograra implementar estas mejoras en una nueva microarquitectura en un año o dos, les permitiría reducir la distancia con Intel con microprocesadores que serían aún más baratos que los actuales.
2012/02/13
Desarrollan un método para aumentar el rendimiento de los procesadores en un 20 por ciento
Expertos de la Universidad de North Carolina State han desarrollado un método que permite mejorar la interacción entre la CPU y la GPU de un ordenador, de forma que la Unidad de Procesamiento Acelerado (APU) es un 20 por ciento más efectiva.
Como explican los investigadores, la idea es que la CPU (Procesador Central) se encargue de la precarga de datos y la toma de decisiones, mientras que para la GPU (Procesador Gráfico) se reserven los cálculos que sean más complejos.
El doctor Huiyang Zou, co autor del estudio, ha explicado que eso es lo natural, ya que se asigna a cada tipo de procesador las tareas para las que están mejor preparados.
En ese sentido, el documento explica que aunque ambos procesadores pueden acceder a la información de la memoria de un equipo a la misma velocidad, la gestión de los cálculos más complejos se realiza de forma más eficiente por la GPU.
De momento, todo apunta a que habrá que esperar para ver este nuevo método aplicado en los procesadores de Intel y AMD, pero no deja de ser una buena noticia para los usuarios.
Como explican los investigadores, la idea es que la CPU (Procesador Central) se encargue de la precarga de datos y la toma de decisiones, mientras que para la GPU (Procesador Gráfico) se reserven los cálculos que sean más complejos.
El doctor Huiyang Zou, co autor del estudio, ha explicado que eso es lo natural, ya que se asigna a cada tipo de procesador las tareas para las que están mejor preparados.
En ese sentido, el documento explica que aunque ambos procesadores pueden acceder a la información de la memoria de un equipo a la misma velocidad, la gestión de los cálculos más complejos se realiza de forma más eficiente por la GPU.
De momento, todo apunta a que habrá que esperar para ver este nuevo método aplicado en los procesadores de Intel y AMD, pero no deja de ser una buena noticia para los usuarios.
2012/01/30
Nuevos procesadores de Tilera de 16 y 36 núcleos
Tilera ha anunciado que ya están disponibles sus nuevos microprocesadores multinúcleo dentro de la línea TILE-Gx, llamada a competir frontalmente con fabricantes de la talla de Intel y AMD en entornos de servidor basados en cloud computing.
Además, la compañía ha visto cómo su co-fundador, Devesh Garg, vuelve a Tilera para retomar las riendas en el puesto de CEO. Garg ya estuvo en ese puesto desde 2004 hasta 2007 y desde entonces ha permanecido muy atado a Tilera como inversor y accionista. Su incorporación obedece a una importante estrategia de expansión a nivel mundial para competir con los grandes fabricantes de microprocesadores.
Hasta ahora, los procesadores TILE-Gx de 16 y 36 núcleos y arquitectura de 64 bit tan sólo estaban disponibles para un selecto grupo de clientes. Ahora, cualquier compañía podrá realizar pedidos para construir nuevos servidores capaces de ofrecer rendimientos sin precedentes mientras reducen considerablemente el consumo energético.Los chips TILE-Gx36 y TILE-Gx16 están construidos con tecnología de fabricación de 40 nanómetros. Según Tilera, el primero de ellos es capaz de procesar 40 Gigabit/s en entornos de red consumiendo menos de 25 vatios. En materia de cloud computing, asegura que un servidor gobernado por este chip de 36 núcleos aporta el mismo rendimiento que un Intel Xeon pero consumiendo tan sólo una quinta parte de la energía y reduciendo el espacio necesario en ocho veces.
Estas características llegan avaladas por las pruebas de rendimiento provenientes de CoreMark, donde ha conseguido un índice de 165.000 puntos.
Por otro lado, Tilera también ofrece la posibilidad de adquirir sistemas de evaluación en distintos formatos para que los clientes puedan probar de primera mano el rendimiento de estos microchips sin necesidad de diseñar sus propias configuraciones desde cero.
Además, la compañía ha visto cómo su co-fundador, Devesh Garg, vuelve a Tilera para retomar las riendas en el puesto de CEO. Garg ya estuvo en ese puesto desde 2004 hasta 2007 y desde entonces ha permanecido muy atado a Tilera como inversor y accionista. Su incorporación obedece a una importante estrategia de expansión a nivel mundial para competir con los grandes fabricantes de microprocesadores.
Hasta ahora, los procesadores TILE-Gx de 16 y 36 núcleos y arquitectura de 64 bit tan sólo estaban disponibles para un selecto grupo de clientes. Ahora, cualquier compañía podrá realizar pedidos para construir nuevos servidores capaces de ofrecer rendimientos sin precedentes mientras reducen considerablemente el consumo energético.Los chips TILE-Gx36 y TILE-Gx16 están construidos con tecnología de fabricación de 40 nanómetros. Según Tilera, el primero de ellos es capaz de procesar 40 Gigabit/s en entornos de red consumiendo menos de 25 vatios. En materia de cloud computing, asegura que un servidor gobernado por este chip de 36 núcleos aporta el mismo rendimiento que un Intel Xeon pero consumiendo tan sólo una quinta parte de la energía y reduciendo el espacio necesario en ocho veces.
Estas características llegan avaladas por las pruebas de rendimiento provenientes de CoreMark, donde ha conseguido un índice de 165.000 puntos.
Por otro lado, Tilera también ofrece la posibilidad de adquirir sistemas de evaluación en distintos formatos para que los clientes puedan probar de primera mano el rendimiento de estos microchips sin necesidad de diseñar sus propias configuraciones desde cero.
2012/01/20
“Estamos ante chips al límite de su miniaturización”
“En los años setenta la gente no creía que los chips pudieran hacerse pequeños”, ha dicho Carver Mead tras conocer que había ganado el Premio Fundación BBVA Fronteras del Conocimiento en la categoría de Tecnologías de la Comunicación, que ha sido comunicado hoy. El ingeniero fue el primero en predecir, en aquella época, que los chips integrarían millones de transistores. El primero, inventado por Jack Kilvy en 1958, tenía solo uno. Hoy, el pronóstico de Mead es una realidad gracias a la tecnología del silicio que él mismo contribuyó a desarrollar. Los chips contienen cada vez más información en un espacio más pequeño. El galardonado ha señalado hoy durante el anuncio de este premio que “ya estamos casi al límite de la miniaturización de los chips de tan pequeños que han llegado a ser”. Pero ha señalado que se buscan nuevos materiales. “Hay gente que inventa mucho”, ha dicho. En ese sentido, el pasado 12 de enero IBM anunciaba que científicos de la empresa y del Centro Alemán para las Ciencias de Láser de Electrones Libres (CFEL) han construido la unidad magnética de almacenamiento de datos más pequeña del mundo, con capacidad de almacenar cien veces más información que un chip actual.
El galardonado, que ha estado presente en el acto vía telefónica desde EE UU, ha reconocido que este premio de la Fundación BBVA, dotado con 400.000 euros, ha sido “una sorpresa”. Según el acta del jurado, presidido por Andrea Golsmith, catedrática de Ingeniería Electrónica en la Universidad de Stanford (EE UU), “sus aportaciones han impulsado la industria de los semiconductores (chips) y han hecho posible la creación de la gran variedad de dispositivos informáticos que permean nuestra vida cotidiana como ordenadores portátiles, tabletas, móviles, DVDs y automóviles híbridos”. Concretamente, Mead es el creador de los dispositivos VLSI (siglas en inglés de Sistemas Integrados a Muy Gran Escala), constituidos por millones de componentes. Su trabajo fue, según el jurado de los premios, clave para sistematizar el diseño de los nuevos chips y lograr así que incluso quienes desconocieran los principios físicos de partida pudieran fabricarlos. Separó el diseño de los chips de su manufactura. “Ya no era necesario que cada empresa tuviera un físico teórico”, ha explicado el arquitecto de hardware Ronald Ho, miembro del jurado. “Gracias a ello la industria del silicio – material con el que se fabrican la mayoría de chips – no gasta hoy en producción, sino en investigación”, ha señalado.
Una vez que Mead creyó agotadas sus aportaciones al diseño y fabricación de microchips, dio un giro en su carrera para dedicarse a al estudio de los sistemas biológicos mediante su recreación en silicio. Así Mead construyó la primera retina en ese material. “Cada 10 o 12 años creo que se me agotan las ideas originales en un determinado campo de investigación, por eso cambio”, ha señalado hoy en la conexión telefónica con el acto de entrega del premio.
Premios Fundación BBVA Fronteras del Conocimiento
Rafael Pardo, director de la Fundación BBVA, ha señalado que con los Premios Fronteras del Conocimiento, creados en 2008, quieren reconocer las contribuciones “al avance del conocimiento a nivel internacional. Los ganadores del resto de categorías se darán a conocer en diferentes fechas del mes de febrero.
El jurado, nombrado en colaboración con el Centro Superior de Investigaciones Científicas (CSIC), está conformado en cada una de las categorías de los premios por personalidades reconocida en cada una de las áreas: Tecnologías de la Información, Ciencias Básicas, Biomedicina, Ecología, Música Contemporánea, Economía y Gestión de Empresas, Cooperación al Desarrollo Cambio Climático.
El galardonado, que ha estado presente en el acto vía telefónica desde EE UU, ha reconocido que este premio de la Fundación BBVA, dotado con 400.000 euros, ha sido “una sorpresa”. Según el acta del jurado, presidido por Andrea Golsmith, catedrática de Ingeniería Electrónica en la Universidad de Stanford (EE UU), “sus aportaciones han impulsado la industria de los semiconductores (chips) y han hecho posible la creación de la gran variedad de dispositivos informáticos que permean nuestra vida cotidiana como ordenadores portátiles, tabletas, móviles, DVDs y automóviles híbridos”. Concretamente, Mead es el creador de los dispositivos VLSI (siglas en inglés de Sistemas Integrados a Muy Gran Escala), constituidos por millones de componentes. Su trabajo fue, según el jurado de los premios, clave para sistematizar el diseño de los nuevos chips y lograr así que incluso quienes desconocieran los principios físicos de partida pudieran fabricarlos. Separó el diseño de los chips de su manufactura. “Ya no era necesario que cada empresa tuviera un físico teórico”, ha explicado el arquitecto de hardware Ronald Ho, miembro del jurado. “Gracias a ello la industria del silicio – material con el que se fabrican la mayoría de chips – no gasta hoy en producción, sino en investigación”, ha señalado.
Una vez que Mead creyó agotadas sus aportaciones al diseño y fabricación de microchips, dio un giro en su carrera para dedicarse a al estudio de los sistemas biológicos mediante su recreación en silicio. Así Mead construyó la primera retina en ese material. “Cada 10 o 12 años creo que se me agotan las ideas originales en un determinado campo de investigación, por eso cambio”, ha señalado hoy en la conexión telefónica con el acto de entrega del premio.
Premios Fundación BBVA Fronteras del Conocimiento
Rafael Pardo, director de la Fundación BBVA, ha señalado que con los Premios Fronteras del Conocimiento, creados en 2008, quieren reconocer las contribuciones “al avance del conocimiento a nivel internacional. Los ganadores del resto de categorías se darán a conocer en diferentes fechas del mes de febrero.
El jurado, nombrado en colaboración con el Centro Superior de Investigaciones Científicas (CSIC), está conformado en cada una de las categorías de los premios por personalidades reconocida en cada una de las áreas: Tecnologías de la Información, Ciencias Básicas, Biomedicina, Ecología, Música Contemporánea, Economía y Gestión de Empresas, Cooperación al Desarrollo Cambio Climático.
2011/11/16
40 años del primer microprocesador
Intel había sido fundada hacía poco, de modo que aceptaron un encargo que no atraía mucho a sus fundadores. El fabricante japonés de calculadoras Busicom les pidió que diseñaran los chips necesarios para hacer funcionar una docena de nuevos modelos de calculadora que querían sacar al mercado. Pero estudiando el encargo, Intel llegó a la conclusión de que nunca recuperarían el coste de diseñar unos procesadores tan específicos.
Ted Hoff, el ingeniero encargado del proyecto, pensó que sería mejor optar por un diseño mucho más general. En lugar de diseñar esa docena de chips que les habían encargado, podían hacer uno de propósito general y guardar las especificaciones de cada una de las calculadoras en un programa aparte. De este modo, cada aparato tendría sólo tres chips: el procesador, la memoria para almacenar los datos y los resultados de los cálculos y el que albergaba el programa. Todos serían circuitos que podrían reutilizarse.
Hoff fue el encargado de diseñar la arquitectura general del procesador, con la ayuda de Stan Mazor, pero pronto empezó a dedicarse a otros proyectos, así que el principal responsable de la difícil tarea de trasladar al silicio las ideas de sus compañeros fue Federico Faggin, con algo de ayuda de Masatoshi Shuma, empleado de una Busicom con la mosca detrás de la oreja ante los retrasos. Juntos crearon el Intel 4004, el primer microprocesador o, como lo llamaría Intel más tarde en sus folletos publicitarios, el primer "ordenador en un chip".
Ese eslogan, aunque algo exagerado, no estaba demasiado lejos de la realidad. El Intel 4004 tenía unos 2.300 transistores –un poco por debajo de las 3.000 válvulas del primer Univac– y sólo 4 bits, porque estaba pensado para calculadoras y le bastaba eso para trabajar con números decimales. Los de ahora andan por los 64 bits y unos pocos 1.200 millones de transistores.
El problema es que nuestros hombres concluyeron el encargo en la primavera del año 1971, y para entonces ya estaba desatada la guerra de las calculadoras. Busicom tenía problemas para sobrevivir y pidió a Intel una rebaja en el precio. La empresa californiana accedió, a cambio de poder vender su microprocesador a otras compañías. Ahora sabemos que aquel acuerdo dio comienzo a un negocio multimillonario, pero entonces no estaba tan claro. De hecho, el 4004, puesto a la venta el 15 de noviembre de 1971, no tuvo demasiado éxito, entre otras cosas porque su arquitectura de lo limitaba a productos como calculadoras o cajas registradoras.
El primer paso en una revolución
Pero Intel se puso a trabajar. En 1972 lanzaron el 8008, que era como su antecesor pero con 8 bits. Fue fruto de un encargo de Computer Terminal Corporation para uno de sus terminales Datapoint, fabricados para conectarlos a los enormes ordenadores de los 70. También diseñado por Faggin, el conjunto de instrucciones que aceptaba fue creado por CTC. Ese conjunto de instrucciones fue llevado, con algunos cambios, de microprocesador en microprocesador, hasta el 8088, que fue incluido en el primer PC, y de ahí al 80286, al 80386, al 80486, al Pentium, al Pentium Pro, al Pentium III, al Pentium IV, al Core, al Core 2 y a los Core i3, i5 e i7, que son los que empleamos hoy en día.
Al igual que sucediera con Busicom, CTC renunció a la exclusividad a cambio de ahorrarse unos dólares, y el 8008 fue empleado como controlador en muchos aparatos y en sistemas de procesamiento de texto. Pero fue el 8080 el primero que tuvo la calidad suficiente como para ser empleado como corazón de un ordenador. Y vaya si lo fue: el primer ordenador personal, el Altair 8800, usaba precisamente ese chip.
Una vez el mundo se dio cuenta de la importancia de lo que habían hecho en Intel, tanto a Hoff como, en menor medida, a Razor se les honró como es debido. Pero al pobre Faggin lo ocultaron debajo de la alfombra, pese a ser el principal responsable de la creación del microprocesador. Eso le pasó por irse de Intel para fundar un competidor, Zilog, cuyo producto estrella, el Z80, fue el corazón de muchos ordenadores personales de los 80, como el ZX Spectrum. De Shima se habla aún menos, y es que se fue con Faggin a Zilog. Pero los cuatro se merecen parte del mérito.
Ted Hoff, el ingeniero encargado del proyecto, pensó que sería mejor optar por un diseño mucho más general. En lugar de diseñar esa docena de chips que les habían encargado, podían hacer uno de propósito general y guardar las especificaciones de cada una de las calculadoras en un programa aparte. De este modo, cada aparato tendría sólo tres chips: el procesador, la memoria para almacenar los datos y los resultados de los cálculos y el que albergaba el programa. Todos serían circuitos que podrían reutilizarse.
Hoff fue el encargado de diseñar la arquitectura general del procesador, con la ayuda de Stan Mazor, pero pronto empezó a dedicarse a otros proyectos, así que el principal responsable de la difícil tarea de trasladar al silicio las ideas de sus compañeros fue Federico Faggin, con algo de ayuda de Masatoshi Shuma, empleado de una Busicom con la mosca detrás de la oreja ante los retrasos. Juntos crearon el Intel 4004, el primer microprocesador o, como lo llamaría Intel más tarde en sus folletos publicitarios, el primer "ordenador en un chip".
Ese eslogan, aunque algo exagerado, no estaba demasiado lejos de la realidad. El Intel 4004 tenía unos 2.300 transistores –un poco por debajo de las 3.000 válvulas del primer Univac– y sólo 4 bits, porque estaba pensado para calculadoras y le bastaba eso para trabajar con números decimales. Los de ahora andan por los 64 bits y unos pocos 1.200 millones de transistores.
El problema es que nuestros hombres concluyeron el encargo en la primavera del año 1971, y para entonces ya estaba desatada la guerra de las calculadoras. Busicom tenía problemas para sobrevivir y pidió a Intel una rebaja en el precio. La empresa californiana accedió, a cambio de poder vender su microprocesador a otras compañías. Ahora sabemos que aquel acuerdo dio comienzo a un negocio multimillonario, pero entonces no estaba tan claro. De hecho, el 4004, puesto a la venta el 15 de noviembre de 1971, no tuvo demasiado éxito, entre otras cosas porque su arquitectura de lo limitaba a productos como calculadoras o cajas registradoras.
El primer paso en una revolución
Pero Intel se puso a trabajar. En 1972 lanzaron el 8008, que era como su antecesor pero con 8 bits. Fue fruto de un encargo de Computer Terminal Corporation para uno de sus terminales Datapoint, fabricados para conectarlos a los enormes ordenadores de los 70. También diseñado por Faggin, el conjunto de instrucciones que aceptaba fue creado por CTC. Ese conjunto de instrucciones fue llevado, con algunos cambios, de microprocesador en microprocesador, hasta el 8088, que fue incluido en el primer PC, y de ahí al 80286, al 80386, al 80486, al Pentium, al Pentium Pro, al Pentium III, al Pentium IV, al Core, al Core 2 y a los Core i3, i5 e i7, que son los que empleamos hoy en día.
Al igual que sucediera con Busicom, CTC renunció a la exclusividad a cambio de ahorrarse unos dólares, y el 8008 fue empleado como controlador en muchos aparatos y en sistemas de procesamiento de texto. Pero fue el 8080 el primero que tuvo la calidad suficiente como para ser empleado como corazón de un ordenador. Y vaya si lo fue: el primer ordenador personal, el Altair 8800, usaba precisamente ese chip.
Una vez el mundo se dio cuenta de la importancia de lo que habían hecho en Intel, tanto a Hoff como, en menor medida, a Razor se les honró como es debido. Pero al pobre Faggin lo ocultaron debajo de la alfombra, pese a ser el principal responsable de la creación del microprocesador. Eso le pasó por irse de Intel para fundar un competidor, Zilog, cuyo producto estrella, el Z80, fue el corazón de muchos ordenadores personales de los 80, como el ZX Spectrum. De Shima se habla aún menos, y es que se fue con Faggin a Zilog. Pero los cuatro se merecen parte del mérito.
2011/05/23
El hombre que inventó el microprocesador
De cierta forma, Ted Hoff salvó su propia vida.
En lo profundo del cuerpo de este hombre de 73 años de edad hay un microprocesador: una diminuta computadora que controla su marcapasos y, éste, a su vez, su corazón.Él está consciente de esta curiosa coincidencia.
"Se siente bien", dice.
Los microprocesadores fueron inventados por un reducido grupo de visionarios dirigidos por Hoff en una startup del Silicon Valley llamada Intel.
Memoria
En 1967, Marcian Edward Hoff decidió dejar el mundo académico, tras haber completado su PhD en ingeniería eléctrica.Un empleo temporal de verano, desarrollando sistemas de señalización para trenes, lo había introducido en el mundo laboral y le había gustado.
Llegó entonces la llamada telefónica que le cambiaría la vida.
"Había visto al tipo sólo una vez antes. Su nombre era Bob Noyce. Me dijo que estaba reclutando empleados para una compañía y me preguntó si yo consideraría trabajar con él", cuenta Hoff.
Seis años antes, Robert Noyce, el fundador de Fairchild Semiconductor, había patentado el chip de silicio.
Ahora su ambición era otra, y estaba buscando los integrantes de un equipo que pudiera hacerla realidad.
"La entrevista fue en su casa y él no me dijo a que se dedicaría su nueva compañía", recuerda Hoff.
"Sin embargo, me preguntó su yo tenía alguna idea de cuál sería el próximo paso para los circuitos integrados, y le contesté: 'Memoria'".
En el clavo
Lo había adivinado. El plan de Noyce era hacer chips de memoria para grandes computadoras.Contrató a Hoff, quien se convirtió en el empleado número 12 de Intel.
En 1969, Busicom, una empresa de productos electrónicos japonesa, los contactó, pues estaba en pos de nuevos chips.
Quería algo que hiciera funcionar a una nueva línea de calculadoras y requería un sistema que usara 12 circuitos integrados distintos.
Hoff le apostó a mejorar la idea acomodando la mayoría de las funciones en una sola unidad procesadora central.
El resultado fue un sistema de cuatro chips, basado en el microprocesador 4004 de Intel.
Escépticos
El trabajo de Intel fue recibido inicialmente con escepticismo, señala Hoff.
El consenso favorecía el uso de muchos circuitos integrados simples en chips separados. Aquéllos podían ser producidos en masa y organizados en configuraciones distintas de acuerdo a las necesidades de los fabricantes de computadoras.
Y el sistema entero ofrecía las economías de escala.
Los microprocesadores, en contraste, eran considerados como altamente especializados, diseñados a un alto costo para que los usaran unos pocos manufactureros en un puñado de máquinas.
El tiempo demostró que los escépticos estaban 100% errados.
Así la producción masiva hiciera que bajara el precio de los microprocesadores al punto que fueran más baratos que sus rivales de chips múltiples, en todo caso no eran igual de potentes.
Es posible que los primeros consumidores de computadoras sacrificaran rendimiento para ahorrarse algo de dinero, pero no era precisamente de los procesadores que dependía el precio.
"La memoria todavía era cara", subraya Hoff.
"Una página de texto puede tener 3.000 caracteres. Eso costaba unos US$300".
"Si uno va a poner unos miles de dólares de memoria (en una computadora), ¿no es más sensato gastar US$500 en un procesador hecho en pequeña o mediana escala y tener 100 más rendimiento?".
"En esa época, no tenía sentido hablar de computadoras personales", dice.
Eventualmente, el precio de la memoria empezó a bajar y la capacidad de almacenamiento a subir.
El consenso favorecía el uso de muchos circuitos integrados simples en chips separados. Aquéllos podían ser producidos en masa y organizados en configuraciones distintas de acuerdo a las necesidades de los fabricantes de computadoras.
Y el sistema entero ofrecía las economías de escala.
Los microprocesadores, en contraste, eran considerados como altamente especializados, diseñados a un alto costo para que los usaran unos pocos manufactureros en un puñado de máquinas.
El tiempo demostró que los escépticos estaban 100% errados.
El precio de los caracteres
Intel enfrentaba otro problema.Así la producción masiva hiciera que bajara el precio de los microprocesadores al punto que fueran más baratos que sus rivales de chips múltiples, en todo caso no eran igual de potentes.
Es posible que los primeros consumidores de computadoras sacrificaran rendimiento para ahorrarse algo de dinero, pero no era precisamente de los procesadores que dependía el precio.
"La memoria todavía era cara", subraya Hoff.
"Una página de texto puede tener 3.000 caracteres. Eso costaba unos US$300".
"Si uno va a poner unos miles de dólares de memoria (en una computadora), ¿no es más sensato gastar US$500 en un procesador hecho en pequeña o mediana escala y tener 100 más rendimiento?".
"En esa época, no tenía sentido hablar de computadoras personales", dice.
Eventualmente, el precio de la memoria empezó a bajar y la capacidad de almacenamiento a subir.
La ley de Moore
Los productos de Intel empezaron a ser más y más atractivos, aunque tomó otros tres años y cuatro generaciones de chips antes de que uno de sus procesadores llegara a una computadora personal disponible comercialmente.
Pero Intel sabía que su sistema ganaría la partida al final.
Podía incluso predecir cuándo llegarían los microprocesadores a romper la barrera del precio/rendimiento.
En 1965, Gordon Moore, quien más tarde cofundaría Intel con Robert Noyce, hizo una audaz predicción.
"La complejidad de los circuitos integrados se duplicaría cada año con una reducción de costo conmensurable".
Y, como consecuencia, los precios bajan al mismo tiempo que las suben prestaciones.
La teoría, que eventualmente llegó a ser conocida como La Ley de Moore, fue más tarde revisada y refinada.
Hoy en día, declara que el número de transistores de un circuito integrado se duplicará apróximadamente cada dos años.
"Gordon siempre presentó su idea como una observación más que una ley", apunta Hoff.
Incluso en los primeros años, dice, Intel estaba superando las predicciones de Moore.
Los microprocesadores son ahora ubicuos.
No obstante, Hoff piensa que su versatilidad no ha sido aún plenamente apreciada.
"Una de las cosas que le critico a los medios de comunicación es que cuando hablan de microprocesadores se refieren a una computadora de escritorio o a una portátil.
"No se acuerdan de los automóviles, las cámaras digitales o los celulares que también usan cómputo", apunta.
Y se lanza a analizar el poder de procesamiento de las cámaras digitales, y cuánto poder de cómputo tienen hoy en día.
Como un verdadero experto en tecnología, lo que a él le interesa reside en la frontera más lejana de la ingeniería electrónica.
Los intentos por obligarlo a elevar sus logros personales o a evaluar su lugar en la historia terminan sólo en chistes.
Él prefiere hablar de sus proyectos actuales.
"Tengo un montón de computadoras aquí en casa y me la paso jugando con microcontroles. Me gusta programarlas y hacer que me resuelvan mis problemas técnicos".
Pero si Hoff se rehusa a reconocer su propio estatus, otros están ansiosos por hacerlo.
Quizás el honor más alto llegó en 2010, cuando el presidente de Estados Unidos, Barack Obama, le otorgó la Medalla Nacional de Tecnología e Innovación.
Su nombre está ahora al lado de otros galardonados, que incluyen a Gordon Moore, Robert Noyce, Steve Jobs, Bill Gates y Ray Dolby.
Como ellos, Hoff ayudó a moldear el mundo en el que vivimos hoy.
BBC Mundo
Pero Intel sabía que su sistema ganaría la partida al final.
Podía incluso predecir cuándo llegarían los microprocesadores a romper la barrera del precio/rendimiento.
En 1965, Gordon Moore, quien más tarde cofundaría Intel con Robert Noyce, hizo una audaz predicción.
"La complejidad de los circuitos integrados se duplicaría cada año con una reducción de costo conmensurable".
Y, como consecuencia, los precios bajan al mismo tiempo que las suben prestaciones.
La teoría, que eventualmente llegó a ser conocida como La Ley de Moore, fue más tarde revisada y refinada.
Hoy en día, declara que el número de transistores de un circuito integrado se duplicará apróximadamente cada dos años.
"Gordon siempre presentó su idea como una observación más que una ley", apunta Hoff.
Incluso en los primeros años, dice, Intel estaba superando las predicciones de Moore.
Chips omnipresentes
Con el paso de los años, la revolución de computadora personal echó raíces.Los microprocesadores son ahora ubicuos.
No obstante, Hoff piensa que su versatilidad no ha sido aún plenamente apreciada.
"Una de las cosas que le critico a los medios de comunicación es que cuando hablan de microprocesadores se refieren a una computadora de escritorio o a una portátil.
"No se acuerdan de los automóviles, las cámaras digitales o los celulares que también usan cómputo", apunta.
Y se lanza a analizar el poder de procesamiento de las cámaras digitales, y cuánto poder de cómputo tienen hoy en día.
Como un verdadero experto en tecnología, lo que a él le interesa reside en la frontera más lejana de la ingeniería electrónica.
Los intentos por obligarlo a elevar sus logros personales o a evaluar su lugar en la historia terminan sólo en chistes.
Él prefiere hablar de sus proyectos actuales.
"Tengo un montón de computadoras aquí en casa y me la paso jugando con microcontroles. Me gusta programarlas y hacer que me resuelvan mis problemas técnicos".
Pero si Hoff se rehusa a reconocer su propio estatus, otros están ansiosos por hacerlo.
Quizás el honor más alto llegó en 2010, cuando el presidente de Estados Unidos, Barack Obama, le otorgó la Medalla Nacional de Tecnología e Innovación.
Su nombre está ahora al lado de otros galardonados, que incluyen a Gordon Moore, Robert Noyce, Steve Jobs, Bill Gates y Ray Dolby.
Como ellos, Hoff ayudó a moldear el mundo en el que vivimos hoy.
BBC Mundo
2011/04/04
Los tablets con Intel Oak Trail empezarán a llegar en mayo
Intel espera que los primeros tablets con su chip Oak Trail empezarán a estar disponibles el próximo mes. La compañía anunció Oak Trail el año pasado en respuesta a la creciente demanda de tablets y el mes pasado ya aparecía su chip Z670 en su listado de precios. Lo que es seguro es que los tablets con Oak Trail podrán verse en el Computex, que tendrá lugar en Taipei entre el 31 de mayo y el 4 de junio.
Lenovo, Fujitsu, Samsung y Motion Computing son algunas de las compañías que ya han mostrado algunos tablets basados en Oak Trail funcionando con Windows 7. En el Consumer Electronic Show (CES) de Las Vegas, celebrado a primeros de año, Samsung mostró un híbrido entre PC y tablet llamado PC7 en el que la pantalla se deslizaba para convertir el dispositivo en un tablets.
Los tablets basados en Oak Trail podrán ofrecen hasta diez horas de vida de batería, dependiendo en todo caso de los tamaños de las pantallas y las configuraciones.
Intel ha diseñado el chip Oak Trail Z670 de un solo núcleo específicamente para tablets. El chip cuenta con hardware específico que decodifica rápidamente vídeo en alta definición y que acelera la reproducción de archivos MPEG en Windows Media Player. El fabricante de chips está utilizando un núcleo gráfico diferentes al que utiliza en sus procesadores Atom.
Inicialmente Intel ofreció sus chips para netbooks Pine Trail para el mercado tablet, pero sólo fueron adoptados por unas pocas compañías, como HP y Cisco. En todo caso Intel sigue siendo un pequeño fabricante si se le compara con ARM, cuyos procesadores están en la mayoría de los tablets, incluidos el iPad o el Samsung Galaxy Tab.
ITespresso
Lenovo, Fujitsu, Samsung y Motion Computing son algunas de las compañías que ya han mostrado algunos tablets basados en Oak Trail funcionando con Windows 7. En el Consumer Electronic Show (CES) de Las Vegas, celebrado a primeros de año, Samsung mostró un híbrido entre PC y tablet llamado PC7 en el que la pantalla se deslizaba para convertir el dispositivo en un tablets.
Los tablets basados en Oak Trail podrán ofrecen hasta diez horas de vida de batería, dependiendo en todo caso de los tamaños de las pantallas y las configuraciones.
Intel ha diseñado el chip Oak Trail Z670 de un solo núcleo específicamente para tablets. El chip cuenta con hardware específico que decodifica rápidamente vídeo en alta definición y que acelera la reproducción de archivos MPEG en Windows Media Player. El fabricante de chips está utilizando un núcleo gráfico diferentes al que utiliza en sus procesadores Atom.
Inicialmente Intel ofreció sus chips para netbooks Pine Trail para el mercado tablet, pero sólo fueron adoptados por unas pocas compañías, como HP y Cisco. En todo caso Intel sigue siendo un pequeño fabricante si se le compara con ARM, cuyos procesadores están en la mayoría de los tablets, incluidos el iPad o el Samsung Galaxy Tab.
ITespresso
2011/02/21
La nueva generación de procesadores Itanium, cada vez más cerca
Intel ha adelantado nuevos detalles de la nueva generación de procesadores Itanium de gama alta, a los que ha denominado ‘Poulson’. Llegarán con nueva arquitectura y proceso de fabricación de 32 nanómetros, justo la mitad que el utilizado en la anterior generación ’Tukwila’, la cual experimentó diversos retrasos y problemas.
Según Intel, se trata de una arquitectura que marcará los próximos años dentro de su línea de chips para servidores de gama alta y misión crítica y coexistirá sin problemas con la microarquitectura Xeon.
‘Poulson’ promete aumentar el rendimiento de forma considerable con respecto a la anterior generación de Itanium. Estos chips están construidos con un total de 3.100 millones de transistores, mientras que Tukwila tiene en la actualidad 2.000 millones. Además, tendrán ocho núcleos y hasta 54 MBytes de memoria caché dentro del encapsulado.
Aún cuando se ha utilizado tecnología de fabricación de 32 nanómetros, ‘Poulson’ será compatible a nivel de pines con los anteriores Itanium 9300 (Tukwila).
Mientras tanto, el ancho de banda se ha mejorado un 33% gracias a mayores velocidades en el bus de datos (128 GBytes/s). Justo lo contrario que ocurre con el consumo de energía, no sólo gracias al proceso de fabricación comentado anteriormente sino también a la monitorización y control más eficaz, reducción de la fuga de corriente eléctrica, etc.
Intel asegura que los nuevos ‘Poulson’ serán capaces de procesar el doble de instrucciones por segundo que la generación previa. Esta potencia permitirá competir en igualdad de condiciones con la arquitectura de su máximo rival en este segmento, los mainframe de IBM, no sólo en potencia sino también en fiabilidad, tal y como afirma Intel.
Aún no hay fecha oficial de lanzamiento, pero los nuevos Itanium ‘Poulson’ podrían entrar en producción durante 2012. Intel dará más detalles durante el congreso ISSCC (International Solid-State Circuits Conference).
Aunque el mercado de servidores está dominado en un 95% por las plataformas x86, lo cierto es que el 5% restante (donde se encuentran los Itanium y los mainframes) supone un 40% de los ingresos totales de este segmento, razón por la que Intel mantiene interés en esta arquitectura. HP es el principal ensamblador de servidores gobernados por Itanium.
eWeek
Según Intel, se trata de una arquitectura que marcará los próximos años dentro de su línea de chips para servidores de gama alta y misión crítica y coexistirá sin problemas con la microarquitectura Xeon.
‘Poulson’ promete aumentar el rendimiento de forma considerable con respecto a la anterior generación de Itanium. Estos chips están construidos con un total de 3.100 millones de transistores, mientras que Tukwila tiene en la actualidad 2.000 millones. Además, tendrán ocho núcleos y hasta 54 MBytes de memoria caché dentro del encapsulado.
Aún cuando se ha utilizado tecnología de fabricación de 32 nanómetros, ‘Poulson’ será compatible a nivel de pines con los anteriores Itanium 9300 (Tukwila).
Mientras tanto, el ancho de banda se ha mejorado un 33% gracias a mayores velocidades en el bus de datos (128 GBytes/s). Justo lo contrario que ocurre con el consumo de energía, no sólo gracias al proceso de fabricación comentado anteriormente sino también a la monitorización y control más eficaz, reducción de la fuga de corriente eléctrica, etc.
Intel asegura que los nuevos ‘Poulson’ serán capaces de procesar el doble de instrucciones por segundo que la generación previa. Esta potencia permitirá competir en igualdad de condiciones con la arquitectura de su máximo rival en este segmento, los mainframe de IBM, no sólo en potencia sino también en fiabilidad, tal y como afirma Intel.
Aún no hay fecha oficial de lanzamiento, pero los nuevos Itanium ‘Poulson’ podrían entrar en producción durante 2012. Intel dará más detalles durante el congreso ISSCC (International Solid-State Circuits Conference).
Aunque el mercado de servidores está dominado en un 95% por las plataformas x86, lo cierto es que el 5% restante (donde se encuentran los Itanium y los mainframes) supone un 40% de los ingresos totales de este segmento, razón por la que Intel mantiene interés en esta arquitectura. HP es el principal ensamblador de servidores gobernados por Itanium.
eWeek
2011/02/01
La tableta abre una pelea de chips
La dualidad de un procesador para el móvil y otro diferente para el portátil se acaba con la llegada de la tableta. Cada tipo de procesador destaca en un aspecto, por lo que el dilema es decidir el más conveniente para un aparato híbrido como la tableta, entre ordenador portátil y teléfono inteligente.
Hay dos grandes clases de procesadores: los basados en la arquitectura x86 y los ARM. Todos los ordenadores de sobremesa, portátiles y muchos servidores funcionan con procesadores x86, fabricados por Intel o por AMD. Los Mac también están basados en x86 desde que Apple se pasó a Intel en 2006.
Los teléfonos inteligentes y multitud de aparatos electrónicos, en cambio, están basados en la arquitectura ARM. Los sistemas operativos Symbian, Android, Windows Phone y los del iPhone y BlackBerry trabajan sobre procesadores ARM fabricados por Qualcomm, Renesas, Samsung, ST, Conexant o nVidia, firmas poco conocidas porque no se han preocupado como Intel de potenciar la imagen de marca de un procesador, pero son igualmente importantes.
Este desarrollo paralelo de ambas arquitecturas se explica porque dan prioridad a aspectos diferentes. La arquitectura x86 es adecuada para procesar internamente muchos datos mientras que la ARM es óptima para la comunicación de datos con el exterior con poco consumo de energía.
En la era del PC y del móvil no había problema, cada aparato tenía su procesador. En la era actual de Internet y multimedia, las comunicaciones y el proceso de datos y gráficos son claves tanto en un portátil como en un teléfono inteligente.
Y en un aparato híbrido como un ordenador de bolsillo o una tableta incluso más, con lo que el conflicto a la hora de elegir está servido. No hay una solución ideal y con decenas de productos en el mercado es difícil que un concepto prospere.
Cada dos años se coloca el doble número de transistores o elementos básicos de información en una misma superficie de silicio o chip. El nivel de integración es ahora tan elevado que no solamente todo el procesador de datos está dentro de un solo chip sino que también se incluye una gran memoria intermedia y todo el proceso de gráficos, que es lo que anunciaron recientemente Intel y AMD.
Al poner tantas cosas dentro de un chip tan diminuto se reduce el número de elementos y su tamaño, y se optimiza su funcionamiento porque los datos no tienen que entrar y salir de distintos componentes.
En los teléfonos inteligentes ha ocurrido lo mismo: el módem, que es el componente básico de las comunicaciones, se ha integrado con el procesador de datos y gráficos en un mismo chip, aumentando su capacidad y con un consumo mínimo de energía.
La integración en ambos casos está tan optimizada que las fortalezas básicas de ambas arquitecturas son ahora muy difusas. Se puede fabricar un portátil completo con la arquitectura ARM y un teléfono inteligente con la x86.
De hecho, cuando Intel quiso entrar en los móviles desarrolló una arquitectura ARM específica, pero hace cinco años se dio cuenta del potencial que quedaba al x86 y la abandonó. La plataforma Atom de Intel está basada en x86 y sirve para los miniportátiles, tabletas o consolas de televisión, como señala Antonino Albarrán, especialista de Intel España.
Intel anunció la segunda generación de procesadores Core i3, i5 e i7 con mayor capacidad de gráficos integrada, entre otras cosas. También lo hizo AMD con la familia Fusion, que no distingue entre proceso de datos y gráficos, todo está unido.
Hay dos grandes clases de procesadores: los basados en la arquitectura x86 y los ARM. Todos los ordenadores de sobremesa, portátiles y muchos servidores funcionan con procesadores x86, fabricados por Intel o por AMD. Los Mac también están basados en x86 desde que Apple se pasó a Intel en 2006.
Los teléfonos inteligentes y multitud de aparatos electrónicos, en cambio, están basados en la arquitectura ARM. Los sistemas operativos Symbian, Android, Windows Phone y los del iPhone y BlackBerry trabajan sobre procesadores ARM fabricados por Qualcomm, Renesas, Samsung, ST, Conexant o nVidia, firmas poco conocidas porque no se han preocupado como Intel de potenciar la imagen de marca de un procesador, pero son igualmente importantes.
Este desarrollo paralelo de ambas arquitecturas se explica porque dan prioridad a aspectos diferentes. La arquitectura x86 es adecuada para procesar internamente muchos datos mientras que la ARM es óptima para la comunicación de datos con el exterior con poco consumo de energía.
En la era del PC y del móvil no había problema, cada aparato tenía su procesador. En la era actual de Internet y multimedia, las comunicaciones y el proceso de datos y gráficos son claves tanto en un portátil como en un teléfono inteligente.
Y en un aparato híbrido como un ordenador de bolsillo o una tableta incluso más, con lo que el conflicto a la hora de elegir está servido. No hay una solución ideal y con decenas de productos en el mercado es difícil que un concepto prospere.
Cada dos años se coloca el doble número de transistores o elementos básicos de información en una misma superficie de silicio o chip. El nivel de integración es ahora tan elevado que no solamente todo el procesador de datos está dentro de un solo chip sino que también se incluye una gran memoria intermedia y todo el proceso de gráficos, que es lo que anunciaron recientemente Intel y AMD.
Al poner tantas cosas dentro de un chip tan diminuto se reduce el número de elementos y su tamaño, y se optimiza su funcionamiento porque los datos no tienen que entrar y salir de distintos componentes.
En los teléfonos inteligentes ha ocurrido lo mismo: el módem, que es el componente básico de las comunicaciones, se ha integrado con el procesador de datos y gráficos en un mismo chip, aumentando su capacidad y con un consumo mínimo de energía.
La integración en ambos casos está tan optimizada que las fortalezas básicas de ambas arquitecturas son ahora muy difusas. Se puede fabricar un portátil completo con la arquitectura ARM y un teléfono inteligente con la x86.
De hecho, cuando Intel quiso entrar en los móviles desarrolló una arquitectura ARM específica, pero hace cinco años se dio cuenta del potencial que quedaba al x86 y la abandonó. La plataforma Atom de Intel está basada en x86 y sirve para los miniportátiles, tabletas o consolas de televisión, como señala Antonino Albarrán, especialista de Intel España.
Intel anunció la segunda generación de procesadores Core i3, i5 e i7 con mayor capacidad de gráficos integrada, entre otras cosas. También lo hizo AMD con la familia Fusion, que no distingue entre proceso de datos y gráficos, todo está unido.
Cruce de tecnologías
El consumo de energía es tan bajo que muchos fabricantes utilizarán la familia Fusion para los portátiles ultracompactos. Serán parecidos a los miniportátiles, pero con prestaciones completas de portátil, indica Ramón Abad, director de negocio de consumo de AMD.
Qualcomm ha presentado el procesador MSM8960 del tamaño de una tarjeta de memoria MicroSD que lo lleva todo dentro: módem de comunicaciones, proceso de datos y gráfica, y con un consumo ridículo de energía. Eso facilitará móviles más potentes y finos, señala Eloy Fustero, de Qualcomm. Con este y otros chips se podrán fabricar móviles, tabletas y todo tipo de aparatos de bolsillo con Internet.
La integración en un componente hace que distintos rivales deban ponerse de acuerdo con las patentes, porque ya nadie puede decir que toda la tecnología de un producto es suya. Por eso Intel pagará a nVidia 1.100 millones de euros por utilizar sus patentes. La proliferación de sistemas operativos ligados a distintas arquitecturas de procesadores supone un quebradero de cabeza para los fabricantes. Por eso Steve Balmer, jefe de Microsoft, ha anunciado que la próxima versión de Windows funcionará igual en móviles que en ordenadores.
El Pais
Qualcomm ha presentado el procesador MSM8960 del tamaño de una tarjeta de memoria MicroSD que lo lleva todo dentro: módem de comunicaciones, proceso de datos y gráfica, y con un consumo ridículo de energía. Eso facilitará móviles más potentes y finos, señala Eloy Fustero, de Qualcomm. Con este y otros chips se podrán fabricar móviles, tabletas y todo tipo de aparatos de bolsillo con Internet.
La integración en un componente hace que distintos rivales deban ponerse de acuerdo con las patentes, porque ya nadie puede decir que toda la tecnología de un producto es suya. Por eso Intel pagará a nVidia 1.100 millones de euros por utilizar sus patentes. La proliferación de sistemas operativos ligados a distintas arquitecturas de procesadores supone un quebradero de cabeza para los fabricantes. Por eso Steve Balmer, jefe de Microsoft, ha anunciado que la próxima versión de Windows funcionará igual en móviles que en ordenadores.
El Pais
2011/01/29
La PC se renueva
El año tecnológico suele comenzar con el Show de Electrónica de Consumo (CES) de Las Vegas. Este año, sin embargo, fueron dos anuncios de la rama más tradicional de la informática los que dieron el puntapié inicial para el 2011 tecnológico, a los que se sumaron dos más que prometen cambiar el futuro de la PC.
El primer anuncio llegó de Intel, que presentó la segunda generación de sus chips Core i3, i5 e i7, en versiones para equipos de escritorio y portátiles.
Según develan los primeros análisis comparativos de los nuevos procesadores, ofrecen un rendimiento que puede ser hasta un 50% mayor que en la primera generación Core. Los nuevos Core, con 995 millones de transistores en su versión de 4 núcleos, están fabricados con tecnología de 32 nanómetros (grosso modo, el tamaño mínimo al que se logra construir un transistor).
Esto permite fabricar procesadores más pequeños, que consumen menos energía y son relativamente más baratos: entran más en cada wafer , el disco de silicio del que salen los microprocesadores en una fábrica (como los ravioles de una plancha).
La segunda generación de chips Core incluye una versión mejorada de la tecnología Turbo Boost, que permite aumentar la velocidad del chip más allá de la oficial para enfrentar un pico de demanda de recursos (de 3,4 GHz a 3,8 GHz, por ejemplo). AMD usa una técnica similar, llamada Turbo Core.
Pero lo más saliente de los nuevos Core está, paradójicamente, en la parte gráfica: no son los primeros chips de Intel los que ofrecen un procesador gráfico (GPU); de hecho, la primera generación Core también lo hacía; pero en este caso la performance es superior gracias a la integración, en la misma pastilla de silicio, de los núcleos del CPU, el GPU, el caché L3 y el controlador de memoria.
Los nuevos Core ofrecen aceleración de video 3D de calidad más que decente (en dos versiones, el modelo HD 3000 y el HD 2000) tanto para animar el sistema operativo como para acceder a juegos de calidad media; conversión de formatos multimedia basada en hardware (QuickSync); la segunda versión de la tecnología inalámbrica WiDi para ver en una pantalla grande lo que vemos en la PC sin usar cables; y soporte para reproducción de videos Full HD con 3D.
"A estos nuevos Core los consideramos como una diferencia en las experiencias visuales; ya se pueden comparar con placas de gráficos discretos para gran parte de las aplicaciones, con la excepción de juegos de alta gama", afirmó Steve Long, director de ventas de Intel para América latina.
Estos nuevos chips (que requieren un nuevo conector en el motherboard, el LGA-1155) ya están disponibles en computadoras de fabricantes locales, y llegarán en breve de la mano de marcas internacionales.
"El CPU es bueno para procesar código serial, y el GPU está optimizado para manejar gráficos y procesamiento masivo en paralelo. El APU ofrece un dispositivo que es bueno para las dos cosas -aclara José Luis Fernández, especialista en tecnología de AMD-. Los requerimientos computacionales de la gente han ido cambiando con los años, y hoy es mucho más importante la parte gráfica."
Así como Intel apunta al tope de línea con los Core i3, i5 e i7, AMD comenzó por una oferta de gama baja con la línea C (para netbooks, tabletas y ultraportátil) y la línea E (notebooks y equipos todo en uno), orientadas a ofrecer buena performance y bajo consumo de electricidad en equipos móviles, así que una comparación de rendimiento entre ambas estrategias todavía no es posible.
Habrá que esperar a que, más entrado el año, AMD presente APUs Fusion para equipos de escritorio, portátiles de alta gama y demás con la línea A (también de 32 nanómetros y llegando a los 4 núcleos).
Lo disponible ahora apunta a un consumo mínimo de energía (entre 40 y 9 watts, según el modelo), lo que permite ofrecer equipos con una autonomía que, según la compañía, ronda las nueve horas, brindando un chip capaz de reproducir video en Full HD, ser compatible con DirectX 11, y ofrecer una performance computacional razonable. En un punto, la línea C puede verse como la respuesta al Atom de Intel, integrando en el camino un GPU de mayor calibre (al estilo del Ion 2 de Nvidia).
Hay versiones de uno o más núcleos, como el E-350: dos núcleos a 1,6 GHz, consume 18 watts de energía, incluye como GPU un Radeon HD 6310, y ya se usa en una HP dm1: otros fabricantes como Acer, HP, Toshiba o Lenovo también preparan equipos para esta plataforma.
Aunque todavía faltan los análisis comparativos de las propuestas de ambas compañías, hay algo que está claro: la compra de una tarjeta de video 3D discreta (es decir, separada del chip central) queda cada vez más relegada a los equipos de alta gama y los jugadores capaces de invertir más dinero en una placa especializada.
El énfasis en la reproducción multimedia y en el bajo consumo energético no puede soslayarse cuando la PC está mutando de forma (como lo demuestra la variedad de notebooks y tabletas presentadas en la última CES) y cuando dispositivos móviles como la iPad comienzan a calcularse en el conteo total de ventas de PC.
Así, según la consultora especializada Canalys, fueron casi 106 millones de equipos los que se vendieron en el último trimestre del año, con HP liderando las ventas, seguida por Acer y Apple (que sólo mantiene el tercer puesto si se toman las iPads vendidas).
La compañía anunció por un lado un acuerdo con Intel: recibirá US$ 1500 millones a cambio de permitirle el acceso a su tecnología de gráficos 3D (que seguramente veremos en los próximos chips de Intel). Pero también informó que está trabajando en lo que llama Proyecto Denver, un CPU de arquitectura ARM para servidores y workstations, también con GPU integrado.
ARM es la arquitectura presente en todos los smartphones y tabletas modernos, y una de sus grandes cualidades es la performance que logra con un bajo consumo energético.
"Lo que vemos como una necesidad del mercado es un CPU ARM de alta potencia y bajo consumo de energía, muy atractivo para los centros de datos que necesitan concentrar mucho poder de cálculo en poco espacio, y evitar los problemas de refrigeración que trae un centro de cómputos tradicional", explicó Michael Lasen, director de marketing para América latina de Nvidia.
El chip estará probablemente basado en un Cortex-A15, contará con varios núcleos y tendrá a su disposición al menos dos sistemas operativos: Linux, que hace tiempo está disponible para ARM, y Windows.
Es que la cuarta noticia notable de la primera quincena de enero vino a través de la palabra de Steven Sinofsky, presidente de la división Windows de Microsoft, que anunció en la CES que la próxima versión del sistema operativo de la compañía, Windows 8 (para el que todavía no se tiene fecha), correrá en chips x86 de Intel y AMD, y en procesadores ARM como los que fabrican Nvidia, Qualcomm, Texas Instruments y otras compañías.
La intención clara de la empresa es llevar Windows, el alma histórica de la PC, a otros formatos y situaciones de uso, aplicando este sistema operativo más allá del equipo de escritorio o la notebook; claramente Microsoft está pensando en tabletas, dispositivos convertibles y equipos embebidos (en televisores y automóviles, por ejemplo) antes de que otros sistemas operativos nacidos con una visión totalmente móvil, como Android o iOS, dominen ese segmento.
La Nacion
El primer anuncio llegó de Intel, que presentó la segunda generación de sus chips Core i3, i5 e i7, en versiones para equipos de escritorio y portátiles.
Según develan los primeros análisis comparativos de los nuevos procesadores, ofrecen un rendimiento que puede ser hasta un 50% mayor que en la primera generación Core. Los nuevos Core, con 995 millones de transistores en su versión de 4 núcleos, están fabricados con tecnología de 32 nanómetros (grosso modo, el tamaño mínimo al que se logra construir un transistor).
Esto permite fabricar procesadores más pequeños, que consumen menos energía y son relativamente más baratos: entran más en cada wafer , el disco de silicio del que salen los microprocesadores en una fábrica (como los ravioles de una plancha).
La segunda generación de chips Core incluye una versión mejorada de la tecnología Turbo Boost, que permite aumentar la velocidad del chip más allá de la oficial para enfrentar un pico de demanda de recursos (de 3,4 GHz a 3,8 GHz, por ejemplo). AMD usa una técnica similar, llamada Turbo Core.
Pero lo más saliente de los nuevos Core está, paradójicamente, en la parte gráfica: no son los primeros chips de Intel los que ofrecen un procesador gráfico (GPU); de hecho, la primera generación Core también lo hacía; pero en este caso la performance es superior gracias a la integración, en la misma pastilla de silicio, de los núcleos del CPU, el GPU, el caché L3 y el controlador de memoria.
Los nuevos Core ofrecen aceleración de video 3D de calidad más que decente (en dos versiones, el modelo HD 3000 y el HD 2000) tanto para animar el sistema operativo como para acceder a juegos de calidad media; conversión de formatos multimedia basada en hardware (QuickSync); la segunda versión de la tecnología inalámbrica WiDi para ver en una pantalla grande lo que vemos en la PC sin usar cables; y soporte para reproducción de videos Full HD con 3D.
"A estos nuevos Core los consideramos como una diferencia en las experiencias visuales; ya se pueden comparar con placas de gráficos discretos para gran parte de las aplicaciones, con la excepción de juegos de alta gama", afirmó Steve Long, director de ventas de Intel para América latina.
Estos nuevos chips (que requieren un nuevo conector en el motherboard, el LGA-1155) ya están disponibles en computadoras de fabricantes locales, y llegarán en breve de la mano de marcas internacionales.
La fusión de AMD
Al mismo tiempo que Intel, AMD presentó Fusion, plataforma que combina procesadores centrales (CPU) y gráficos (GPU) en un nuevo tipo de unidad de procesamiento, que la compañía llama APU, las siglas en inglés de Unidad de Procesamiento Acelerada. Como en el caso de Intel, se trata de un chip que combina un CPU y un GPU en el mismo silicio, algo que AMD también ya ofrecía, pero no como una plataforma."El CPU es bueno para procesar código serial, y el GPU está optimizado para manejar gráficos y procesamiento masivo en paralelo. El APU ofrece un dispositivo que es bueno para las dos cosas -aclara José Luis Fernández, especialista en tecnología de AMD-. Los requerimientos computacionales de la gente han ido cambiando con los años, y hoy es mucho más importante la parte gráfica."
Así como Intel apunta al tope de línea con los Core i3, i5 e i7, AMD comenzó por una oferta de gama baja con la línea C (para netbooks, tabletas y ultraportátil) y la línea E (notebooks y equipos todo en uno), orientadas a ofrecer buena performance y bajo consumo de electricidad en equipos móviles, así que una comparación de rendimiento entre ambas estrategias todavía no es posible.
Habrá que esperar a que, más entrado el año, AMD presente APUs Fusion para equipos de escritorio, portátiles de alta gama y demás con la línea A (también de 32 nanómetros y llegando a los 4 núcleos).
Lo disponible ahora apunta a un consumo mínimo de energía (entre 40 y 9 watts, según el modelo), lo que permite ofrecer equipos con una autonomía que, según la compañía, ronda las nueve horas, brindando un chip capaz de reproducir video en Full HD, ser compatible con DirectX 11, y ofrecer una performance computacional razonable. En un punto, la línea C puede verse como la respuesta al Atom de Intel, integrando en el camino un GPU de mayor calibre (al estilo del Ion 2 de Nvidia).
Hay versiones de uno o más núcleos, como el E-350: dos núcleos a 1,6 GHz, consume 18 watts de energía, incluye como GPU un Radeon HD 6310, y ya se usa en una HP dm1: otros fabricantes como Acer, HP, Toshiba o Lenovo también preparan equipos para esta plataforma.
Aunque todavía faltan los análisis comparativos de las propuestas de ambas compañías, hay algo que está claro: la compra de una tarjeta de video 3D discreta (es decir, separada del chip central) queda cada vez más relegada a los equipos de alta gama y los jugadores capaces de invertir más dinero en una placa especializada.
El énfasis en la reproducción multimedia y en el bajo consumo energético no puede soslayarse cuando la PC está mutando de forma (como lo demuestra la variedad de notebooks y tabletas presentadas en la última CES) y cuando dispositivos móviles como la iPad comienzan a calcularse en el conteo total de ventas de PC.
Así, según la consultora especializada Canalys, fueron casi 106 millones de equipos los que se vendieron en el último trimestre del año, con HP liderando las ventas, seguida por Acer y Apple (que sólo mantiene el tercer puesto si se toman las iPads vendidas).
Nvidia y Microsoft
La otra noticia que promete redefinir lo que entendemos por PC vino de la mano de Nvidia, de gran relevancia en la última CES por Tegra 2, su chip ARM de doble núcleo que está en las tabletas más avanzadas del momento y en varios smartphones de alta gama.La compañía anunció por un lado un acuerdo con Intel: recibirá US$ 1500 millones a cambio de permitirle el acceso a su tecnología de gráficos 3D (que seguramente veremos en los próximos chips de Intel). Pero también informó que está trabajando en lo que llama Proyecto Denver, un CPU de arquitectura ARM para servidores y workstations, también con GPU integrado.
ARM es la arquitectura presente en todos los smartphones y tabletas modernos, y una de sus grandes cualidades es la performance que logra con un bajo consumo energético.
"Lo que vemos como una necesidad del mercado es un CPU ARM de alta potencia y bajo consumo de energía, muy atractivo para los centros de datos que necesitan concentrar mucho poder de cálculo en poco espacio, y evitar los problemas de refrigeración que trae un centro de cómputos tradicional", explicó Michael Lasen, director de marketing para América latina de Nvidia.
El chip estará probablemente basado en un Cortex-A15, contará con varios núcleos y tendrá a su disposición al menos dos sistemas operativos: Linux, que hace tiempo está disponible para ARM, y Windows.
Es que la cuarta noticia notable de la primera quincena de enero vino a través de la palabra de Steven Sinofsky, presidente de la división Windows de Microsoft, que anunció en la CES que la próxima versión del sistema operativo de la compañía, Windows 8 (para el que todavía no se tiene fecha), correrá en chips x86 de Intel y AMD, y en procesadores ARM como los que fabrican Nvidia, Qualcomm, Texas Instruments y otras compañías.
La intención clara de la empresa es llevar Windows, el alma histórica de la PC, a otros formatos y situaciones de uso, aplicando este sistema operativo más allá del equipo de escritorio o la notebook; claramente Microsoft está pensando en tabletas, dispositivos convertibles y equipos embebidos (en televisores y automóviles, por ejemplo) antes de que otros sistemas operativos nacidos con una visión totalmente móvil, como Android o iOS, dominen ese segmento.
La Nacion
2011/01/19
Procesadores de 225 núcleos podrían llegar en 2013
La joven compañía Tilera Corporation, creada hace tan sólo seis años, está especializada en el diseño y fabricación de procesadores multinúcleo escalables. Muchas grandes compañías llevan ese tiempo prestando atención a sus desarrollos y en estos momentos se encuentra recibiendo su cuarta inyección económica, por valor de 45 millones de dólares.
Los inversores han sido principalmente Cisco, Samsung y un conglomerado de firmas de capital riesgo, que han visto en los desarrollos de Tilera una gran oportunidad de negocio en entornos de creciente expansión como el cloud computing y entornos de computación de alto rendimiento.
Las arquitecturas desarrolladas por Tilera no son x86, y su característica principal es la escalabilidad de núcleos y el reducido consumo energético. En la actualidad se encuentran en plena fase de fabricación de procesadores de entre 36 y 64 núcleos y tienen prevista una tercera generación capaz de escalarse hasta los 100 núcleos, la cual llegará a finales de año. Gracias al dinero recaudado con esta nueva inyección, el fabricante estima que para 2013 esté preparada una nueva generación de microprocesadores (con nombre en clave ‘Straton’) de hasta 225 núcleos.
Tilera seguirá de esta forma el ritmo de otros fabricantes alternativos a la arquitectura x86 que buscan acceder no sólo al segmento de dispositivos móviles sino también al de servidores de bajo consumo y elevado rendimiento, con ARM a la cabeza.
eWeek
Los inversores han sido principalmente Cisco, Samsung y un conglomerado de firmas de capital riesgo, que han visto en los desarrollos de Tilera una gran oportunidad de negocio en entornos de creciente expansión como el cloud computing y entornos de computación de alto rendimiento.
Las arquitecturas desarrolladas por Tilera no son x86, y su característica principal es la escalabilidad de núcleos y el reducido consumo energético. En la actualidad se encuentran en plena fase de fabricación de procesadores de entre 36 y 64 núcleos y tienen prevista una tercera generación capaz de escalarse hasta los 100 núcleos, la cual llegará a finales de año. Gracias al dinero recaudado con esta nueva inyección, el fabricante estima que para 2013 esté preparada una nueva generación de microprocesadores (con nombre en clave ‘Straton’) de hasta 225 núcleos.
Tilera seguirá de esta forma el ritmo de otros fabricantes alternativos a la arquitectura x86 que buscan acceder no sólo al segmento de dispositivos móviles sino también al de servidores de bajo consumo y elevado rendimiento, con ARM a la cabeza.
eWeek
2011/01/07
Intel presenta nueva generación de chips junto a estudios de cine
Intel, el mayor fabricante mundial de chips, presentó junto a varios estudios de cine su nueva generación de microprocesadores "Intel Core" ("Sandy Bridge"), especializados en el rápido procesamiento de señales de video.
Intel realizó la presentación junto a los estudios de Hollywood Warner Bros. y Fox, así como algunas productoras indias de Bollywood, en la feria internacional CES 2011 en Las Vegas.
El nuevo chip permite que películas en HD o 3D sean trasmitidos con protección contra copia a través de Internet a la PC y la televisión.
El ejecutivo de Intel Shmuel "Mooly" Eden afirmó que los nuevos chips de Intel son un 60 por ciento más rápidos que los hasta ahora más poderosos chips de "Intel Core". Agregó que en comparación con una PC de tres años de antigedad incluso son un 800 por ciento más potentes.
La Segunda
Intel realizó la presentación junto a los estudios de Hollywood Warner Bros. y Fox, así como algunas productoras indias de Bollywood, en la feria internacional CES 2011 en Las Vegas.
El nuevo chip permite que películas en HD o 3D sean trasmitidos con protección contra copia a través de Internet a la PC y la televisión.
El ejecutivo de Intel Shmuel "Mooly" Eden afirmó que los nuevos chips de Intel son un 60 por ciento más rápidos que los hasta ahora más poderosos chips de "Intel Core". Agregó que en comparación con una PC de tres años de antigedad incluso son un 800 por ciento más potentes.
La Segunda
2010/12/31
Crean un prototipo del procesador de 1.000 núcleos
Un equipo de investigadores de la Universidad Glasgow (Escocia) ha conseguido fabricar un prototipo de procesador con 1.000 núcleos que consigue alcanzar los 5GB por segundo, según sus credores.
El equipo de investigadores que han llevado a cabo el proyecto asegura que este procesador puede llegar a ser hasta 20 veces más rápido que los convencionales, según las pruebas experimentales.
Los responsables del proyecto lo han logrado utilizando dispositivos FPGA (Field Programmable Gate Array), semiconductores que contienen bloques de lógica cuya interconexión puede ser configurada. Los investigadores dividieron millones de transistores de un FPGA en 1.000 minicircuitos, cada uno de los cuales procesa sus propias instrucciones, según informa ReadWriteWeb.
Pero no sólo los centros docentes están interesados en este tipo de avances, ya que también compañías del sector como Intel han expresado su interés por seguir aumentando el número de núcleos de los procesadores.
En este sentido, desde Intel aseguran que la arquitectura de 48 núcleos que actualmente utilizan en los Single Chip Cloud Computer (SCC) es “arbitrariamente escalable”, de manera que sería posible llegar a los 1.000 núcleos.
Aunque este tipo de procesadores podrían llegar a ser contraproducentes ya que el diámetro de la malla (la red de conexión de los chips) superaría las dimensiones óptimas y podrían tener un impacto negativo en el rendimiento, según explicaba un investigador de Intel.
the INQUIRER
El equipo de investigadores que han llevado a cabo el proyecto asegura que este procesador puede llegar a ser hasta 20 veces más rápido que los convencionales, según las pruebas experimentales.
Los responsables del proyecto lo han logrado utilizando dispositivos FPGA (Field Programmable Gate Array), semiconductores que contienen bloques de lógica cuya interconexión puede ser configurada. Los investigadores dividieron millones de transistores de un FPGA en 1.000 minicircuitos, cada uno de los cuales procesa sus propias instrucciones, según informa ReadWriteWeb.
Pero no sólo los centros docentes están interesados en este tipo de avances, ya que también compañías del sector como Intel han expresado su interés por seguir aumentando el número de núcleos de los procesadores.
En este sentido, desde Intel aseguran que la arquitectura de 48 núcleos que actualmente utilizan en los Single Chip Cloud Computer (SCC) es “arbitrariamente escalable”, de manera que sería posible llegar a los 1.000 núcleos.
Aunque este tipo de procesadores podrían llegar a ser contraproducentes ya que el diámetro de la malla (la red de conexión de los chips) superaría las dimensiones óptimas y podrían tener un impacto negativo en el rendimiento, según explicaba un investigador de Intel.
the INQUIRER
2010/12/28
Científicos crean procesador de mil núcleos
Un grupo de investigadores de la Universidad de Glasgow, Escocia, creó un chip que tiene mil núcleos, aumentando así hasta 20 veces el rendimiento en comparación con los procesadores actuales.
Actualmente un computador moderno tiene un procesador con dos o cuatro núcleos, a veces hasta 16, para realizar las tareas, por lo que éste avance tecnológico representa un importante cambio dentro de la industria.
De igual manera, esta creación hará la CPU también sería más eficiente y al mismo tiempo ahorrare energía respecto a los actuales computadores.
El procesador fue desarrollado con el vigente acuerdo de la FPGA (Field Programmable Puerto), que le permite administrar los transistores, los cuales a su vez permitirán al usuario definir las funciones específicas para ciertos circuitos y que las tareas van a realizar.
Entre los colaboradores de este innovador proyecto se encuentra la Universidad de Valencia, dirigido por el profesor Dr. Wim Vanderbauwhede, y la Universidad de Massachusetts Lowell.
Emol
Actualmente un computador moderno tiene un procesador con dos o cuatro núcleos, a veces hasta 16, para realizar las tareas, por lo que éste avance tecnológico representa un importante cambio dentro de la industria.
De igual manera, esta creación hará la CPU también sería más eficiente y al mismo tiempo ahorrare energía respecto a los actuales computadores.
El procesador fue desarrollado con el vigente acuerdo de la FPGA (Field Programmable Puerto), que le permite administrar los transistores, los cuales a su vez permitirán al usuario definir las funciones específicas para ciertos circuitos y que las tareas van a realizar.
Entre los colaboradores de este innovador proyecto se encuentra la Universidad de Valencia, dirigido por el profesor Dr. Wim Vanderbauwhede, y la Universidad de Massachusetts Lowell.
Emol
2010/11/22
El procesador de 1.000 núcleos es posible, según Intel
Uno de los investigadores de Intel ha señalado que la arquitectura de 48 núcleos que actualmente Intel utiliza en los Single Chip Cloud Computer (SCC) es “arbitrariamente escalable”, de manera que sería posible llegar a los 1.000 núcleos.
Así lo cree Timothy Mattson, que ha señalado que dicha arquitectura podría llegar “en principio” a los 1.000 núcleos “porque podemos seguir añadiendo, añadiendo y añadiendo núcleos”.
En este sentido, Mattson también ha señalado que, a pesar de ser posible, los procesadores de 1.000 núcleos podrían suponer otros problemas ya que el diámetro de la malla (la red de conexión de los chips) superaría las dimensiones óptimas y podrían tener un impacto negativo en el rendimiento.
A pesar de estos inconvenientes, Mattson ha dejado claro que el futuro de la industria de los procesadores pasa por la instalación de cada vez más núcleos en un solo chip, aunque quizá 1.000 sean demasiados.
the INQUIRER
Así lo cree Timothy Mattson, que ha señalado que dicha arquitectura podría llegar “en principio” a los 1.000 núcleos “porque podemos seguir añadiendo, añadiendo y añadiendo núcleos”.
En este sentido, Mattson también ha señalado que, a pesar de ser posible, los procesadores de 1.000 núcleos podrían suponer otros problemas ya que el diámetro de la malla (la red de conexión de los chips) superaría las dimensiones óptimas y podrían tener un impacto negativo en el rendimiento.
A pesar de estos inconvenientes, Mattson ha dejado claro que el futuro de la industria de los procesadores pasa por la instalación de cada vez más núcleos en un solo chip, aunque quizá 1.000 sean demasiados.
the INQUIRER
2010/09/10
Un procesador que hace "volar" a los smartphones
Silicon News
El procesador ha sido tradicionalmente el caballo de batalla de los sistemas operativos, y cuando se trata de smartphones, la eficacia y la rapidez multiplican exponencialmente su importancia. Tratándose de dispositivos pequeños con memorias internas que no permiten florituras, es necesario buscar los mejores resultados en el menor espacio. Las compañías lo saben y por eso se afanan en presentar la solución definitiva a los fabricantes. ARM parece haber dado con la piedra angular del negocio de los smartphones: un microprocesador capaz de multiplicar por cinco la velocidad de los dispositivos. Además, el chip también podrá ser utilizado en tablets, en plena lucha de fabricantes por encontrar el IPad-killer.
La compañía inglesa ARM se asociará con los gigantes Texas Instruments, Samsung o Apple, entre otros, para desarrollar este microprocesador, bautizado como Cortex A-15 MPCore, que los socios incoroporarán previsiblemente a sus dispostivos. Esta noticia supone una llamada de atención a Intel, que trata de convertirse en el líder de fabricación de chips para smartphones con sus procesadores Atom, versiones más "ligeras" de sus procesadores x86 para ordenadores personales.
Según la compañía fabricante, este dispositivo podrá ser implantado en los smartphones de nueva generación, tablets e incluso en dispositivos domésticos de ocio digital. Las empresas también podrán beneficiarse de este chip "multiplicador" de rendimiento y velocidad, aplicándolo por ejemplo a los servidores, que normalmente usan procesadores Intel.
El procesador ha sido tradicionalmente el caballo de batalla de los sistemas operativos, y cuando se trata de smartphones, la eficacia y la rapidez multiplican exponencialmente su importancia. Tratándose de dispositivos pequeños con memorias internas que no permiten florituras, es necesario buscar los mejores resultados en el menor espacio. Las compañías lo saben y por eso se afanan en presentar la solución definitiva a los fabricantes. ARM parece haber dado con la piedra angular del negocio de los smartphones: un microprocesador capaz de multiplicar por cinco la velocidad de los dispositivos. Además, el chip también podrá ser utilizado en tablets, en plena lucha de fabricantes por encontrar el IPad-killer.
La compañía inglesa ARM se asociará con los gigantes Texas Instruments, Samsung o Apple, entre otros, para desarrollar este microprocesador, bautizado como Cortex A-15 MPCore, que los socios incoroporarán previsiblemente a sus dispostivos. Esta noticia supone una llamada de atención a Intel, que trata de convertirse en el líder de fabricación de chips para smartphones con sus procesadores Atom, versiones más "ligeras" de sus procesadores x86 para ordenadores personales.
Según la compañía fabricante, este dispositivo podrá ser implantado en los smartphones de nueva generación, tablets e incluso en dispositivos domésticos de ocio digital. Las empresas también podrán beneficiarse de este chip "multiplicador" de rendimiento y velocidad, aplicándolo por ejemplo a los servidores, que normalmente usan procesadores Intel.
2010/06/07
Sandy Bridge será un 22% más pequeño
Fuente: the INQUIRER.
La próxima generación de microprocesadores de Intel, con nombre en clave “Sandy Bridge”, será notablemente inferior en dimensiones a la actual familia de procesadores Arrandale/Clarksfield, lo que favorecerá al usuario en diversos apartados.
Los actuales procesadores con empaquetado BGA verán reducido su tamaño en un 22%, una cifra considerable que permitirá entre otras cosas hacer portátiles aún más delgados y con un diseño más compacto sin renunciar a las prestaciones y consumo de estos microprocesadores.
Los nuevos Sandy Bridge llegarán tanto en forma de CPUs dual-core como quad-core, y deberían comenzar a venderse en el primer trimestre de 2001. Además también deberían llegar acompañados de las soluciones híbridas de Intel que combinarán CPU y GPU en una sola die y que competirán con el proyecto Fusion de AMD que hace poco se dejó ver en Computex.
La próxima generación de microprocesadores de Intel, con nombre en clave “Sandy Bridge”, será notablemente inferior en dimensiones a la actual familia de procesadores Arrandale/Clarksfield, lo que favorecerá al usuario en diversos apartados.
Los actuales procesadores con empaquetado BGA verán reducido su tamaño en un 22%, una cifra considerable que permitirá entre otras cosas hacer portátiles aún más delgados y con un diseño más compacto sin renunciar a las prestaciones y consumo de estos microprocesadores.
Los nuevos Sandy Bridge llegarán tanto en forma de CPUs dual-core como quad-core, y deberían comenzar a venderse en el primer trimestre de 2001. Además también deberían llegar acompañados de las soluciones híbridas de Intel que combinarán CPU y GPU en una sola die y que competirán con el proyecto Fusion de AMD que hace poco se dejó ver en Computex.
2010/06/02
Knights Corner, la CPU con 50 núcleos de Intel
Fuente: the INQUIRER.
Intel ha dado la sorpresa con el anuncio de los primeros planes para implementar un procesador multicore que tendrá como nombre en clave Knights Corner y que estará fabricado en tecnología de 22 nanómetros.
Esa escala de integración podría además combinarse con el uso de una nueva arquitectura basada en la ya conocida x86 que se llamaría Many Integrated Core y que permitiría que pequeños núcleos pudieran trabajar juntos.
Se espera que Intel llegue a producir micros con hasta 50 núcleos una vez la tecnología esté pulida, y aunque el diseño aún no ha sido descrita en detalle se basa en el diseño del Single-Chip Cloud Computer con 48 núcleos y en un ahora cancelado proyecto Larrabee que al menos podría ser útil para desarrollar ideas que van en ese camino.
Intel ha dado la sorpresa con el anuncio de los primeros planes para implementar un procesador multicore que tendrá como nombre en clave Knights Corner y que estará fabricado en tecnología de 22 nanómetros.
Esa escala de integración podría además combinarse con el uso de una nueva arquitectura basada en la ya conocida x86 que se llamaría Many Integrated Core y que permitiría que pequeños núcleos pudieran trabajar juntos.
Se espera que Intel llegue a producir micros con hasta 50 núcleos una vez la tecnología esté pulida, y aunque el diseño aún no ha sido descrita en detalle se basa en el diseño del Single-Chip Cloud Computer con 48 núcleos y en un ahora cancelado proyecto Larrabee que al menos podría ser útil para desarrollar ideas que van en ese camino.
2010/05/19
Infineon negocia la venta de su división de chips para móviles con Intel
Fuente: Cinco Dias.
El grupo alemán Infineon está negociando la venta de su división dedicada a la fabricación de chips para móviles con Intel, según publicó ayer la versión germana del Financial Times, citando fuentes de la empresa sin identificar.
No obstante, el propio rotativo precisa que dentro de Infineon no tienen claro si una desinversión de este tipo tendría sentido. La empresa suministra chips para el nuevo iPad de Apple, así como otros componentes para Nokia, Samsung y Research in Motion.
Algunos analistas entienden que lo que le interesaría a Intel es hacerse con el negocio de wireless. Sin embargo, el consejero delegado de Infineon, Peter Bauer, ya apuntó en marzo, en una entrevista con Reuters, que no veía razones para que la empresa no tratara de desarrollar este negocio. Ayer, las acciones de Infineon cerraron con un avance del 0,41%.
No obstante, el propio rotativo precisa que dentro de Infineon no tienen claro si una desinversión de este tipo tendría sentido. La empresa suministra chips para el nuevo iPad de Apple, así como otros componentes para Nokia, Samsung y Research in Motion.
Algunos analistas entienden que lo que le interesaría a Intel es hacerse con el negocio de wireless. Sin embargo, el consejero delegado de Infineon, Peter Bauer, ya apuntó en marzo, en una entrevista con Reuters, que no veía razones para que la empresa no tratara de desarrollar este negocio. Ayer, las acciones de Infineon cerraron con un avance del 0,41%.
Suscribirse a:
Entradas (Atom)