Buscar

2008/11/19

AMD K10.5 y Fusion para Junio de 2009 y 2011 respectivamente

Fuente: islaBit.
El mayor problema que tiene AMD es la falta de un procesador 45nm de doble núcleo que sea capaz de competir con los Core 2 Duo de Intel. La posible solución puede venir en junio del próximo año. La serie Athlon X2 200, nombre en clave Regor, de doble núcleo con 2 MB de caché que debe de trabajar a velocidades superiores a 2.8 GHz puede ser un buen candidato para competir a fondo en el mercado de los ordenadores domésticos.
Por otra parte, el Fusion (GPU en una CPU), que se esperaba a finales de 2009 o principios de 2010 en 45nm, se retrasará a 2011, ya que AMD ha reorganizado su plan de trabajo al darse cuenta que Fusion tiene más sentido en proceso de 32nm. Pero esto le da cierta ventaja a Intel.
Intel tendrá ventaja en el mercado móvil al tener planeado introducir su Havendale en el primer trimestre de 2010. Este también ha presentado un retraso, que se suponía que estaría a finales de 2009.

Nvidia anuncia el primer "supercomputador" disponible para el mercado

Fuente: emol.

Hoy, NVIDIA anunció un “supercomputador” personal, basado en una GPU Tesla, de este fabricante de procesadores. La particular máquina tiene la potencia equivalente de un nodo computacional, pero por un centésimo del precio y en el formato de un computador de escritorio normal.

“Todos hemos escuchado del supercomputador de escritorio en el pasado, pero esta vez es real”, dijo Burton Smith, técnico asociado de Microsoft. “NVIDIA y sus socios ortorgarán un rendimiento inédito y una amplia aplicabilidad al mercado. La computación heterogénea, donde las GPU trabajan en línea con las CPU, es lo que hace tal avance posible”.

Con el precio de un PC convencional, pero que entrega 250 veces el poder de procesamiento, los investigadores tienen el poder para realizar cómputos complejos en su mismo computador, procesando más datos más rápido, y acortando su tiempo para lograr más descubrimientos, según explicó la empresa en un comunicado.

“Las GPU han evolucionado al punto donde muchas aplicaciones del mundo real pueden ser fácilmente implementadas en ellas, y correr de forma significativamente rápida en sistemas de múltiples núcleos”, dijo el profesor Jack Dongarra, director del laboratorio de computación innovadora en la Universidad de Tennesse, y autor de LINPACK. “Las arquitecturas de la computación futura serán sistemas híbridos con núcleos paralelos en la GPU, trabajando en línea con CPU de multi-núcleos”.

En el núcleo del Tesla Personal Supercomputer, está el procesador GPU Tesla C1060, basado en la arquitectura paralela NVIDIA Cuda. Cuda permite a los desarrolladores e investigadores aprovechar el gran poder de Tesla a través del estándar industrial C.

“Dell ha liderado en la categoría de las estaciones de trabajo por casi una década, y la computación GPU representa un gran salto hacia adelante en el desempeño que traerá a las masas el poder de los supercomputadores”, dijo Antonio Julio, director del grupo de productos de Dell. “El Dell Precision R5400 y el T7400 permitirán a la comunidad científica aprovechar las capacidades de la GPU NVIDIA Tesla C1060 con más de dos teraflops de poder computacional”.

Nuevo procesador de Intel fue hecho en Costa Rica

Fuente: nacion.com.

El nuevo procesador para computadoras de escritorio que la impresa Intel lanzó hoy al mercado mundial tiene el sello “hecho en Costa Rica”, anunciaron esta mañana ingenieros de la empresa en nuestro país.

Se trata del procesador llamado Core i7 que promete ser 46% más rápido en el procesamiento de datos y consumir un 40% menos de energía. Este microchip esta diseñado para facilitar el manejo de videos y el uso de juegos en la computadora.

Según explicó Juan Diego Trejos, ingeniero de Intel, un equipo de 80 costarricenses participó en la producción del nuevo procesador calificado como “el más veloz del mundo”.

Ellos ayudaron en el diseño y ajuste de los equipos que permitieron ensamblar el microchip, además, de un software que permitió poner a prueba su desempeño.

Los ticos realizaron esta tarea trabajando con otros expertos ubicados en las plantas de Intel en Arizona y Oregon, Estados Unidos.

Yang dimite tras una gestión que hundió a Yahoo en Bolsa

Fuente: CincoDias.
La pérdida de valor para los accionistas de Yahoo, con el consiguiente enfado de los inversores, ha sido determinante para que Jerry Yang, cofundador de la compañía, presentara su dimisión como consejero delegado el lunes por la noche (hora española). El anuncio llegaba menos de un año y medio después de que el directivo volviera a asumir el puesto, tras el fiasco de su predecesor, Terry Semel.
Las cifras son claras: las acciones de la empresa han llegado a caer en los últimos días por debajo de la cota de los 10 dólares, muy lejos de los 33 dólares que Microsoft llegó a ofrecer por el gigante de internet en mayo pasado. De hecho, Yang se resistió a aceptar la oferta de la empresa de Bill Gates, asegurando que el precio de la opa debía ser de un mínimo de 37 dólares. En términos generales, Microsoft ofreció hasta 47.500 millones de dólares, mientras que en la actualidad, la capitalización de Yahoo ronda los 16.000 millones.
Aún así, el fracaso en las conversaciones con Microsoft no fue el único traspiés de Yang. También se malogró la alianza con Google en publicidad y el posible pacto con AOL, de Time Warner.
La renuncia de Yang, que se mantiene en el consejo de Yahoo, se hará efectiva cuando se encuentre un sustituto. Y ya circulan listas de posibles candidatos. Entre ellos destacan la actual presidenta de Yahoo, Sue Decker; el ex jefe de AOL, Jon Miller; el director de Operaciones de News Corp, Peter Chernin; la ex consejera delegada de Ebay, Meg Whitman, y el ex director de Operaciones de la propia Yahoo, Dan Rosensweig.
Ayer, Yahoo subió en Bolsa un 8,65%. El mercado confía en que la decisión de Yang abra la puerta a una nueva oferta de Microsoft. Ross Sandler, analista de RBC Capital Markets, apuesta por un pacto entre ambas y dijo a Reuters que Microsoft podría volver a la escena, porque 'Jerry era el obstáculo para conseguir un acuerdo'. Una alianza que también defiende Larry Haverty, gestor de Gamco Investors. Este experto dijo a Bloomberg Televisión que 'ambas necesitan fusionarse'. Y es que las dos están muy rezagadas respecto a Google en el negocio de las búsquedas por internet.
Pese a que económicamente parece que la venta a Microsoft podría estar justificada, no todo el mundo está de acuerdo. 'La operación Microsoft, en realidad, suponía la desaparición de Yahoo como compañía porque no existe ninguna empresa que, tras haber sido adquirida por Microsoft, haya seguido teniendo entidad o personalidad propia', dice en su blog Enrique Dans, profesor del Instituto de Empresa. Este experto cree que el sucesor de Yang tiene un trabajo difícil por delante: 'Intentar construir una compañía viable por sí misma y por sus actividades. Reinventarla para que vuelva a ilusionar'. Algo complicado en mitad de una crisis económica global.

La NASA diseña una Internet espacial

Fuente: 20minutos.

La NASA ha realizado con éxito las primeras pruebas de una red de comunicaciones desde el espacio profundo que ha sido diseñada siguiendo el modelo de Internet. Un informe del Laboratorio de Propulsión a Chorro (JPL) de la NASA indicó que sus ingenieros usaron en octubre pasado un software especial para transmitir docenas de imágenes hacia y desde una nave que se encuentra a más de 32 millones de kilómetros de la Tierra.

Para ello, los ingenieros de JPL recurrieron a la red "Deep Space Network" de la NASA utilizando como enlace a la sonda Epoxi que se desplaza a un encuentro del cometa Hartley el cual debe ocurrir en dos años.

"Este es el primer paso hacia la creación de una capacidad de comunicaciones del espacio totalmente nueva, una Internet Interplanetaria", manifestó Adrian Hooke, director de tecnología y redes espaciales de la NASA en Washington.

La transmisión se basa en el software llamado "Disruption-Tolerant Networking" (DTN), cuyo protocolo fue desarrollado hace diez años, según informó JPL en un comunicado. DTN envía información utilizando un método diferente a los protocolos que usa Internet y esta "web" interplanetaria debe ser lo suficientemente robusta como para resolver demoras, alteraciones y desconexiones en el espacio, agrega el comunicado.

Los problemas pueden plantearse cuando una nave espacial pasa detrás de un planeta y se interrumpe el contacto o cuando las comunicaciones se ven alteradas por las tormentas solares. Una demora en recibir o enviar datos desde Marte, por ejemplo, puede ser de entre 3,5 y 20 minutos a la velocidad de la luz. Pero, al contrario del sistema de Internet, no plantea la posibilidad de una desconexión.

En los próximos años, la "Internet Interplanetaria" permitirá que se realicen muchos tipos de misiones espaciales. Las complejas en las que participen diferentes naves de descenso, en órbita o móviles, tendrán un apoyo mucho más fácil mediante la Internet Interplanetaria, señaló JPL.

National Geographic entra en el mundo de los videojuegos con 'Herod's Lost Tomb'

Fuente: El Mundo.

El grupo National Geographic anunció la creación de National Geographic Games (NGG), una nueva división que producirá videojuegos orientados a la exploración del mundo y la naturaleza.

NGG debuta con el juego 'National Geographic -Herod's Lost Tomb', que se puede descargar gratis en PC, Mac y iPhone, el teléfono móvil de Apple.

La compañía lanza además este mes 'National Geographic: Panda' y 'National Geographic: Africa', desarrollados en colaboración con Sony y Namco Bandai.

NGG señaló en un comunicado que proyecta lanzar juegos para las consolas Wii de Nintendo y PlayStation de Sony, así como para algunos aparatos portátiles como Nintendo DS. Algunos de los títulos serán de producción propia y otros se realizarán mediante cooperaciones.

NGG creará juegos que extiendan "la misión de National Geographic de inspirar a la gente para que se preocupen por el planeta, además de llegar a una nueva generación de consumidores y familias", dijo el grupo en su comunicado.

Chris Mate, antiguo ejecutivo de Take-Two y Bethesda Softworks, dos pesos pesados del sector, ha sido nombrado gerente general de la nueva división, que estará presidida por Paul Levine.

En busca de la mejor consola

Fuente: El Mundo.

El sentido común parece obligarnos a separar una DS o una PSP del teléfono de Apple pero en Sega, por ejemplo, tienen otra percepción. Según la compañía el teléfono de la manzana es la plataforma de juegos más rentable para la que programar. Sólo con la venta de 500.000 copias de Monkey Ball para iPhone –un juego bastante soso, la verdad-, Sega ha conseguido beneficios similares a los que hubiera obtenido con un éxito en la consola DS.

El esquema de comercialización de Apple -30% para la compañía, 70% para el desarrollador y sin tener que colocar un producto físico en tiendas- y la simplicidad asociada a los juegos móviles hacen que los resultados sean más apetitosos que los que se consiguen creando títulos para la DS o la PSP. Los juegos son la categoría de aplicación más descargada de la App Store y Apple, recientemente, ha cambiado el enfoque de los anuncios del iPhone y el iPod Touch para resaltar precisamente el catálogo de entretenimiento.

Esto no quiere decir que el iPhone pueda sustituir a una PSP o una DS. La ausencia de controles físicos juega en su contra, por ejemplo. Los acelerómetros y la pantalla multitáctil puede hacer que muchos juegos sorprendan con ideas novedosas y efectos muy curiosos pero es probable que no sean suficientes para convencer a los amantes del videojuego tradicional.

Pero las declaraciones de Sega dan a entender que los desarrolladores no ven necesariamente las consolas del mismo modo que los jugadores. Parece lógico designar a la Wii como la consola más interesante en la que desarrollar juegos, ya que tiene un público más extenso -36 millones de usuarios frente a los 22,5 de Xbox 360 o los 16,7 de PS3-. Un análisis realizado por Ars Technica de los datos de ventas de juegos de los últimos 10 meses, sin embargo, acaba con el mito. La mayoría de los usuarios de la Wii suele comprar juegos desarrollados por la propia Nintendo. La consola en la que más posibilidades hay de ganar dinero como un desarrollador externo es la Xbox 360. Puede que la culpa sea de los propios desarrolladores, que no han sabido aprovechar hasta ahora el potencial de la Wii o que no estén acostumbrados a crear juegos dirigidos a un público tan heterogéneo, pero al final, a la hora de analizar lo diferentes contendientes, la balanza se inclina claramente hacia Microsoft.

Pero volviendo al iPhone, ¿cómo se toma la competencia esta pequeña revelación? Pues de dos maneras muy diferentes y que dicen mucho de sus respectivas culturas empresariales. Sony, al igual que hace con la Wii, no considera al teléfono como un rival. Cree que los juegos del iPhone son sólo "para perder el tiempo" —dando a entender que de los juegos de PSP se puede sacar algún tipo de experiencia enriquecedora-. La respuesta de Nintendo, en cambio, me parece muchísimo más inteligente: "desde el momento en el que alguien decide entre escuchar música en el iPod o jugar con la DS estamos compitiendo por el tiempo de ocio del usuario".

2008/11/18

Placas DDR3 de AMD listas para febrero

Fuente: TechSpot.

El desarrollo de los primeros procesadores Deneb con soporte para memoria DDR3 va acorde a lo planificado por lo que estos chips serán estrenados durante los siguientes meses. Sin embargo, a pesar de tener un procesador Deneb de cuatro núcleos listo para comienzos del próximo año, las placas AM3 con soporte para memoria DDR3 estarán disponibles en febrero.

A pesar del retraso en el soporte para la memoria DDR3, AMD ha diseñado los procesadores Deneb para que sean compatibles tanto con placas AM2+ como placas AM3 y el controlador de memoria es capaz de manejar tanto memoria DDR2 como DDR3. Es realmente una ventaja económica tener la posibilidad de mejor tu procesador para luego si lo deseas cambiar también tu placa base.

El lanzamiento de los procesadores Deneb marca el fin de una espiral descendiente que ha tenido AMD y ha sido aprovechada por Intel para lograr una ventaja. Sin embargo, ¿es demasiado tarde para que AMD salga de aprietos? Definitivamente no. Ellos comenzaron como una pequeña empresa y sin duda pueden sorprender al mundo una vez más con sus procesadores Deneb.

Precios de televisores LCD se reducirían hasta en 20% el próximo año

Fuente: Invertia.

Los precios de los televisores LCD mostrarían una reducción de entre 15 y 20 por ciento durante el próximo año y hasta el primer semestre del 2010, señaló la empresa AOC, uno de los mayores fabricantes de pantallas LCD (monitores y televisores) a nivel mundial.

"Los precios mostrarán una tendencia a la baja permanente hasta que el negocio madure en cuanto a su volumen y demanda, lo que posiblemente se concrete en el 2010, en un contexto de fuerte demanda de estos productos por el mundial de fútbol", declaró el director gerente de la empresa para la región, Marcos Contreras.

Precisó que en lo que resta del año esta clase de televisores no registraría mayores variaciones en sus precios pues éstos ya están fijados.

"Creemos que pasada la etapa coyuntural del mundial, la tendencia en el precio de los LCD será hacia arriba debido a que los consumidores habrán probado el valor agregado de estos productos", manifestó a la agencia Andina.

Indicó que si bien se proyecta que la demanda de televisores LCD caiga en cinco por ciento en el 2009, las ventas del sector crecerán 30 por ciento en el mismo período.

"Uno de los efectos palpables que tendrá la crisis financiera es que acelerará la transición del televisor de tubo (CRT) al televisor LCD", mencionó.

Detalló que en los próximos meses, de alguna manera, el mercado se verá obligado a tomar la tecnología del LCD debido a que el televisor de tubo tendrá un mayor precio pues a la fecha las empresas ya no están produciendo este tipo de productos.

"Todos los televisores de tubo o CRT que ahora existen pertenecen a un stock que ha quedado y se espera vender. Por ello, debido a que la crisis financiera también está golpeando a este sector, las marcas están apostando por una producción a largo plazo en productos con mayor tecnología", añadió Contreras.

2008/11/17

Crean la primera tarjeta gráfica de 4 GB

Fuente: eldigital.com.mx.

La FX 5800 de NVIDIA es la primera tarjeta gráfica de 4 GB, por lo que es una de las mejores para geofísicos, diseñadores, científicos, ingenieros y otros profesionales técnicos visual que esperan tener unos gráficos super perfectos. Según NVIDIA, la última tarjeta Quadro es órdenes de magnitud superiores a las soluciones típicas, lo que permite el modelado interactivo 4D.
“El tamaño y la complejidad de los datos está creciendo a un ritmo muy rapido. El reto para los profesionales de hoy es hacer sentido de la montaña de datos por destilación en una forma que puedan comprender, analizar y usar para hacer decisiones impactante”, dijo Jeff Brown , Gerente general de Soluciones Profesionales, de NVIDIA. “En juego puede ser miles de millones de dólares de inversión, o incluso la vida de las personas. La Quadro FX 5800 tiene características avanzadas para permitir masivas de datos para ser visto más allá de las tradicionales 3D que permite a los profesionales tomar decisiones más rápidas y precisas decisiones”.

Características de la tarjeta:

240 CuDa núcleos de procesadores en paralelo
Tamaño de memoria de 4 GB
102GB / s de ancho de banda de memoria
1 DisplayPort
189W consumo máximo de energía

La tarjeta grafica NVIDIA Quadro FX 5800 tiene un precio de $3499 dolares y estará disponible a través de la empresa.

Gráficas al cuadrado

Fuente: PC Actual.

Descubre si merece la pena adquirir tarjetas con doble GPU o construir tú un sistema que aproveche la capacidad de cálculo gráfico en paralelo

Nunca el mundo de los gráficos por ordenador a nivel de usuario había estado tan alocado. Y es que hace unos pocos meses pudimos ofreceros en artículos anteriores los primeros resultados obtenidos en las dos novedosas familias que asolaban el panorama tanto de NVIDIA como de ATI. Nos estamos refiriendo a las series GeForce 9000 y HD Radeon 3800 respectivamente.

Sin embargo, poco tiempo después, ambas compañías sorprendieron a propios y a extraños con una vuelta de tuerca más. AMD se sacó de la manga HD Radeon 4800 y NVIDIA hizo lo propio con GTX200. No sabemos si estos productos se mantendrán mucho tiempo en el mercado como los dispositivos tope de gama, pero lo que sí tenemos claro es que el usuario de a pie ha visto cómo ha quedado obsoleto de la noche a la mañana el producto «tan novedoso» que acababa de adquirir.

Nuestro objetivo

Con estas cartas sobre la mesa nos hemos preguntado si todos aquellos usuarios que hubiesen adquirido en su día una tarjeta gráfica de gama media como el modelo 9600 de NVIDIA o Radeon HD 3850 de ATI necesitan actualizarse y, de esta manera, tirar por la borda el dinero que invirtieron o bien podrían adquirir una tarjeta de similares características ahora que han bajado considerablemente su precio y emplear las distintas tecnologías que nos brindan estas compañías (SLI y CrossFireX) para construir un sistema de computación gráfica en paralelo.

Y nos ha parecido que la mejor manera de comparar esto es enfrentando estos sistemas con sus hermanas mayores topes de gama que poseen doble núcleo integrado, véase NVIDIA 9800GX2 y ATI Radeon HD 3870X2. Es necesario tener en cuenta que las GPU de estos sistemas son superiores a los de la gama media pero, como veremos en los resultados de las distintas pruebas, SLI y CrossFireX cumplen con creces los objetivos.

También hay que destacar que estas soluciones con doble GPU se orientan exclusivamente al mercado extremo y que algunos de estos productos se descatalogan rápidamente. Queda pendiente, asimismo, realizar una comparativa enfrentando estos montajes directamente con las tarjetas de nueva hornada, que por falta de tiempo no hemos podido desarrollar.

Agradecimientos variados

Para terminar, nos gustaría agradecer a Asus, Gigabyte, Sapphire y Zotac toda la ayuda y material prestados, puesto que sin las distintas placas base y tarjetas gráficas que nos han proporcionado no habríamos llevado a buen puerto este artículo.

Tarjetas gráficas analizadas

* ATI multi-GPU

* NVIDIA multi-GPU

* NVIDIA SLI

* ATI CrossFire X

La opinión de PC Actual: reutiliza tu tarjeta gráfica

En este artículo, hemos pretendido poner a prueba algunas de las últimas soluciones multi-GPU propuestas tanto por NVIDIA como por AMD-ATI y enfrentarlas no tanto entre sí como una comparativa al uso, sino con la tecnología SLI y CrossFireX implementadas por ellas mismas.

Con esto, hemos querido comprobar si, tras adquirir alguno de los modelos de gama media perteneciente a familias que acaban de ser desbancadas por modelos nuevos, podemos aprovechar el descenso de los precios de las mismas para adquirir otras del mismo tipo y habilitar alguna de las dos tecnologías para duplicar la potencia gráfica de nuestro equipo. Y el resultado que obtenemos es que ésta podría ser actualmente una muy buena solución si queremos dotar de mayor capacidad gráfica a nuestro PC y no tirar por la borda una tarjeta que acaba de ser recientemente adquirida.

Multi-GPU versus SLI y CrossFireX

Pero desglosemos primeramente los resultados que hemos obtenido en las distintas pruebas. Si comparamos el modelo Gigabyte 9800GX2 con el montaje realizado con dos Asus EN9600GT Matrix, vemos que, aunque la primera consigue mejores puntuaciones, SLI no se queda a la zaga.

Por poner unos cuantos ejemplos, vemos que la primera logra 12.218 puntos en 3DMark06 (DirectX9) y la segunda 11.429. Sin embargo, es en DirectX10 utilizando 3DMark Vantage donde se aprecia una mayor diferencia: 9.709 puntos frente a los 7.013 a una resolución de 1.200 x 1.024 píxeles.

Utilizando benchmarks basados en motores reales de juego, la diferencia se reduce. Ambos sistemas logran un fluido porcentaje de cuadros por segundo que aseguran una comodidad total a la hora de ejecutar juegos tan exigentes como Crysis. A este respecto podemos decir que la 9800GX2 ha cosechado 29 FPS y 27 han sido los conseguidos utilizando SLI.

En cuanto al modelo Sapphire Radeon HD 3870X2 y el sistema montado utilizando CrossFireX y dos Sapphire Radeon HD 3850, las diferencias han sido más palpables. A esto hay que sumarle que no hemos podido comparar directamente los resultados obtenidos de ningún benchmark sintético, puesto que 3Dmark Vantage solamente funciona en Vista y tuvimos que instalar finalmente XP para que CrossFireX fuese estable.

En cuanto a los frames por segundo arrojados en juegos como Crysis y Unreal Tournament 3 tenemos 95 y 27 (3870X2) frente a los 86 y 25 respectivamente de CrossFireX.

Consumos y precios

Si nos centramos en el apartado de energía consumida y precios, vemos que, en este caso, SLI y CrossFireX salen más baratas actualmente que las soluciones multi-GPU vendidas en el mercado. En este aspecto, la más rentable de todas es, sin duda, la solución propuesta mediante CrossFireX. 170 euros es lo que nos costará montarnos un sistema como el descrito en este artículo con unos consumos que van desde los 136 W en estado de reposo hasta los 260 W utilizando el sistema a máxima potencia.

De nuevo, en este caso se hace palpable que AMD-ATI ha conseguido unos ingenios menos caros y exigentes en cuanto a energía requerida pero, por el contrario, NVIDIA sigue siendo todavía un poco más estable y eficiente.

Lo mejor: Más baratas y moderadas

En este artículo hemos podido comprobar que las soluciones implementadas utilizando CrossFireX y SLI salen, a día de hoy y empleando productos que no sean tope de gama, mucho más baratas que aquellas otras que integran dentro de la misma placa varias GPU.

Asimismo, el consumo ha sido bastante inferior con estas configuraciones que el exhibido por sus hermanas mayores. Un factor que tenemos que tener en cuenta muy mucho en épocas como las que nos está tocando vivir.

Lo peor: El chipset adecuado

En la guerra existente entre NVIDIA y AMD-ATI el único perjudicado en este caso es el usuario. Para poder disfrutar de un sistema CrossFireX o SLI, es necesario cumplir escrupulosamente con una serie de requisitos mínimos. Uno de ellos, y quizás el más importante, es el chipset implementado en la placa base.

Actualmente, y de manera oficial, los chipset existentes (tanto de Intel, como de AMD o NVIDIA) dan soporte únicamente a un tipo de tecnología de paralelización. En este caso, NVIDIA lleva las de perder, puesto que solamente sus chipsets son capaces de soportar SLI de manera nativa.

El nuevo chip de Intel, ya en el mercado

Fuente: siliconnews.es.

Intel ha lanzado hoy al mercado su nuevo chip, sustituto natural de Core2, con el que pretende revolucionar el mercado de procesadores y mantener su posición dominante frente a su principal rival, AMD.

En Estados Unidos y Japón ya se han vendido los primeros equipos que llevan integrados Core i7 y algunos fabricantes como Dell ya lo han incorporado a sus ordenadores, con precios aproximados entre los 750 y los 2.900 euros.

Tras meses desde el anuncio del desarrollo de la nueva familia de chips y casi un lustro trabajando en él con el nombre de Nehalem para contrarrestar a los procesadores Opteron de AMD por fín el Core i7 ve la luz, según publica The Wall Street Journal. La semana pasada era AMD la que se adelantaba con la presentación de su última creación, el Opteron Quad-Core de 45 nanómetros, también denominado Shangai.

El nuevo chip de Intel parece funcionar especialmente bien en la manipulación de imágenes y vídeos. Además, como novedad, puede apagar por completo tres de sus cuatro motores de cálculo y permitir que el cuarto funcione a alta velocidad, acelerándose así algunos procesos.

Según estimaciones Nehalem obtiene datos de la memoria al doble de velocidad de los modelos anteriores. El chip incluye un controlador de memoria y tres canales de alta velocidad.

AMD MEJORA SU PRESENCIA EN EL MERCADO DE TARJETAS GRÁFICAS

Fuente: channelpartner.es.

AMD comienza a ver los frutos de la adquisición de ATI tras un proceso de integración difícil y más complicado de lo esperado. A pesar de la mala situación que vive el mercado, las ventas de PC con gráfica incorporada –incluyendo tarjetas dedicadas e integradas- experimentaron un crecimiento del 20% durante el tercer trimestre del 2008 (112 millones de PC con gráficos). Las ventas fueron particularmente importantes en el entorno de los notebook, donde el impulso fue superior al 40%. Esta buena racha ha repercutido en AMD que ha conseguido incrementar su cuota de penetración en el mercado de PC con gráfica incorporada hasta alcanzar un 40%, tanto en el caso de los sobremesa como en el área de portátiles.

Ramón Planet Huesa, director de ventas del canal de distribución de AMD en España, atribuye los buenos resultados al amplio catálogo de tarjetas gráficas que incorpora la compañía y que incluye desde el tope de gama hasta el nivel más bajo. “AMD está creciendo por encima de la media del mercado y eso está generando muy buenas expectativas para el canal de distribución”. El principal usuario de este mercado es el clásico consumidor de juegos y el profesional especializado en el mercado de producción de contenidos digitales y edición de video y fotografía.

La clave de la mejora tecnológica fue el lanzamiento de la Serie 3000 de las tarjetas gráficas ATI Radeon y posteriormente de las ATI Radeon HD 4870 y 4850. Con esta nueva línea de tarjetas, AMD consiguió ganar presencia en el mercado e invertir la tendencia negativa que se había producido a lo largo de los últimos años. Pedro Quiroga, director general de MCR, mayorista oficial de todos los productos de AMD en España, refrenda esta teoría y asegura que el importante incremento experimentado por este mercado es consecuencia de la buena relación precio/prestaciones que tienen ahora estos productos.

“Gracias al cambio tecnológico estamos observando un mayor movimiento en las ventas que está ayudando a vender más producto”. El directivo también reconoce que a lo largo de estos dos años ATI ha perdido el liderazgo que mantenía en el mercado de tarjetas gráficas, situación que han aprovechado sus competidores –principalmente Nvidia- para recortar su amplia presencia en el mercado. “Ahora esperamos que rápidamente recupere los puestos perdidos”. Además del mercado de nuevos equipos también hay un importante negocio de actualizaciones que sustenta el crecimiento de este mercado, según explica Ramón Planet, quien también asegura que la tarjeta gráfica es el producto que más ha evolucionado con un coste muy bajo de inversión.