Buscar

2008/12/10

Intel comienza la transición hacia los 32 nm

Fuente: eWeek Europa.

Tiene previsto comenzar a comercializar los procesadores con nombre en código Westmere durante los últimos meses de 2009.

En unas conferencias técnicas sobre dispositivos electrónicos en San Francisco, que comenzarán a partir del día 15 de diciembre, ingenieros de la compañía darán detalles sobre el proceso de transición desde los 45 hasta los 32 nanómetros que ya han comenzado en las distintas instalaciones.

Los futuros procesadores Westmere estarán basados en la misma micro arquitectura que los actuales Nehalem (Core i7).

Sin embargo, no será la única compañía que hable sobre nuevos avances en cuanto a miniaturización, ya que IBM, junto a varios de sus partners (incluidos AMD o Toshiba), explicará el estado de la nueva producción de celdas de memoria SRAM (static RAM) basadas en 22 nanómetros.

También aprovechará la ocasión Taiwan Semiconductor, ya que varios de sus ingenieros presentarán su particular “road map” relacionado con el proceso de fabricación en 32 nm.

Todos estos avances se llevan a cabo debido no solo a las crecientes necesidades de los usuarios para obtener dispositivos más livianos y pequeños, sino también porque necesitan vidas de batería mayores, lo que va íntimamente ligado a un menor consumo de estos chips.

En el caso de Intel, se hablará de cómo los ingenieros están buscando dentro de los 32 nm nuevas formas de reducir las fugas de energía que se producen cuando los transistores están parados, sin trabajo. Esta reducción significará obtener mejor rendimiento en términos generales para la nueva línea de chips Westmere.

El mayor fabricante de microprocesadores también está preparado para realizar demostraciones de memoria SRAM, la cual contiene más de 1,9 billones de transistores y una frecuencia de reloj de 3,8 GHz.

'Home', el 'Second life' de PlayStation 3, comenzará a funcionar mañana

Fuente: 20minutos.

Sony Computer anunció hoy que a partir de mañana todos los usuarios del mundo podrán acceder a la versión beta (en pruebas) de su nuevo servicio para PlayStation 3 Home, que califica como "pionero social de juegos en 3D".
El anuncio realizado en todo el mundo señala que con el nuevo servicio los usuarios de la consola PlayStation 3 pueden interactuar, comunicarse y compartir experiencias de juego.
Además pueden crear y personalizar sus propios avatares (personajes virtuales) y podrán acceder a minijuegos, vídeos y eventos especiales, además de crear su propia comunidad con usuarios con los que comparten afinidades y lanzar sus propios juegos en línea.
Los usuarios podrán descargar el PlayStation Home de forma gratuita a partir de mañana en su consola.

Windows Vista es el SO con peor rendimiento en una conexión de 100 megas

Fuente: BandaAncha.

Los ingenieros de la operadora de cable de Galicia, R, han analizado el comportamiento de una conexión de 100 megas con diferentes sistemas operativos. El resultado es decepcionante. Solo OSX es capaz de acercarse a los 100 megabits por segundo, mientras que Windows Vista no supera los 32 Mbps.

R prepara dos nuevas modalidades de 30 y 100 megas. Las nuevas velocidades estarán disponibles en zonas limitadas de Vigo, A Coruña y Lugo, aunque la intención de la operadora es extender la cobertura a otras zonas donde exista demanda.

R utiliza la misma tecnología que los 50 Mb de Ono, DOCSIS 3 sobre su red híbrida de fibra óptica y cable coaxial.

Lo más interesante y a la vez sorprendente, son las conclusiones a las que han llegado los ingenieros de R tras probar las nuevas velocidades en varios equipos con diferentes sistemas operativos.

Por ejemplo, de entrada R da por imposible que los 100 megas puedan funcionar con normalidad para los usuarios que utilizan Windows Vista y directamente no recomienda su uso. Es el sistema operativo de Apple, el OSX, donde mejor rendimiento ofrecen los 100 Mbps, alcanzando una velocidad sostenida de 90 Mbps. En Linux y Windows Xp, los 100 megas se quedan en un 80% de su velocidad.

R considera imprescindible una puesta apunto de los parámetros TCP/IP del sistema operativo para obtener el mejor rendimiento de la conexión. Aún así, ha decidido que mientras el resto de sus conexiones tienen garantizada el 80% de la velocidad, en los 30 y 100 megas solo quedará garantizado el 50% de su caudal.

Facebook se abre al vídeo de alta calidad

Fuente: El Pais.

Facebook, la mayor red social del mundo, lanzó en junio de 2007 un servicio que permitía a sus millones de usuarios subir sus propios vídeos y compartirlos con sus contactos. Desde entonces, los miembros de la red social han subido más de 45 millones de clips al sistema, a razón de 100.000 diarios.

Desde el pasado 5 de diciembre, Facebook ha mejorado notablemente el servicio y ahora permite subir vídeos de alta calidad, esto es, hasta 1280x720 pixeles. El tamaño máximo del archivo será de 200Mb y su duración tope de 10 minutos.

Además, Facebook permite desde ya insertar dichos vídeos en cualquier página web o blog. De esta manera, los usuarios de la red social pueden utilizarla como repositorio de vídeos, al más puro estilo YouTube, aunque con una diferencia fundamental: los clips recibirán el mismo tratamiento de privacidad que en Facebook.

Así, si el usuario decide que un determinado vídeo sólo lo pueden ver sus contactos, éstos deberán identificarse antes de verlo aunque esté embebido en un site ajeno al propio Facebook. Por otro lado, si se marca que el vídeo lo puede ver cualquiera dentro de la red también lo podrá ver cualquiera en el blog o web donde se haya insertado.

Facebook está creciendo y, cada vez más, parece estar pasando de ser una red social a ser algo más. Hace poco más de un mes Flickr, el servicio de publicación e intercambio de fotografías propiedad de Yahoo, anunció la imagen número 3.000 millones... Mientras Facebook, cuyo cometido principal no es el de alojar fotografías, ya cuenta con más de 10.000 millones en su base de datos.

Con este nuevo anuncio, Facebook parece querer hacerle la competencia a YouTube, el gigante de Google que, hoy por hoy, no tiene rival.

Google espera duplicar ventas en A.Latina en el 2009

Fuente: Reuters.

Google espera más que duplicar sus ventas en Latinoamérica el año que viene, apostando al potencial de crecimiento de la región pese a la crisis económica mundial, dijo el martes el director regional de la gigante de internet.

Google tiene un poco más de la mitad del mercado de publicidad en línea de toda América Latina, estimado en 550 millones de dólares anuales, dijo a Reuters en una entrevista su director para la región, Alexandre Hohagen, citando un estudio de la firma Pyramid Research encargado por la compañía.

De acuerdo con este estudio, el mercado de publicidad en internet podría crecer hasta unos 2,600 millones de dólares para el 2013, y Hohagen consideró que la unidad que dirige podría más que duplicar sus ventas el año que viene.

"El pronóstico para el próximo año es crecer más de 100 por ciento el negocio en Latinoamérica", afirmó el ejecutivo, quien no quiso divulgar cifras precisas sobre su meta de ventas.

La unidad latinoamericana representa cerca de un 2 por ciento de los ingresos totales de Google.

Para el ejecutivo, la región tiene un enorme potencial de crecimiento, con cerca de 100 millones de personas conectadas a internet de una población de casi 500 millones.

"Hoy por hoy tenemos un promedio más o menos de entre 20 y 25 por ciento de penetración en la región", de acceso a internet, precisó. "Desde el punto de vista de la industria de internet, Latinoamérica es una de las regiones más interesantes y con más oportunidades de crecimiento que tenemos", agregó.

En cuanto a la crisis económica global, Hohagen afirmó que si bien la región sentirá sus efectos, Google se beneficiará de una consolidación de las inversiones en publicidad.

Si bien podría bajar el volumen de anuncios y de anunciantes, unos pocos jugadores grandes de internet atraerían la mayoría del gasto en publicidad, explicó el ejecutivo.

"Obviamente la crisis va a impactar, obviamente vamos a ver que hay clientes que van a reducir las inversiones en Google", dijo el ejecutivo. "Pero por otro lado hay miles (...) de pequeñas y medianas empresas que dependen de Google para poder crecer y poder seguir con sus negocios", concluyó.

Los fondos emiratíes obtienen una rebaja en su inversión en AMD

Fuente: AFP.

Los fondos de inversión de Emiratos Árabes Unidos a los que se asoció hace dos meses el fabricante estadounidense de microprocesadores AMD lograron una rebaja sobre su inversión y renovaron su compromiso de cerrar la operación a principios de 2009, según un comunicado publicado el lunes.

El monto de la inversión aportada por el fondo Mubadala para entrar en el capital de AMD será probablemente inferior a la inicialmente anunciada, pues se ajustará sobre la media del precio de la acción durante los 20 días de cotización anteriores al 12 de diciembre, o sobre la media del precio durante los 20 días que precedan al fin de la transacción.

Entre ambas, se elegirá la cifra más baja. El pasado octubre, Mubadala anunció que pagaría 314 millones de dólares para comprar 58 millones de nuevas acciones de AMD, lo que valoraba el título a 5,41 dólares, cuando la víspera del anuncio del acuerdo la acción de AMD cerraba a 4,01 dólares.

Pero, mientras el acuerdo inicial acordaba a Mubadala compromisos para comprar 30 millones de acciones más, por un monto que podría representar unos 150 millones de dólares adicionales, la cifra fue aumentada a 'warrants' por 35 millones de acciones.

Por otra parte, el valor de los activos que AMD aportará a una coempresa 'The Foundry' creada con otro fondo de los Emiratos, ATIC, también fue revisada a la baja. El valor de empresa de estos activos fue revisado del 113% de su valor contable al 85%. Resultado de esto, AMD ya sólo poseerá el 34,2% de las partes de la nueva sociedad, en lugar del 44,4% previsto en el acuerdo inicial. AMD y ATIC conservaran sin embargo un número igual de votos.

El ratón cumple 40 años

Fuente: Libertad Digital.

El ratón, periférico del ordenador que sirve para señalar en la pantalla, ha cumplido 40 años desde que su inventor, el doctor Douglas Engelbert y 17 investigadores del Instituto de Investigación de Stanford (SRI) lo mostraran por primera vez en público, según informaciones de la BBC recogidas por Europa Press.

El prototipo del ordenador creado por el equipo de Engelbert (NLS, por sus siglas en inglés) incluía muchas novedades, entre las que destacaba el ratón, de madera y con un único botón. Gran parte de la tecnología que los expertos mostraron entonces inspiró la creación del hardware y software que se emplea en los ratones actuales y en muchas otras tecnologías.

"Entonces teníamos todas las herramientas para editar texto e hiperenlaces, todo lo que usamos hoy en día", apuntó en este sentido el principal programador del equipo del doctor Engelbart, Jeff Rulifson, que explicó que "desafortunadamente" el NLS no logró convencer a suficiente gente para convertirse en la "herramienta esencial que Engelbart imaginó". Y es que, según afirmó, el ordenador tenía 500 teclas individuales de comandos.

"La mitad de lo que imaginamos entonces se ha cumplido. Hemos podido ver el día en que estas herramientas se han vuelto lo suficientemente pequeñas para ser portátiles", agregó el experto, "aunque Doug quedó muy frustrado con lo que se volvió el PC, ya que es demasiado estático y parecido al papel".

Choruss, la propuesta de las discográficas

Fuente: Blog de Enrique Dans.

Es una propuesta nueva, diferente a lo que viene habitualmente desde el lado de las grandes discográficas, y cuenta por el momento con el apoyo de tres de ellas, a falta de Universal. Tengo obviamente mis opiniones al respecto, pero intentaré exponer la propuesta de manera completamente aséptica, porque me interesa mucho ver las reacciones:
La idea de las discográficas intenta inicialmente solucionar los problemas de uno de los entornos más conflictivos, las universidades, pero va mucho más allá: el plan, expuesto en esta presentación, se plasmaría en la posibilidad de todo tipo de interacción con la música, descargas desde cualquier medio (P2P, iTunes, BitTorrent, Limewire, etc.) a cualquier soporte (discos duros, iPods, etc.) y completamente libres de DRM, a cambio de un razonable esfuerzo por parte de las instituciones educativas para estimar el volumen y desglose de dichas descargas mediante la monitorización de sus redes, y de un pago por estudiante y por mes que las universidades podrán tratar como deseen: requiriéndolo a los estudiantes, incluyéndolo en la matrícula o simplemente financiándolo ellas mismas. Dicho pago, estimado en una cantidad menor de cinco dólares por mes, sería recolectado por una institución sin ánimo de lucro y repartido entre los derechohabientes en función de los datos de consumo. La idea, según se insinúa en la presentación, sería interpretar a las universidades como un experimento, de cara a, posteriormente, extender la idea al público en general mediante la colaboración de los ISP. A cambio de esta “blanket license”, los usuarios no recibirían ningún tipo de licencia sobre el contenido, sino una garantía de no persecución judicial, un “covenant not to sue”, aunque éste cubriría cualquier uso no comercial que pudiesen hacer de dicho contenido, incluidas remezclas, etc.
En un momento en que la estrategia de las discográficas de denunciar a ciegas a usuarios de entornos universitarios requiriendo a las instituciones académicas que los identifiquen parece estar pasando su mayor crisis - fuerte resistencia de algunas instituciones, miedo de las discográficas a enfrentarse con algunas de ellas y fuertes presiones de la EFF de cara a invalidar los métodos seguidos por la RIAA y considerarlos poco menos que chantaje o intimidación judicial - la iniciativa de las discográficas, denominada temporalmente Choruss, parece sin duda lo más constructivo que éstas han sido capaces de desarrollar a lo largo de toda su historia reciente, y por primera vez, trabaja a favor del fenómeno de las descargas, no en su contra. ¿Intento de salvar los muebles ante un entorno cada vez más adverso? ¿Interés por construir alternativas válidas en el nuevo entorno? ¿Intento de perpetuar un modelo, el del pago por copia, que ha perdido su sentido en un entorno digital? Por el momento, la idea se plantea como una especie de tregua en la guerra entre usuarios y discográficas y como un experimento que busca la colaboración de las entidades educativas. Pero como ya se ha anunciado, aunque las cosas no son tan sencillas como la presentación expone y habría que tener en cuenta muchos factores de cara a su desarrollo, tiene una proyección potencial muy superior a futuro.

La madre de todas las demos

Fuente: La Voz de Galicia.

La última moda entre los fabricantes de teléfonos móviles, al menos en sus terminales de gama alta, está en dotarlos de pantallas táctiles mediante las que el usuario maneja todas o la mayoría de las funciones del teléfono, en muchos casos prescindiendo de un teclado tradicional, siguiendo la estela marcada por Apple con el iPhone en julio del 2007 y, un par de meses más tarde, con el iPod Touch.

Microsoft, por su parte, ha empezado a comercializar en abril de este año un producto llamado Surface, que, pensado fundamentalmente para manejar contenidos multimedia, permite a sus usuarios manipular estos con una pantalla multitacto al estilo de Tom Cruise en Minority Report o de los investigadores de CSI: Miami, a los que de hecho podemos ver usándolo cada semana.

Pero, en realidad, nada de esto es especialmente nuevo, ya que la tecnología multitacto tiene sus orígenes en trabajos independientes de la Universidad de Toronto y de los Laboratorios Bell presentados en 1982, aunque no fue hasta 1999 cuando aparecieron los primeros productos comerciales que usaban estas ideas, mientras que los interfaces de ordenador con ventanas, iconos, ratón y puntero comenzaron a ser popularizados por Apple con el Macintosh a partir del 24 de enero de 1984.

E incluso el Macintosh llegaba después del Lisa, otro ordenador de Apple con interfaz gráfico que fracasó estrepitosamente, que a su vez llegaba después del Alto de Xerox, un ordenador que, si bien nunca fue producido comercialmente, sí fue el primero en utilizar un interfaz gráfico y la metáfora de un escritorio como espacio de trabajo del usuario.

Todos estos interfaces WIMP (Windows, Icon, Mouse and Pointer), palabra que curiosamente significa 'debilucho', tienen su fuente de inspiración en la que ahora se conoce como la madre de todas las demos, una presentación del NLS, el oNLine System, sistema desarrollado por Douglas C. Engelbart y su equipo del Augmentation Research Center del Instituto de Investigaciones de Stanford.

En aquella demostración, Engelbart enseñó por primera vez a los aproximadamente mil asistentes las posibilidades de un sistema que ya entonces utilizaba un ratón, texto interactivo, videoconferencia, correo electrónico e hipertexto, sembrando sin duda muchas ideas que influirían poderosamente en el desarrollo de la industria informática, aunque tardarían tiempo en dar su fruto. Y es que aquella demostración tuvo lugar en la sesión A research center for augmenting human intellect (Un centro de investigaciones para aumentar el intelecto humano) de la Fall Joint Computer Conference, celebrada el 9 de diciembre de 1968, hace hoy casi exactamente 40 años.

De hecho, estas ideas tardaron tanto en ser aplicadas que, aunque en su momento Douglas Engelbart patentó el ratón de ordenador, esto no lo convirtió en millonario, ya que, para cuando los ratones se hicieron imprescindibles para la inmensa mayoría de los usuarios de ordenadores, por un lado la patente ya había caducado y, por otro, se habían desarrollado nuevos mecanismos de funcionamiento para estos dispositivos que no infringían la patente de Engelbart.

Nada nuevo

Así que casi se podría decir que en los últimos cuarenta años no se ha inventado nada realmente nuevo en lo que se refiere al interfaz de los usuarios con el ordenador o con los gadgets con pantalla; de hecho, en ocasiones, y sin decir nombres, se podría argumentar que la industria ha ido hacia atrás con supuestos avances en este campo.

Pero tampoco es cosa de despreciar los enormes avances que se han ido experimentando con el tiempo. En la breve historia de los ordenadores hemos pasado de máquinas que simplemente no tenían interfaz con el usuario más allá de un mazo de cables que había que recolocar para programarlos, como en el caso del Eniac ?-uno de los primeros ordenadores de la historia-, y que contestaban mediante unas luces en un panel o tarjetas o cintas de papel perforadas, a ordenadores que también se programaban mediante tarjetas o cintas perforadas, a otros que se manejaban desde un teclado pero mediante comandos más o menos arcanos que había que memorizar, y finalmente a los que usamos hoy en día, en los que sin sabernos un solo comando podemos escribir textos, editar fotos y vídeos, masacrar marcianitos a mansalva, investigar sobre la estructura de nuestro ADN, etcétera.

Lo que no me atrevo a vaticinar es para cuándo podremos hablarle al ordenador como ya hacía el capitán James T. Kirk a bordo del Enterprise en Star Trek, pero seguro que todo se andará.

Los Videojuegos mas descargados de TorrentFreak

Fuente: TorrentFreak.

1. Spore: 1.700.000 descargas
2. Los Sims 2: 1.150.000 descargas
3, Assasin´s Creed: 1.070.000 descargas
4. Crysis: 940.000 descargas
5. Command and Conquer: 3 860.000 descargas
6. Call of Duty 4: 830.000 descargas
7. GTA San Andreas: 740.000 descargas
8. Fallout 3: 645.000 descargas
9. Far Cry 2: 585.000 descargas
10. Pro Evolution Soccer 2009: 470.000