Buscar

2008/12/10

Windows Vista es el SO con peor rendimiento en una conexión de 100 megas

Fuente: BandaAncha.

Los ingenieros de la operadora de cable de Galicia, R, han analizado el comportamiento de una conexión de 100 megas con diferentes sistemas operativos. El resultado es decepcionante. Solo OSX es capaz de acercarse a los 100 megabits por segundo, mientras que Windows Vista no supera los 32 Mbps.

R prepara dos nuevas modalidades de 30 y 100 megas. Las nuevas velocidades estarán disponibles en zonas limitadas de Vigo, A Coruña y Lugo, aunque la intención de la operadora es extender la cobertura a otras zonas donde exista demanda.

R utiliza la misma tecnología que los 50 Mb de Ono, DOCSIS 3 sobre su red híbrida de fibra óptica y cable coaxial.

Lo más interesante y a la vez sorprendente, son las conclusiones a las que han llegado los ingenieros de R tras probar las nuevas velocidades en varios equipos con diferentes sistemas operativos.

Por ejemplo, de entrada R da por imposible que los 100 megas puedan funcionar con normalidad para los usuarios que utilizan Windows Vista y directamente no recomienda su uso. Es el sistema operativo de Apple, el OSX, donde mejor rendimiento ofrecen los 100 Mbps, alcanzando una velocidad sostenida de 90 Mbps. En Linux y Windows Xp, los 100 megas se quedan en un 80% de su velocidad.

R considera imprescindible una puesta apunto de los parámetros TCP/IP del sistema operativo para obtener el mejor rendimiento de la conexión. Aún así, ha decidido que mientras el resto de sus conexiones tienen garantizada el 80% de la velocidad, en los 30 y 100 megas solo quedará garantizado el 50% de su caudal.

Facebook se abre al vídeo de alta calidad

Fuente: El Pais.

Facebook, la mayor red social del mundo, lanzó en junio de 2007 un servicio que permitía a sus millones de usuarios subir sus propios vídeos y compartirlos con sus contactos. Desde entonces, los miembros de la red social han subido más de 45 millones de clips al sistema, a razón de 100.000 diarios.

Desde el pasado 5 de diciembre, Facebook ha mejorado notablemente el servicio y ahora permite subir vídeos de alta calidad, esto es, hasta 1280x720 pixeles. El tamaño máximo del archivo será de 200Mb y su duración tope de 10 minutos.

Además, Facebook permite desde ya insertar dichos vídeos en cualquier página web o blog. De esta manera, los usuarios de la red social pueden utilizarla como repositorio de vídeos, al más puro estilo YouTube, aunque con una diferencia fundamental: los clips recibirán el mismo tratamiento de privacidad que en Facebook.

Así, si el usuario decide que un determinado vídeo sólo lo pueden ver sus contactos, éstos deberán identificarse antes de verlo aunque esté embebido en un site ajeno al propio Facebook. Por otro lado, si se marca que el vídeo lo puede ver cualquiera dentro de la red también lo podrá ver cualquiera en el blog o web donde se haya insertado.

Facebook está creciendo y, cada vez más, parece estar pasando de ser una red social a ser algo más. Hace poco más de un mes Flickr, el servicio de publicación e intercambio de fotografías propiedad de Yahoo, anunció la imagen número 3.000 millones... Mientras Facebook, cuyo cometido principal no es el de alojar fotografías, ya cuenta con más de 10.000 millones en su base de datos.

Con este nuevo anuncio, Facebook parece querer hacerle la competencia a YouTube, el gigante de Google que, hoy por hoy, no tiene rival.

Google espera duplicar ventas en A.Latina en el 2009

Fuente: Reuters.

Google espera más que duplicar sus ventas en Latinoamérica el año que viene, apostando al potencial de crecimiento de la región pese a la crisis económica mundial, dijo el martes el director regional de la gigante de internet.

Google tiene un poco más de la mitad del mercado de publicidad en línea de toda América Latina, estimado en 550 millones de dólares anuales, dijo a Reuters en una entrevista su director para la región, Alexandre Hohagen, citando un estudio de la firma Pyramid Research encargado por la compañía.

De acuerdo con este estudio, el mercado de publicidad en internet podría crecer hasta unos 2,600 millones de dólares para el 2013, y Hohagen consideró que la unidad que dirige podría más que duplicar sus ventas el año que viene.

"El pronóstico para el próximo año es crecer más de 100 por ciento el negocio en Latinoamérica", afirmó el ejecutivo, quien no quiso divulgar cifras precisas sobre su meta de ventas.

La unidad latinoamericana representa cerca de un 2 por ciento de los ingresos totales de Google.

Para el ejecutivo, la región tiene un enorme potencial de crecimiento, con cerca de 100 millones de personas conectadas a internet de una población de casi 500 millones.

"Hoy por hoy tenemos un promedio más o menos de entre 20 y 25 por ciento de penetración en la región", de acceso a internet, precisó. "Desde el punto de vista de la industria de internet, Latinoamérica es una de las regiones más interesantes y con más oportunidades de crecimiento que tenemos", agregó.

En cuanto a la crisis económica global, Hohagen afirmó que si bien la región sentirá sus efectos, Google se beneficiará de una consolidación de las inversiones en publicidad.

Si bien podría bajar el volumen de anuncios y de anunciantes, unos pocos jugadores grandes de internet atraerían la mayoría del gasto en publicidad, explicó el ejecutivo.

"Obviamente la crisis va a impactar, obviamente vamos a ver que hay clientes que van a reducir las inversiones en Google", dijo el ejecutivo. "Pero por otro lado hay miles (...) de pequeñas y medianas empresas que dependen de Google para poder crecer y poder seguir con sus negocios", concluyó.

Los fondos emiratíes obtienen una rebaja en su inversión en AMD

Fuente: AFP.

Los fondos de inversión de Emiratos Árabes Unidos a los que se asoció hace dos meses el fabricante estadounidense de microprocesadores AMD lograron una rebaja sobre su inversión y renovaron su compromiso de cerrar la operación a principios de 2009, según un comunicado publicado el lunes.

El monto de la inversión aportada por el fondo Mubadala para entrar en el capital de AMD será probablemente inferior a la inicialmente anunciada, pues se ajustará sobre la media del precio de la acción durante los 20 días de cotización anteriores al 12 de diciembre, o sobre la media del precio durante los 20 días que precedan al fin de la transacción.

Entre ambas, se elegirá la cifra más baja. El pasado octubre, Mubadala anunció que pagaría 314 millones de dólares para comprar 58 millones de nuevas acciones de AMD, lo que valoraba el título a 5,41 dólares, cuando la víspera del anuncio del acuerdo la acción de AMD cerraba a 4,01 dólares.

Pero, mientras el acuerdo inicial acordaba a Mubadala compromisos para comprar 30 millones de acciones más, por un monto que podría representar unos 150 millones de dólares adicionales, la cifra fue aumentada a 'warrants' por 35 millones de acciones.

Por otra parte, el valor de los activos que AMD aportará a una coempresa 'The Foundry' creada con otro fondo de los Emiratos, ATIC, también fue revisada a la baja. El valor de empresa de estos activos fue revisado del 113% de su valor contable al 85%. Resultado de esto, AMD ya sólo poseerá el 34,2% de las partes de la nueva sociedad, en lugar del 44,4% previsto en el acuerdo inicial. AMD y ATIC conservaran sin embargo un número igual de votos.

El ratón cumple 40 años

Fuente: Libertad Digital.

El ratón, periférico del ordenador que sirve para señalar en la pantalla, ha cumplido 40 años desde que su inventor, el doctor Douglas Engelbert y 17 investigadores del Instituto de Investigación de Stanford (SRI) lo mostraran por primera vez en público, según informaciones de la BBC recogidas por Europa Press.

El prototipo del ordenador creado por el equipo de Engelbert (NLS, por sus siglas en inglés) incluía muchas novedades, entre las que destacaba el ratón, de madera y con un único botón. Gran parte de la tecnología que los expertos mostraron entonces inspiró la creación del hardware y software que se emplea en los ratones actuales y en muchas otras tecnologías.

"Entonces teníamos todas las herramientas para editar texto e hiperenlaces, todo lo que usamos hoy en día", apuntó en este sentido el principal programador del equipo del doctor Engelbart, Jeff Rulifson, que explicó que "desafortunadamente" el NLS no logró convencer a suficiente gente para convertirse en la "herramienta esencial que Engelbart imaginó". Y es que, según afirmó, el ordenador tenía 500 teclas individuales de comandos.

"La mitad de lo que imaginamos entonces se ha cumplido. Hemos podido ver el día en que estas herramientas se han vuelto lo suficientemente pequeñas para ser portátiles", agregó el experto, "aunque Doug quedó muy frustrado con lo que se volvió el PC, ya que es demasiado estático y parecido al papel".

Choruss, la propuesta de las discográficas

Fuente: Blog de Enrique Dans.

Es una propuesta nueva, diferente a lo que viene habitualmente desde el lado de las grandes discográficas, y cuenta por el momento con el apoyo de tres de ellas, a falta de Universal. Tengo obviamente mis opiniones al respecto, pero intentaré exponer la propuesta de manera completamente aséptica, porque me interesa mucho ver las reacciones:
La idea de las discográficas intenta inicialmente solucionar los problemas de uno de los entornos más conflictivos, las universidades, pero va mucho más allá: el plan, expuesto en esta presentación, se plasmaría en la posibilidad de todo tipo de interacción con la música, descargas desde cualquier medio (P2P, iTunes, BitTorrent, Limewire, etc.) a cualquier soporte (discos duros, iPods, etc.) y completamente libres de DRM, a cambio de un razonable esfuerzo por parte de las instituciones educativas para estimar el volumen y desglose de dichas descargas mediante la monitorización de sus redes, y de un pago por estudiante y por mes que las universidades podrán tratar como deseen: requiriéndolo a los estudiantes, incluyéndolo en la matrícula o simplemente financiándolo ellas mismas. Dicho pago, estimado en una cantidad menor de cinco dólares por mes, sería recolectado por una institución sin ánimo de lucro y repartido entre los derechohabientes en función de los datos de consumo. La idea, según se insinúa en la presentación, sería interpretar a las universidades como un experimento, de cara a, posteriormente, extender la idea al público en general mediante la colaboración de los ISP. A cambio de esta “blanket license”, los usuarios no recibirían ningún tipo de licencia sobre el contenido, sino una garantía de no persecución judicial, un “covenant not to sue”, aunque éste cubriría cualquier uso no comercial que pudiesen hacer de dicho contenido, incluidas remezclas, etc.
En un momento en que la estrategia de las discográficas de denunciar a ciegas a usuarios de entornos universitarios requiriendo a las instituciones académicas que los identifiquen parece estar pasando su mayor crisis - fuerte resistencia de algunas instituciones, miedo de las discográficas a enfrentarse con algunas de ellas y fuertes presiones de la EFF de cara a invalidar los métodos seguidos por la RIAA y considerarlos poco menos que chantaje o intimidación judicial - la iniciativa de las discográficas, denominada temporalmente Choruss, parece sin duda lo más constructivo que éstas han sido capaces de desarrollar a lo largo de toda su historia reciente, y por primera vez, trabaja a favor del fenómeno de las descargas, no en su contra. ¿Intento de salvar los muebles ante un entorno cada vez más adverso? ¿Interés por construir alternativas válidas en el nuevo entorno? ¿Intento de perpetuar un modelo, el del pago por copia, que ha perdido su sentido en un entorno digital? Por el momento, la idea se plantea como una especie de tregua en la guerra entre usuarios y discográficas y como un experimento que busca la colaboración de las entidades educativas. Pero como ya se ha anunciado, aunque las cosas no son tan sencillas como la presentación expone y habría que tener en cuenta muchos factores de cara a su desarrollo, tiene una proyección potencial muy superior a futuro.

La madre de todas las demos

Fuente: La Voz de Galicia.

La última moda entre los fabricantes de teléfonos móviles, al menos en sus terminales de gama alta, está en dotarlos de pantallas táctiles mediante las que el usuario maneja todas o la mayoría de las funciones del teléfono, en muchos casos prescindiendo de un teclado tradicional, siguiendo la estela marcada por Apple con el iPhone en julio del 2007 y, un par de meses más tarde, con el iPod Touch.

Microsoft, por su parte, ha empezado a comercializar en abril de este año un producto llamado Surface, que, pensado fundamentalmente para manejar contenidos multimedia, permite a sus usuarios manipular estos con una pantalla multitacto al estilo de Tom Cruise en Minority Report o de los investigadores de CSI: Miami, a los que de hecho podemos ver usándolo cada semana.

Pero, en realidad, nada de esto es especialmente nuevo, ya que la tecnología multitacto tiene sus orígenes en trabajos independientes de la Universidad de Toronto y de los Laboratorios Bell presentados en 1982, aunque no fue hasta 1999 cuando aparecieron los primeros productos comerciales que usaban estas ideas, mientras que los interfaces de ordenador con ventanas, iconos, ratón y puntero comenzaron a ser popularizados por Apple con el Macintosh a partir del 24 de enero de 1984.

E incluso el Macintosh llegaba después del Lisa, otro ordenador de Apple con interfaz gráfico que fracasó estrepitosamente, que a su vez llegaba después del Alto de Xerox, un ordenador que, si bien nunca fue producido comercialmente, sí fue el primero en utilizar un interfaz gráfico y la metáfora de un escritorio como espacio de trabajo del usuario.

Todos estos interfaces WIMP (Windows, Icon, Mouse and Pointer), palabra que curiosamente significa 'debilucho', tienen su fuente de inspiración en la que ahora se conoce como la madre de todas las demos, una presentación del NLS, el oNLine System, sistema desarrollado por Douglas C. Engelbart y su equipo del Augmentation Research Center del Instituto de Investigaciones de Stanford.

En aquella demostración, Engelbart enseñó por primera vez a los aproximadamente mil asistentes las posibilidades de un sistema que ya entonces utilizaba un ratón, texto interactivo, videoconferencia, correo electrónico e hipertexto, sembrando sin duda muchas ideas que influirían poderosamente en el desarrollo de la industria informática, aunque tardarían tiempo en dar su fruto. Y es que aquella demostración tuvo lugar en la sesión A research center for augmenting human intellect (Un centro de investigaciones para aumentar el intelecto humano) de la Fall Joint Computer Conference, celebrada el 9 de diciembre de 1968, hace hoy casi exactamente 40 años.

De hecho, estas ideas tardaron tanto en ser aplicadas que, aunque en su momento Douglas Engelbart patentó el ratón de ordenador, esto no lo convirtió en millonario, ya que, para cuando los ratones se hicieron imprescindibles para la inmensa mayoría de los usuarios de ordenadores, por un lado la patente ya había caducado y, por otro, se habían desarrollado nuevos mecanismos de funcionamiento para estos dispositivos que no infringían la patente de Engelbart.

Nada nuevo

Así que casi se podría decir que en los últimos cuarenta años no se ha inventado nada realmente nuevo en lo que se refiere al interfaz de los usuarios con el ordenador o con los gadgets con pantalla; de hecho, en ocasiones, y sin decir nombres, se podría argumentar que la industria ha ido hacia atrás con supuestos avances en este campo.

Pero tampoco es cosa de despreciar los enormes avances que se han ido experimentando con el tiempo. En la breve historia de los ordenadores hemos pasado de máquinas que simplemente no tenían interfaz con el usuario más allá de un mazo de cables que había que recolocar para programarlos, como en el caso del Eniac ?-uno de los primeros ordenadores de la historia-, y que contestaban mediante unas luces en un panel o tarjetas o cintas de papel perforadas, a ordenadores que también se programaban mediante tarjetas o cintas perforadas, a otros que se manejaban desde un teclado pero mediante comandos más o menos arcanos que había que memorizar, y finalmente a los que usamos hoy en día, en los que sin sabernos un solo comando podemos escribir textos, editar fotos y vídeos, masacrar marcianitos a mansalva, investigar sobre la estructura de nuestro ADN, etcétera.

Lo que no me atrevo a vaticinar es para cuándo podremos hablarle al ordenador como ya hacía el capitán James T. Kirk a bordo del Enterprise en Star Trek, pero seguro que todo se andará.

Los Videojuegos mas descargados de TorrentFreak

Fuente: TorrentFreak.

1. Spore: 1.700.000 descargas
2. Los Sims 2: 1.150.000 descargas
3, Assasin´s Creed: 1.070.000 descargas
4. Crysis: 940.000 descargas
5. Command and Conquer: 3 860.000 descargas
6. Call of Duty 4: 830.000 descargas
7. GTA San Andreas: 740.000 descargas
8. Fallout 3: 645.000 descargas
9. Far Cry 2: 585.000 descargas
10. Pro Evolution Soccer 2009: 470.000

Las pantallas y monitores del futuro serán más delgados y consumirán menos energía

Fuente: 20minutos.

Las tendencias en cuanto a la configuración de las nuevas pantallas para portátiles son claras: más planas, luminosas y con un menor gasto energético. A esta lista se puede añadir un abaratamiento de la tecnología que las hace posibles al aumentar la demanda, gracias a la utilización de componentes y materiales de menor coste.

Hasta ahora, el sector de las pantallas para ordenadores portátiles y dispositivos multimedia estaba dominado por la tecnología LCD (TFT) y las pantallas de plasma. Sin embargo, la utilización de nuevos materiales y las mejoras técnicas en estas tecnologías están suponiendo una revolución. Actualmente, los fabricantes de ordenadores están utilizando pantallas con tecnología de diodos LED. Pero se espera que este sistema sea sustituido en un futuro por otros aún más eficientes en consumo.

Hay que pensar que el mercado de las pantallas de pequeño formato no está formado sólo por portátiles; en los últimos años, debido al aumento del tamaño y capacidad de los teléfonos móviles, estos han pasado a utilizar la misma tecnología de pantalla que los ordenadores y las televisiones. Por ejemplo, el terminal móvil Sharp Aquos Fulltouch 931SH es un teléfono móvil comercializado en el mercado japonés que ofrece una resolución de 1024 x 480 pixeles (muy alta) en una pantalla de 3,8 pulgadas.

Para ello, el terminal utiliza la tecnología Sharp Aquos, presente en la línea de televisores y monitores de la marca nipona. La pantalla es táctil y está preparada para ver contenidos en formato 16:9 a toda pantalla. Además, dispone de sintonizador de televisión digital "one-seg" (una tecnología de televisión digital para móvil estándar en Japón).

Tecnología de cristal líquido

Las pantallas LCD han sido las reinas del sector durante los últimos años. Sin embargo, estan siendo reemplazadas por las pantallas iluminadas con diodos LED, de menor consumo y un mayor nivel de iluminación. No obstante, algunos fabricantes, como Omron, siguen implementando nuevas mejoras en pantallas LCD.

Esta empresa japonesa ha desarrollado una pantalla que reduce hasta un 33 % el consumo energético necesario para mostrar un brillo y una iluminación óptima, y sin necesidad de reducir las prestaciones de la pantalla.

Para conseguirlo, utilizan sólo tres tubos fluorescentes en forma de U, frente a los seis tubos convencionales. Además, usa una resina en las lámparas que mantiene la temperatura de funcionamiento en 50 grados centígrados.

Tecnología OLED

La tecnología OLED es una de las grandes apuestas de la industria para la creación de pantallas muy delgadas y presentes en multitud de dispositivos portátiles, como ordenadores, reproductores multimedia y teléfonos móviles. Esta tecnología, basada en diodos LED orgánicos, mejora en prestaciones respecto a otras tecnologías. Cada punto de la pantalla se ilumina y cambia de color en función de la intensidad eléctrica recibida. En ausencia de este estímulo eléctrico, el color negro se muestra con mayor definición y profundidad.

Además, debido a sus características es posible crear pantallas con estructura flexible de pocos milímetros de grosor. Recientemente, Samsung ha presentado un prototipo de pantalla OLED de tan sólo 0,05 milímetros de grosor. Un poco más fino que una hoja de papel común. Por ahora, la resolución ofrecida es de 480 x 272 pixeles con un contraste de 100.000: 1 y un brillo estimado en 200 CD/M2, prestaciones menores que las ofrecidas por las pantallas LCD, pero con un futuro esperanzador.

Por otro lado, empresas como Sony apuestan por el OLED como la tecnología a utilizar en futuros televisores y ordenadores portátiles. Entre sus últimas propuestas destacan prototipos de futuras pantallas con sólo 0.3 milímetros de grosor.

Tecnología FED

Las pantallas FED utilizan un sistema que remite a los televisores clásicos de rayos catódicos (CRT) combinados con las pantallas LCD. Se trata de nanotubos de carbono que actúan como emisores de electrones. Cada nanotubo de carbono se comporta de igual manera que lo haría un tubo en una pantalla CRT. De esta manera, son capaces de ofrecer la resolución de una pantalla CRT con el grosor de una pantalla plana de tecnología LCD.

Entre los fabricantes interesados en esta tecnología se encuentra la japonesa Sony que, a pesar de su apuesta decidida por OLED, tiene previsto lanzar al mercado las primeras pantallas FED a finales de 2009. Parece que la intención es utilizarlas en su línea de pantallas de televisión.

Tecnología EPD (Electronic Paper Display)

Conocida como "papel electrónico", esta tecnología está llamada a ser utilizada en multitud de soportes y dispositivos, al poder fabricarse con un grosor muy delgado y materiales flexibles. Empresas como Plastic Logic disponen de los primeros prototipos de uso real que podrían ser implementados en futuros dispositivos portátiles.

Una de las primeras experiencias de uso masivo la ha realizado la revista Esquire en su número correspondiente al mes de octubre. Para celebrar el 75 aniversario de la revista, se ha insertado en la portada una pantalla con papel electrónico EPD. La duración de la batería de esta pantalla es de 90 días, aunque puede ser alargada mediante pequeños trucos por parte de los aficionados.

Las revistas se añaden a la biblioteca digital 'online' de Google

Fuente: El Mundo.

Uno de los 'gigantes' de Internet, ha anunciado que ha comenzado a añadir revistas a su biblioteca de libros digitalizados y disponibles 'online'.

En un mensaje publicado en el blog de la empresa, Google ha señalado que ha empezado a escanear millones de páginas de varias publicaciones americanas. "Por el momento, hemos escaneado más de un millón de artículos con títulos de muy diverso contenido, desde Salud Masculina a Béisbol". Todas estas revistas que poco a poco se van añadiendo son escaneadas a color y están disponibles en 'Google Books'. Desde el blog, la compañía señala que "los usuarios podrán buscar y leer un número creciente de revistas en color, con su cubierta, de la misma forma que están impresas". Además, estas revistas se añadirán a los resultados que ofrecerá el motor de búsqueda que ha hecho famosa a la compañía. "Esta iniciativa proporcionará una 'vida digital'. Estas páginas contienen su marca, sus enlaces a los sitios de las revistas y los anuncios, lo que dará a nuestros socios el medio perfecto para llegar a nuevos lectores y promover sus títulos en línea", añade el anuncio.