Buscar

2008/06/04

Acer también venderá un miniportátil de 300 €

Fuente: 20minutos.
  • La compañía taiwanesa presentó ayer el ordenador.
  • Se podrá adquirir con Linux y Windows
  • Tiene una pantalla de 8,9 pulgadas y resolución de 1024.
Se llama Aspire One y es la apuesta de Acer para el mercado de los portátiles de bajo coste y prestaciones ajustadas. Estará disponible en Espala a partir de julio por unos 300 euros.

El miniportátil, que tendrá que competir con el Asus Eee y el Mininote de Hewlett Packard, tiene una pantalla de 8,9 pulgadas y resolución de 1024x600 píxeles. Y en su versión más básica ofrece una batería con una autonomía de tres horas.

Podrá adquirirse con Windows XP o una versión de Linux adaptada para este ordenador, que por defecto viene equipado con una memoria RAM de 521 megas y un dispositivo de almacenamiento en estado sólido de ocho gigas.

Como ya viene siendo habitual en este tipo de dispositivos, incluye también una cámara web justo encima de la pantalla. La capacidad de almacenamiento puede aumentarse a través de un lector de tarjetas SDHC.

¿Hace unas chapas en la PSP?

Fuente: El Mundo.

Probablemente era de lo poco que faltaba en el mundo de los videojuegos. Después de juegos de piñatas y otros básicos como el 'Boom Blox', ahora llega un videojuego de chapas.
Su nombre será 'PlayChapas Football Edition', saldrá para PSP, y es la primera vez que Sony Computer Entertainment España (SCEE) se implica en el desarrollo de un videojuego totalmente español.
Según Sony, "PlayChapas Football Edition introduce una nueva forma de juego en PSP acompañada de una estética divertida e innovadora que permitirá echar una partida a las chapas de manera virtual".
La productora y distribuidora Zinkia, conocida por proyectos como las series de animación 'Pocoyó' o 'Shuriken School', es la encargada de crear y desarrollar en exclusiva este videojuego para PSP. El equipo de desarrollo de 'PlayChapas Football Edition' está formado por nueve personas, compuesto por diseñadores, grafistas y programadores que llevan trabajando en el proyecto durante más de once meses.
El consejero delegado de Zinkia, Fernando de Miguel, dijo que "nos ilusiona ser los creadores y desarrolladores del proyecto 'PlayChapas Football Edition', confirmando así la apuesta de Zinkia por la producción de videojuegos para consola. Ir de la mano de SCEE es toda una garantía de éxito para el futuro de 'PlayChapas Football Edition'".
Por su parte, el vicepresidente senior del sur de Europa y consejero delegado para España y Portugal de SCEE, James Armstrong, indicó que "estamos tremendamente entusiasmados con esta producción local ya que, por primera vez, Sony España promueve una acción de estas características".
Asimismo, Amstrong incidió en que será un título destinado a todo tipo de público y cuyos modos multijugador explotarán el juego con familiares y amigos: "'PlayChapas Football Edition' destaca por ser un título innovador con el que vamos a llegar a un amplio segmento de la población, por lo que padres e hijos podrán interactuar juntos mientras juegan".
'PlayChapas Football Edition' llegará al mercado en los próximos meses para la portátil de Sony a un precio aún por determinar.

Google y Amazon dominarán el Internet del futuro

Fuente: BAQUIA.

Predecir el futuro de Internet es algo complicado, sobre todo teniendo en cuenta que la Red es en sí misma un concepto que evoluciona y se modifica constantemente. Pero hay algunos especialistas que sí se atreven a vaticinar el porvenir del mundo online.

Y es que según el análisis “Internet en Estados Unidos: El fin del principio”, Google y Amazon serán las dos grandes compañías de Internet que consigan superar la desaceleración económica.

El autor del texto, Jeffrey Lindsay, de la firma de inversión Sanford C. Bernstein, asegura que estas dos firmas continúan creciendo anualmente a una tasa de entre 30 y 40%, un ritmo ciertametne envidiable a la vista del escenario económico que se acecina.

Eso sí, no todo será un camino de rosas para Google. Según Lindsay, el gran reto parala compaía es ahora extender el dominio logrado en los PCS a Internet móvil.

Lindsay además afirma que Yahoo! terminará siendo comprado por Microsoft. Dicha aseveración coincide con el día que sale a la luz que la compañía de Redmond ya ofreció a Yahoo! 40 dólares por acción en enero de 2007.

Por su parte, eBay no recibe los mejores augurios de parte de este analista. En su opinión, la compañía podría recibir un intento de comprta similar al de Yahoo! por Microsoft, o terminar deshaciéndose de PayPal o Skype para conseguir efectivo.

El secreto de la máquina de hacer dinero de Google

Fuente: Negocios.com.

Si Google fuera el Gobierno de Estados Unidos, los datos que llegan al ordenador que controla el número de búsquedas, el ritmo al que los usuarios hacen clic en los anuncios, o los ingresos que esto genera, serían clasificados como top secret.

Este grupo posee un complejo sistema basado en una subasta que determina qué anuncios aparecerán, dónde, y en qué orden. Cada vez que el equipo encargado de esta tarea altera las fórmulas que seleccionan y clasifican los anuncios, puede ver el efecto de estos cambios en los usuarios, en los anunciantes y en los ingresos de Google, que, en este primer trimestre del año, alcanzaron la cifra de 1,28 millones de euros cada hora.

El control de ese sistema está en manos de un selecto grupo de ingenieros, personal de ventas y finanzas, gestores de producto y estadísticos de la compañía, que son los que realmente hacen que Google funcione y sea un próspero negocio. En Wall Street, muchos analistas describen a la compañía como una gigantesca caja negra que tienen dificultades para comprender. De hecho, en los últimos meses, los inversores estaban preocupados por un supuesto declive en los clics en los anuncios de Google en Estados Unidos, algo que ellos interpretaban como un signo de que el negocio estaba viéndose afectado por la crisis.

Pero la realidad era otra. “Yo no diría tanto como que estamos hechos a prueba de recesión”, dice Hal R. Varian, jefe economista de Google. “Pero somos bastante resistentes a ella”, asegura. Los resultados financieros del primer trimestre superaron todas las expectativas. De todas formas, algunos analistas apuntan de nuevo que el crecimiento de Google se está ralentizando. Varian reconoce que las búsquedas y clics en áreas como las inmobiliarias o viajes crecen más lentamente.

Una idea brillante

La idea de vincular los anuncios con los resultados de la búsqueda fue desarrollada por primera vez no por Google, sino por GoTo.com, que más tarde cambió su nombre por el de Overture y después fue comprada por Yahoo! en 2003. Clasificaba los anuncios basándose en cuánto estaban dispuestos a ofrecer los anunciantes por una palabra clave. Cuanto más alta era la oferta, mejor era su colocación.

Cuando los ingenieros de Google desarrollaron su propio sistema de publicidad de búsqueda, entendieron pronto que conceder la mejor situación al mejor postor tendría pocos beneficios para Google si este anuncio no atraía clics. Y es que los anunciantes normalmente pagan a Google sólo cuando un usuario hace clic en su publicidad. Por eso, la compañía decidió clasificar los anuncios basándose en una combinación del precio ofertado y el índice de clic, la frecuencia con la que los usuarios entraban en un determinado anuncio.

Yahoo! intentó alcanzar a Google construyendo un nuevo sistema de publicidad de búsqueda que funciona de un modo parecido. Ayudó a aumentar los ingresos, pero según las cuentas de la propia Yahoo!, Google sigue ganando entre un 60% y un 70% más de media en cada búsqueda. Microsoft también se ha quedado atrás, en parte porque carece de suficientes anunciantes. Lo reconoció así en su reciente intento de comprar Yahoo!

Las herramientas para poner en marcha este sistema no estaban diseñadas desde un principio. Hace cuatro años, cuando los ingresos se doblaban anualmente y los beneficios crecían aún más deprisa, los altos ejecutivos estaban preocupados porque el negocio de Google pudiera estar creando una burbuja en la publicidad online.

El tráfico crecía rápidamente, al igual que el precio medio que los anunciantes estaban pagando por los clics. Pero Google se dio cuenta de que medir el coste medio por clic no era suficiente. Los usuarios podrían hacer clic en más anuncios más caros y en menos anuncios más baratos. Esto haría que el coste medio por entrada se elevara, pero diría poco sobre la salud del sistema en general.

Cesta de palabras clave
Por eso, Varian y Diane Tang, ingeniero jefe en el grupo de calidad de anuncios, idearon lo que llaman una cesta de palabras clave compuesta por una amplia muestra de palabras clave que se pondera para hacerla estadísticamente exacta. Esta referencia interna ayuda a Google a tener una imagen más clara de su rendimiento.

A medida que las mediciones mejoraron, Google evaluó cambios en aspectos como el área de hacer clic y el color del fondo de los anuncios, o los criterios para colocar los anuncios por encima de los resultados de búsqueda en lugar de debajo de ellos. Con el tiempo, la compañía también valoró otros índices. Google ahora tiene en cuenta la página de aterrizaje a la que se vinculan los anuncios, y otorga calificaciones bajas a las páginas cuyo único propósito es mostrar más anuncios. Pronto también se contará la velocidad de descarga de la página.

Todos estos factores contribuyen a la puntuación de calidad de un anuncio. Cuanto más alta es esta puntuación, menos tiene que ofrecer un anunciante para conseguir una colocación mejor. Por el contrario, un anunciante con una puntuación muy baja puede tener que pagar tanto, que eso le podría resultar antieconómico.

Las puntuaciones de calidad funcionan como un incentivo para que los anunciantes mejoren sus anuncios, lo que beneficia a los usuarios y, a su vez, a Google. Y como es lógico, no a todos los anunciantes les gusta esta estrategia, que consideran bastante oscura.

Relación con los eventos

En el santuario de Google, los ingenieros que controlan este sistema siguen de cerca la relación a veces peculiar de los acontecimientos del mundo y el negocio de Google. Por ejemplo, a mediados de febrero, la compañía se quedó desconcertada cuando vio que el número de búsquedas descendía inesperadamente. El equipo determinó que esos descensos eran fruto de eventos como el Carnaval de Nueva Orleans o el Año Nuevo Chino,que hicieron que la gente estuviera alejada de sus ordenadores.

También ocurre al contrario. Otros acontecimientos han provocado inesperados aumentos en el tráfico debido a que hicieron que la gente se quedara en casa, como las inundaciones de Inglaterra el pasado verano o la huelga de Francia del pasado otoño.

¿Para qué sirven 100 megas?

Fuente: El Pais.

La calidad del acceso a Internet es un parámetro geográfico. En España se considera banda ancha las conexiones a la Red con velocidades a partir de 1 megabit por segundo (Mbps). Pleno pleistoceno para los abonados de la Hong Kong Broadband Network, que disfrutan desde hace tres años de una oferta de conexión de un giga por poco más de 100 euros.

En cualquier caso, la creciente demanda de servicios a través de la Red ha propiciado que las compañías telefónicas se preparen para la carrera del Internet ultrarrápido. En cabeza están países como Japón, Singapur, Corea, Francia, Suecia, Finlandia, Italia, Dinamarca y Holanda, todos ellos con ofertas comerciales de 100 Mbps. España está en el pelotón de cola, ya que el 94% de los 8,5 millones de internautas navega con velocidades menores a 10 Mbps.

La causa de este retraso es que la mayor parte de los accesos usan la línea convencional del par de hilos de cobre, que heredó Telefónica y que adaptó para la conexión a Internet gracias a la tecnología ADSL (línea de abonado digital asimétrica). Pero el ADSL y su evolución, el VDSL2, permiten, como mucho, velocidades de 50 megas. Para conexiones mejores es necesaria fibra óptica o FTTH (fibra hasta el hogar), comúnmente conocido como cable.

Pero, ¿para qué sirven 100 megas? Desde luego, si usted sólo usa el correo electrónico, consulta las webs de los periódicos o el saldo de su cuenta corriente, un mega es más que suficiente. Si es habitual de los servicios de la llamada web 2.0 (MySpace, Facebook, Flickr, etcétera), será conveniente subir al menos a tres megas, al igual que para consultar webs con alto contenido multimedia.

Las descargas de vídeos y la televisión por Internet (IPTV) con un mínimo de calidad precisan de seis megas, aunque para las videoconferencias sin sensación de cámara lenta ni retardos se aconsejan 10 Mbps, una velocidad óptima también para comenzar a subir fotos y vídeos a la Red. La televisión de alta definición precisa de 25 megas.

Con 100 megas se puede hacer todo lo anterior en mucho menos tiempo. Por ejemplo, los aficionados al porno tardarán menos de un segundo en visualizar todas las fotos de una página. Si se quiere descargar un vídeo de YouTube, nos ahorramos hasta medio minuto de tortura mientras se carga. En menos de un segundo estaremos viendo las imágenes.

En cuanto al intercambio de archivos mediante los programas p2p (eMule, bitTorrent, Ares, etcétera), que significan el 75% del tráfico actual por la Red, teóricamente se puede descargar una película con un peso de entre 700 megabytes y un giga en menos de dos minutos y una canción mp3 en un segundo. Ahora bien, en la práctica, las descargas no sólo dependen del acceso sino de otros factores, como el número de fuente o la disponibilidad de las partes en que se divide el archivo.

Con 100 megas se puede, además, ver varios canales de televisión a la vez, videoconferencia con sensación de 3D y HD con calidad máxima.

Hasta ahora, la máxima velocidad comercial para clientes residenciales en España son los 25 megas que da Ono. Jazztel, Ya.com, Orange y Tele2 tienen ofertas de hasta 20 megas, y Telefónica dispone de una de 10 megas. Adamo ofrece 100 megas en algunos pueblos asturianos por 29 euros al mes, gracias a un proyecto de la UE. Pero que nadie espere esos precios en su ciudad. Los 100 megas rondarán los 100 euros.

Ono quiere romper la dinámica y ha iniciado una prueba piloto en Valladolid de conexión a 100 Mbps que ofrecerá comercialmente en el último trimestre del año a sus abonados de Madrid, Valencia y Barcelona. En cuanto a Telefónica, los 30 megas están en piloto y de los 100 ni hablar hasta 2009. Los 3,7 millones de abonados que navegan a tres Mbps deberán conformarse con ver duplicada su velocidad gratis este verano. El retraso en los hogares se compensa en los laboratorios. La Universidad Politécnica de Valencia logró un récord mundial al alcanzar 1.000 gigabits por segundo por kilómetro de fibra. Marca que será superada cuando nazca The Grid, la red en la que trabajan los científicos del CERN, que multiplicará por 10.000 las actuales velocidades.

'Los Simpson' recuperan las cuerdas vocales

Fuente: El Mundo.

Después de medio mes de negociaciones por la huelga de los actores que ponen la voz a la familia de Springfield, Fox ha llegado a un acuerdo con ellos y comenzarán a grabar los nuevos episodios.
El enfrentamiento ha terminado. Tras semanas de huelga y negociaciones, los intérpretes que ponen la voz a los personajes a una de las series más longevas de Fox vuelven a su trabajo.
Las 'gargantas' de los personajes amarillos volverán a sonar este martes, debido a un contrato de otros cuatro años firmado con los estudios 20th Century Fox Tv, según anuncia Hollywood Reporter.
Como ya anunció elmundo.es, debido a la huelga de guionistas y de actores, los intérpretes pedían una subida salarial. Tanto los actores como los estudios han llegado a un acuerdo y se ha negociado la reducción de los capítulos de la nueva temporada, de 22 a 20.
Hasta el momento, los actores de la serie se embolsaban alrededor de 360.000 dólares por episodio y exigían un aumento de cerca de 140.000 dólares más, es decir, alcanzar la suma de 500.000 dólares (321.000 euros), incluidos algunos extras.
Por otro lado, una de las voces principales, la de Dan Castellaneta, que dobla a Homer en los capítulos emitidos en Estados Unidos y ha escrito varios guiones, ha sido nombrado asesor de producción.

Liberado parte del código de Facebook

Fuente: Barrapunto.

En Facebook han creado un apartado en su sitio para desarrolladores. La licencia utilizada es mayoritariamente la CPAL (Common Public Attribution License), que según comentan en la Wikipedia es una modificación de la MPL que incluye una cláusula que obliga a citar a los desarrolladores originales en el propio software y según comentan en Menéame también incluye otra cláusula que la acercaría a la Affero GPL. También hay una parte del código publicado bajo la propia MPL. Creo que es algo importante, ya que Facebook es una web que parece haber pegado muy fuerte.

Firefox podría tener el 20% de Cuota de mercado en Julio

Fuente: www.faq-mac.com.

El navegador de Mozilla, Firefox, está a punto de tocar la marca del 20 por ciento en cuota de mercado el mes próximo, dijo anoche Net Applications
Firefox aumentó su cuota por 0.6 por ciento en Mayo, obteniendo así el 18.4 por ciento de los navegadores usados durante el mes y acercándose a un hito, de acuerdo a Net Applications Inc. “La tendencia de Firefox es llegar al 20 por ciento de la cuota de mercado en algún momento de Julio,” dijo Vince Vizzaccaro, el vicepresidente ejecutivo de marketing de la compañía en un correo electrónico.

La cuota de Mayo fue un récord para el navegador open-source, y continuó con las ganancias que habían sido interrumpidas en Abril cuando su cuota se redujo ligeramente. Esta incrementó también fue el más grande por parte de Firefox desde Marzo de 2007.

“Firefox está surgiendo nuevamente, pero sus ganancias, vistas a través del tiempo, no son nada fuera de lo ordinario,” dijo Vizzaccaro. “Aparte del estancamiento que Firefox experimentó a mediados de 2007, su crecimiento ha sido en general consistente.”

Vizzaccaro estaba refiriéndose a los varios meses el verano pasado cuando el navegador insignia de Mozilla redujo su cuota de mercado, incluyendo Mayo de 2007 (cuando bajó .9 por ciento comparado con el mes anterior) y Julio (con una baja del .2 por ciento).

Aunque Vizzaccaro no adjudicó el incremento de Firefox a un cambio en su diálogo de actualizaciones, sí hizo notar el nuevo método. “Mozilla ha implementado un cambio en Firefox 3.0 RC1 (Release Candidate 1) donde la instalación ahora tiene un marcador que hace que Firefox se vuelva el navegador por defecto,” dijo.

Vizzaccaro rehusó culpar a Mozilla por la práctica. “La opción está claramente marcada y etiquetada, contrario a Safari, el cual etiquetó la instalación de Safari como una “actualización”, pero desde entonces ha cambiado correctamente a “instalación.” Sin embargo, esta práctica es un cambio a la práctica tradicional empleada de tener la opción por defecto apagada.

En Marzo, Apple empezó a usar su herramienta Software Update -está incluida con el software de Windows, incluyendo el popular iTunes para promocionar Safari 3.1 para Windows. Inicialmente, Apple ofreció su navegador a cualquier que corría Software Update, sin importar que Safari estuviera o no instalado en la PC. Esta práctica enfureció a muchos, incluyendo el CEO de Mozilla, John Lily. Varias semanas después, como Vizzaccar menciona, Apple modificó su herramienta de actualizaciones para que hiciera separara instalaciones nuevas, como Safari 3.1, de actualizaciones tradicionales.

Firefox 3.0, el cual Mozilla está intentando lanzar este mes, mostró un incremento del 0.2 por ciento en Mayo. También incrementando su cuota de mercado del mes pasado estuvieron Safari de Apple, subiendo de 0.5 por ciento a 6.3 por ciento, y Opera, subiendo de .02 por ciento a .7 por ciento.

Esas ganancias, como en el pasado, vinieron a expensas de Internet Explorer de Microsoft, que bajó más de un pounto porcentual en su cuota de mercado en Mayo, a 73.8 por ciento. Hace dos años, IE tenía el 84.1 por ciento de todos los navegadores usados para acceder a sitios operados por clientes de Net Applications.

Apple continúa viendo un incremento en la cuota de mercado de Mac, y ya que IE ya no está disponible para Mac, Safari y Firefox han continuado incrementando su cuota de mercado gracias al alza del Mac" Vizzaccaro dijo, explicando el crecimiento de Safari y, en menor grado, el de Firefox.

Vizzaccaro también respondió a preguntas acera de la confiabilidad de la información de Mayo; a principios del mes pasado, Net Applications descubrió una campaña a gran escala de marketing en línea dirigido a usuarios de IE que había distorsionado los datos de Abril, y erróneamente alegaba que Firefox y Safari habían bajado su cuota de mercado considerablemente. Net Applications recalculó los datos e hizo una actualización en Mayo 7.

2008/06/02

Microsoft pierde vista

Fuente: El Pais.

Borrón y cuenta nueva para el mayor fabricante de software del mundo. Tras la resaca en su intento de hacerse con Yahoo!, con más de 480 millones de visitantes únicos mensuales, Microsoft vuelve al punto de partida en unas complejas negociaciones. Si un próximo acuerdo entre ambas compañías no lo remedia, su unidad de servicios online podría acumular cerca de 1.000 millones de dólares de pérdidas a finales del próximo junio. ¿Puede la compañía permitirse semejante agujero? Financieramente sí, aunque no por mucho tiempo. Estratégicamente, sería un suicidio anunciado. Más aún cuando la línea que aporta casi el 30% de sus ingresos, Windows, afronta su peor momento con Vista.

Los resultados financieros del primer trimestre del año inquietan. Las ventas en la unidad de negocio del sistema operativo cayeron un 24% respecto al mismo periodo en 2007 y el beneficio operativo un 26%, en parte motivado por la histórica multa de 899 millones de euros impuesta por la Comisión Europea en febrero. El director financiero de la compañía, Christopher Liddell, exculpó a Vista de la caída y habló de recesión económica y piratería. Pero Wall Street ya espera ansioso los resultados del ejercicio completo a finales de junio, temerosos de presenciar el principio del fin de la era Windows.

Para algunos analistas, la fallida estrategia de compra de Yahoo! era el antídoto indispensable para compensar el verdadero problema con Vista. Aun logrando un acuerdo de última hora para hacerse con el segmento de búsqueda y publicidad de la empresa liderada por Jerry Yang, Microsoft seguiría arrastrando un gran fardo en su negocio estrella. La compañía asegura haber vendido 140 millones de licencias de Vista en todo el mundo desde su lanzamiento, en noviembre de 2006. Pero según Neil McDonald, vicepresidente de investigación de Gartner y coautor de la reciente y polémica presentación "Windows se derrumba", la cifra es engañosa. "No es un dato exacto de base instalada real, simplemente refleja ventas de PC y portátiles con el software preinstalado, sin tener en cuenta el número de compañías y consumidores que se están pasando a XP". Sólo entre el 4% y el 6% de ordenadores en el segmento empresarial, dice la consultora, han migrado a Vista, pero hasta un 80% de las compañías con más de 1.000 PC han decidido volver a XP.

"Siempre hay una curva de aprendizaje para consumidores y empresas al comienzo de cualquier sistema operativo, pero el número de licencias vendidas es muy positivo", asegura Verónica Olocco, directora de la división de Windows Client de Microsoft Ibérica. Pese a confiar en el repunte de Vista, la compañía ha extendido a finales de junio la posibilidad de preinstalar XP en nuevos ordenadores. Y, hasta el 31 de enero de 2009, las versiones Vista Ultimate y Business se podrán rebajar a XP Professional, con soporte a clientes corporativos hasta abril de 2014. Eso sí, pagando. Dell, HP y Lenovo, en una industria con márgenes en plena caída, no se lo han pensado dos veces.

"Seguimos ofreciendo XP porque nos debemos a nuestros clientes, ellos deciden qué cubre sus necesidades en función del precio y prestaciones", explica Salvador Cayón, director de marketing de sistemas personales de HP. El propio mercado de PC crece más rápido que la venta de licencias de Vista. Según IDC, durante el primer trimestre del año la venta de PC aumentó en Europa occidental un 12,6%, mientras que los ingresos globales en la unidad de "cliente" de Microsoft, a la que se adscriben las licencias de Windows, cayeron un promedio del 1,2% en los tres últimos trimestres.

El gigante de Redmond se arriesga a perder su gran oportunidad en los países emergentes. El mercado de PC en Latinoamérica, Europa del Este, Oriente Medio o Asia crece a ritmos anuales superiores al 25%. Los ordenadores de bajo coste, como el Asus EeePC o el Everex Cloudbook, ya exitosos en países desarrollados, están destinados a arrasar en economías en despegue. Todos utilizan Linux, con la opción de instalar XP. Microsoft ha reaccionado extendiendo la comercialización de XP Starter, su versión para países en desarrollo, hasta junio de 2010, lo cual frenaría seriamente las opciones de Vista. Para muchos expertos, Vista Starter es aún demasiado complejo y pesado, pero la compañía sigue apostando por él. "La adopción en algunos países emergentes está siendo mucho mejor de la esperada. En Brasil, Vista Starter se lleva el 50% del volumen total de licencias de Windows vendidas", afirma Olocco.

En los mercados maduros, el punto negro apunta al segmento corporativo, indeciso y desconfiado ante la necesidad de migrar a Vista. Según Gartner, en 2010, fecha en la que el nuevo sistema operativo Windows 7 estaría disponible, un 30% de las grandes corporaciones en Europa utilizarán todavía XP frente al 58% de Vista. En España, las empresas son especialmente escépticas. "No figura en la agenda de nadie, los directivos españoles no están siendo proactivos respecto a Vista, simplemente no ven el valor añadido", dice Alberto Delgado, director general de Penteo ICT Analyst. Benjamin Gray, analista de Forrester Research, se muestra más favorable a la migración. "Recomendamos a la mayoría de compañías pasarse a Vista para evitar problemas de disponibilidad de XP y la confusión en torno al nuevo sistema", escribe en un informe.

Toda una industria se ha lanzado a conjeturar si Windows 7 será la solución al problema. Es el secreto mejor guardado incluso dentro de Microsoft. "Honestamente, no sabemos nada, el equipo de desarrollo no ha filtrado detalles al resto de grupos", dice Olocco. A finales de 2009, aclaró hace unos días Steve Ballmer, el nuevo software estará disponible, aunque dada la historia de retrasos en anteriores versiones, muchos señalan 2010 como la fecha plausible. La compañía busca cubrir los errores de Vista y cumplir la costumbre de ofrecer nuevas versiones de forma regular a clientes corporativos. Pero el consenso es claro: Windows 7 será una actualización menor con algunos cambios, no un rediseño completo. "Sería un error de calado hacer lo contrario", afirma Delgado. "Se critica a Microsoft porque obliga a sustituir la plataforma cada cierto tiempo, renovarla otra vez desde cero en apenas tres años no tendría sentido".

Gates y Ballmer ofrecieron esta semana en San Diego, California, una breve demostración de lo que está por llegar. Windows 7 soportará una interfaz táctil, Multi-Touch, en línea con la apuesta de la compañía por Surface, la tecnología con la que Gates espera revolucionar la forma en la que utilizamos ordenadores. "Hoy toda la interacción es a través del ratón. En el futuro, la importancia de la voz o la vista será enorme", aseguró. Con la nueva interfaz se podrán manipular fotos o planificar rutas de viaje sobre un mapa, directamente utilizando los dedos sobre la pantalla, en una experiencia muy similar al iPhone de Apple. Sin embargo, si Microsoft aspira a seguir vivo en su negocio tradicional, Windows 7 deberá cubrir múltiples huecos, desde los graves problemas de compatibilidad con aplicaciones o la posibilidad de migrar licencias a cualquier dispositivo hasta la reducción en el uso de recursos o el impulso en la modularidad del código.

Mientras, el tiempo juega en contra. Google le pisa los talones en su propio terreno con aplicaciones web de productividad como Google Apps y su reciente alianza con Salesforce. El objetivo de Sergey Brin y Larry Page es situarse los primeros en la tendencia que marcará la industria en los próximos años: cloud computing, ofreciendo servicios a consumidores y grandes empresas a través de Internet como única plataforma. Su evolución financiera marea. Con un incremento de ingresos del 420% desde 2004, un beneficio en 2007 de más de 4.200 millones de dólares (unos 2.700 millones de euros) y un gasto en I+D sobre sus ventas del 13%, el buscador es capaz de todo.

El efecto Google no será el único contratiempo. La omnipresencia de Apple y Mac OS en el segmento de consumidores, su incremento de popularidad en el entorno corporativo y la figura de Linux como serio contrincante en mercados emergentes y el sector público serán fuertes obstáculos adicionales. Si a ello añadimos el complejo giro de mentalidad e innovación hacia los servicios e Internet, el reto es colosal. O, como concluye McDonald, "en Microsoft deben estar paranoicos".

Búsquedas y publicidad

Las negociaciones continúan. "Microsoft ya no está interesado en comprar la compañía, ahora proponen varias alternativas y nosotros escuchamos", reconoció esta semana Jerry Yang, consejero delegado de Yahoo!. Microsoft parece dispuesta a pagar hasta 21.000 millones de dólares por hacerse con el negocio de búsqueda de Yahoo!, un terreno en el que Google controla el 62% del mercado en EE UU.

Sería un gran paso en la búsqueda, la publicidad online y los servicios de Internet. En EE UU, el 54% de los consumidores que compran online parten de un buscador. Live Search Cash, el último intento de Microsoft por atacar este mercado en solitario, es todo un acierto: devuelve dinero a los consumidores que utilizan la aplicación para buscar y comprar en Internet. Sin embargo, con apenas el 9% del mercado de búsqueda, Microsoft lo tiene difícil para retar a Google. En juego está el mercado mundial de publicidad online, con un gasto estimado de 44.500 millones de dólares a finales de 2008, según ZenithOptimedia. A juicio de David Mitchell, vicepresidente de Gartner, "Microsoft está mejor situado para tener éxito en la publicidad que Google en software empresarial". Aun así, es un distante tercero en servicios online, con ingresos de 843 millones de dólares el pasado trimestre, lejos de los 1.817 millones de Yahoo! y los 5.186 millones de Google.

Los cuatro gigantes de Internet ultiman las piezas del puzle para liderar este mercado en los próximos años. Google asestó un buen golpe con la compra de DoubleClick en abril por 3.100 millones de dólares. Yahoo! es hoy uno de los más efectivos en la contextualización de publicidad tras absorber a Right Media y BlueLithium. Y AOL ha puesto un pie en la red social de la mano de Bebo. ¿Qué le queda a Microsoft en su transición del mundo de las licencias a Internet? Un buen número de frentes abiertos: ultimar la integración de aQuantive, Fast y TellMe, abrir camino en los medios sociales más allá del 1,6% en Facebook y MSN Homepages, unir Windows Live y Office, desarrollar el potencial de Live Mesh y, sobre todo, buscar un socio en la batalla.

¿Baterías de Ión-Litio 20 veces más duraderas?

Fuente: the INQUIRER.

Investigadores de la empresa Hitachi Maxwell en colaboración con la Universidad de Nagasaki (NIAIST) y la empresa Fuji Heavy Industries parecen haber desarrollado una batería que es capaz de almacenar 20 veces la energía de las baterías actuales.

Teóricamente el descubrimiento podría hacer que las baterías actuales de Ión-Litio quedaran relegadas a un segundo plano, porque según estos investigadores su descubrimiento no sólo aumenta la autonomía multiplicándola por 20, sino que además el proceso de fabricación masivo es sencillo y muy económico.

La idea tras la cual se basan los investigadores es la de utilizar manganeso en lugar de cobalto en dichas baterías, un componente muy caro y que por lo visto limita esa autonomía. Como dicen en Engadget, todo esto es muy bonito, pero hasta que no lo veamos en producción real y con una aplicación práctica a la informática moderna, donde las baterías son uno de los grandes problemas y limitaciones de la tecnología, no nos lo creeremos.