Buscar
2008/06/04
'Los Simpson' recuperan las cuerdas vocales
Después de medio mes de negociaciones por la huelga de los actores que ponen la voz a la familia de Springfield, Fox ha llegado a un acuerdo con ellos y comenzarán a grabar los nuevos episodios.
El enfrentamiento ha terminado. Tras semanas de huelga y negociaciones, los intérpretes que ponen la voz a los personajes a una de las series más longevas de Fox vuelven a su trabajo.
Las 'gargantas' de los personajes amarillos volverán a sonar este martes, debido a un contrato de otros cuatro años firmado con los estudios 20th Century Fox Tv, según anuncia Hollywood Reporter.
Como ya anunció elmundo.es, debido a la huelga de guionistas y de actores, los intérpretes pedían una subida salarial. Tanto los actores como los estudios han llegado a un acuerdo y se ha negociado la reducción de los capítulos de la nueva temporada, de 22 a 20.
Hasta el momento, los actores de la serie se embolsaban alrededor de 360.000 dólares por episodio y exigían un aumento de cerca de 140.000 dólares más, es decir, alcanzar la suma de 500.000 dólares (321.000 euros), incluidos algunos extras.
Por otro lado, una de las voces principales, la de Dan Castellaneta, que dobla a Homer en los capítulos emitidos en Estados Unidos y ha escrito varios guiones, ha sido nombrado asesor de producción.
Liberado parte del código de Facebook
En Facebook han creado un apartado en su sitio para desarrolladores. La licencia utilizada es mayoritariamente la CPAL (Common Public Attribution License), que según comentan en la Wikipedia es una modificación de la MPL que incluye una cláusula que obliga a citar a los desarrolladores originales en el propio software y según comentan en Menéame también incluye otra cláusula que la acercaría a la Affero GPL. También hay una parte del código publicado bajo la propia MPL. Creo que es algo importante, ya que Facebook es una web que parece haber pegado muy fuerte.
Firefox podría tener el 20% de Cuota de mercado en Julio
El navegador de Mozilla, Firefox, está a punto de tocar la marca del 20 por ciento en cuota de mercado el mes próximo, dijo anoche Net Applications
Firefox aumentó su cuota por 0.6 por ciento en Mayo, obteniendo así el 18.4 por ciento de los navegadores usados durante el mes y acercándose a un hito, de acuerdo a Net Applications Inc. “La tendencia de Firefox es llegar al 20 por ciento de la cuota de mercado en algún momento de Julio,” dijo Vince Vizzaccaro, el vicepresidente ejecutivo de marketing de la compañía en un correo electrónico.
La cuota de Mayo fue un récord para el navegador open-source, y continuó con las ganancias que habían sido interrumpidas en Abril cuando su cuota se redujo ligeramente. Esta incrementó también fue el más grande por parte de Firefox desde Marzo de 2007.
“Firefox está surgiendo nuevamente, pero sus ganancias, vistas a través del tiempo, no son nada fuera de lo ordinario,” dijo Vizzaccaro. “Aparte del estancamiento que Firefox experimentó a mediados de 2007, su crecimiento ha sido en general consistente.”
Vizzaccaro estaba refiriéndose a los varios meses el verano pasado cuando el navegador insignia de Mozilla redujo su cuota de mercado, incluyendo Mayo de 2007 (cuando bajó .9 por ciento comparado con el mes anterior) y Julio (con una baja del .2 por ciento).
Aunque Vizzaccaro no adjudicó el incremento de Firefox a un cambio en su diálogo de actualizaciones, sí hizo notar el nuevo método. “Mozilla ha implementado un cambio en Firefox 3.0 RC1 (Release Candidate 1) donde la instalación ahora tiene un marcador que hace que Firefox se vuelva el navegador por defecto,” dijo.
Vizzaccaro rehusó culpar a Mozilla por la práctica. “La opción está claramente marcada y etiquetada, contrario a Safari, el cual etiquetó la instalación de Safari como una “actualización”, pero desde entonces ha cambiado correctamente a “instalación.” Sin embargo, esta práctica es un cambio a la práctica tradicional empleada de tener la opción por defecto apagada.”
En Marzo, Apple empezó a usar su herramienta Software Update -está incluida con el software de Windows, incluyendo el popular iTunes para promocionar Safari 3.1 para Windows. Inicialmente, Apple ofreció su navegador a cualquier que corría Software Update, sin importar que Safari estuviera o no instalado en la PC. Esta práctica enfureció a muchos, incluyendo el CEO de Mozilla, John Lily. Varias semanas después, como Vizzaccar menciona, Apple modificó su herramienta de actualizaciones para que hiciera separara instalaciones nuevas, como Safari 3.1, de actualizaciones tradicionales.
Firefox 3.0, el cual Mozilla está intentando lanzar este mes, mostró un incremento del 0.2 por ciento en Mayo. También incrementando su cuota de mercado del mes pasado estuvieron Safari de Apple, subiendo de 0.5 por ciento a 6.3 por ciento, y Opera, subiendo de .02 por ciento a .7 por ciento.
Esas ganancias, como en el pasado, vinieron a expensas de Internet Explorer de Microsoft, que bajó más de un pounto porcentual en su cuota de mercado en Mayo, a 73.8 por ciento. Hace dos años, IE tenía el 84.1 por ciento de todos los navegadores usados para acceder a sitios operados por clientes de Net Applications.
“Apple continúa viendo un incremento en la cuota de mercado de Mac, y ya que IE ya no está disponible para Mac, Safari y Firefox han continuado incrementando su cuota de mercado gracias al alza del Mac" Vizzaccaro dijo, explicando el crecimiento de Safari y, en menor grado, el de Firefox.
Vizzaccaro también respondió a preguntas acera de la confiabilidad de la información de Mayo; a principios del mes pasado, Net Applications descubrió una campaña a gran escala de marketing en línea dirigido a usuarios de IE que había distorsionado los datos de Abril, y erróneamente alegaba que Firefox y Safari habían bajado su cuota de mercado considerablemente. Net Applications recalculó los datos e hizo una actualización en Mayo 7.
2008/06/02
Microsoft pierde vista
Borrón y cuenta nueva para el mayor fabricante de software del mundo. Tras la resaca en su intento de hacerse con Yahoo!, con más de 480 millones de visitantes únicos mensuales, Microsoft vuelve al punto de partida en unas complejas negociaciones. Si un próximo acuerdo entre ambas compañías no lo remedia, su unidad de servicios online podría acumular cerca de 1.000 millones de dólares de pérdidas a finales del próximo junio. ¿Puede la compañía permitirse semejante agujero? Financieramente sí, aunque no por mucho tiempo. Estratégicamente, sería un suicidio anunciado. Más aún cuando la línea que aporta casi el 30% de sus ingresos, Windows, afronta su peor momento con Vista.
Los resultados financieros del primer trimestre del año inquietan. Las ventas en la unidad de negocio del sistema operativo cayeron un 24% respecto al mismo periodo en 2007 y el beneficio operativo un 26%, en parte motivado por la histórica multa de 899 millones de euros impuesta por la Comisión Europea en febrero. El director financiero de la compañía, Christopher Liddell, exculpó a Vista de la caída y habló de recesión económica y piratería. Pero Wall Street ya espera ansioso los resultados del ejercicio completo a finales de junio, temerosos de presenciar el principio del fin de la era Windows.
Para algunos analistas, la fallida estrategia de compra de Yahoo! era el antídoto indispensable para compensar el verdadero problema con Vista. Aun logrando un acuerdo de última hora para hacerse con el segmento de búsqueda y publicidad de la empresa liderada por Jerry Yang, Microsoft seguiría arrastrando un gran fardo en su negocio estrella. La compañía asegura haber vendido 140 millones de licencias de Vista en todo el mundo desde su lanzamiento, en noviembre de 2006. Pero según Neil McDonald, vicepresidente de investigación de Gartner y coautor de la reciente y polémica presentación "Windows se derrumba", la cifra es engañosa. "No es un dato exacto de base instalada real, simplemente refleja ventas de PC y portátiles con el software preinstalado, sin tener en cuenta el número de compañías y consumidores que se están pasando a XP". Sólo entre el 4% y el 6% de ordenadores en el segmento empresarial, dice la consultora, han migrado a Vista, pero hasta un 80% de las compañías con más de 1.000 PC han decidido volver a XP.
"Siempre hay una curva de aprendizaje para consumidores y empresas al comienzo de cualquier sistema operativo, pero el número de licencias vendidas es muy positivo", asegura Verónica Olocco, directora de la división de Windows Client de Microsoft Ibérica. Pese a confiar en el repunte de Vista, la compañía ha extendido a finales de junio la posibilidad de preinstalar XP en nuevos ordenadores. Y, hasta el 31 de enero de 2009, las versiones Vista Ultimate y Business se podrán rebajar a XP Professional, con soporte a clientes corporativos hasta abril de 2014. Eso sí, pagando. Dell, HP y Lenovo, en una industria con márgenes en plena caída, no se lo han pensado dos veces.
"Seguimos ofreciendo XP porque nos debemos a nuestros clientes, ellos deciden qué cubre sus necesidades en función del precio y prestaciones", explica Salvador Cayón, director de marketing de sistemas personales de HP. El propio mercado de PC crece más rápido que la venta de licencias de Vista. Según IDC, durante el primer trimestre del año la venta de PC aumentó en Europa occidental un 12,6%, mientras que los ingresos globales en la unidad de "cliente" de Microsoft, a la que se adscriben las licencias de Windows, cayeron un promedio del 1,2% en los tres últimos trimestres.
El gigante de Redmond se arriesga a perder su gran oportunidad en los países emergentes. El mercado de PC en Latinoamérica, Europa del Este, Oriente Medio o Asia crece a ritmos anuales superiores al 25%. Los ordenadores de bajo coste, como el Asus EeePC o el Everex Cloudbook, ya exitosos en países desarrollados, están destinados a arrasar en economías en despegue. Todos utilizan Linux, con la opción de instalar XP. Microsoft ha reaccionado extendiendo la comercialización de XP Starter, su versión para países en desarrollo, hasta junio de 2010, lo cual frenaría seriamente las opciones de Vista. Para muchos expertos, Vista Starter es aún demasiado complejo y pesado, pero la compañía sigue apostando por él. "La adopción en algunos países emergentes está siendo mucho mejor de la esperada. En Brasil, Vista Starter se lleva el 50% del volumen total de licencias de Windows vendidas", afirma Olocco.
En los mercados maduros, el punto negro apunta al segmento corporativo, indeciso y desconfiado ante la necesidad de migrar a Vista. Según Gartner, en 2010, fecha en la que el nuevo sistema operativo Windows 7 estaría disponible, un 30% de las grandes corporaciones en Europa utilizarán todavía XP frente al 58% de Vista. En España, las empresas son especialmente escépticas. "No figura en la agenda de nadie, los directivos españoles no están siendo proactivos respecto a Vista, simplemente no ven el valor añadido", dice Alberto Delgado, director general de Penteo ICT Analyst. Benjamin Gray, analista de Forrester Research, se muestra más favorable a la migración. "Recomendamos a la mayoría de compañías pasarse a Vista para evitar problemas de disponibilidad de XP y la confusión en torno al nuevo sistema", escribe en un informe.
Toda una industria se ha lanzado a conjeturar si Windows 7 será la solución al problema. Es el secreto mejor guardado incluso dentro de Microsoft. "Honestamente, no sabemos nada, el equipo de desarrollo no ha filtrado detalles al resto de grupos", dice Olocco. A finales de 2009, aclaró hace unos días Steve Ballmer, el nuevo software estará disponible, aunque dada la historia de retrasos en anteriores versiones, muchos señalan 2010 como la fecha plausible. La compañía busca cubrir los errores de Vista y cumplir la costumbre de ofrecer nuevas versiones de forma regular a clientes corporativos. Pero el consenso es claro: Windows 7 será una actualización menor con algunos cambios, no un rediseño completo. "Sería un error de calado hacer lo contrario", afirma Delgado. "Se critica a Microsoft porque obliga a sustituir la plataforma cada cierto tiempo, renovarla otra vez desde cero en apenas tres años no tendría sentido".
Gates y Ballmer ofrecieron esta semana en San Diego, California, una breve demostración de lo que está por llegar. Windows 7 soportará una interfaz táctil, Multi-Touch, en línea con la apuesta de la compañía por Surface, la tecnología con la que Gates espera revolucionar la forma en la que utilizamos ordenadores. "Hoy toda la interacción es a través del ratón. En el futuro, la importancia de la voz o la vista será enorme", aseguró. Con la nueva interfaz se podrán manipular fotos o planificar rutas de viaje sobre un mapa, directamente utilizando los dedos sobre la pantalla, en una experiencia muy similar al iPhone de Apple. Sin embargo, si Microsoft aspira a seguir vivo en su negocio tradicional, Windows 7 deberá cubrir múltiples huecos, desde los graves problemas de compatibilidad con aplicaciones o la posibilidad de migrar licencias a cualquier dispositivo hasta la reducción en el uso de recursos o el impulso en la modularidad del código.
Mientras, el tiempo juega en contra. Google le pisa los talones en su propio terreno con aplicaciones web de productividad como Google Apps y su reciente alianza con Salesforce. El objetivo de Sergey Brin y Larry Page es situarse los primeros en la tendencia que marcará la industria en los próximos años: cloud computing, ofreciendo servicios a consumidores y grandes empresas a través de Internet como única plataforma. Su evolución financiera marea. Con un incremento de ingresos del 420% desde 2004, un beneficio en 2007 de más de 4.200 millones de dólares (unos 2.700 millones de euros) y un gasto en I+D sobre sus ventas del 13%, el buscador es capaz de todo.
El efecto Google no será el único contratiempo. La omnipresencia de Apple y Mac OS en el segmento de consumidores, su incremento de popularidad en el entorno corporativo y la figura de Linux como serio contrincante en mercados emergentes y el sector público serán fuertes obstáculos adicionales. Si a ello añadimos el complejo giro de mentalidad e innovación hacia los servicios e Internet, el reto es colosal. O, como concluye McDonald, "en Microsoft deben estar paranoicos".
Búsquedas y publicidad
Las negociaciones continúan. "Microsoft ya no está interesado en comprar la compañía, ahora proponen varias alternativas y nosotros escuchamos", reconoció esta semana Jerry Yang, consejero delegado de Yahoo!. Microsoft parece dispuesta a pagar hasta 21.000 millones de dólares por hacerse con el negocio de búsqueda de Yahoo!, un terreno en el que Google controla el 62% del mercado en EE UU.
Sería un gran paso en la búsqueda, la publicidad online y los servicios de Internet. En EE UU, el 54% de los consumidores que compran online parten de un buscador. Live Search Cash, el último intento de Microsoft por atacar este mercado en solitario, es todo un acierto: devuelve dinero a los consumidores que utilizan la aplicación para buscar y comprar en Internet. Sin embargo, con apenas el 9% del mercado de búsqueda, Microsoft lo tiene difícil para retar a Google. En juego está el mercado mundial de publicidad online, con un gasto estimado de 44.500 millones de dólares a finales de 2008, según ZenithOptimedia. A juicio de David Mitchell, vicepresidente de Gartner, "Microsoft está mejor situado para tener éxito en la publicidad que Google en software empresarial". Aun así, es un distante tercero en servicios online, con ingresos de 843 millones de dólares el pasado trimestre, lejos de los 1.817 millones de Yahoo! y los 5.186 millones de Google.
Los cuatro gigantes de Internet ultiman las piezas del puzle para liderar este mercado en los próximos años. Google asestó un buen golpe con la compra de DoubleClick en abril por 3.100 millones de dólares. Yahoo! es hoy uno de los más efectivos en la contextualización de publicidad tras absorber a Right Media y BlueLithium. Y AOL ha puesto un pie en la red social de la mano de Bebo. ¿Qué le queda a Microsoft en su transición del mundo de las licencias a Internet? Un buen número de frentes abiertos: ultimar la integración de aQuantive, Fast y TellMe, abrir camino en los medios sociales más allá del 1,6% en Facebook y MSN Homepages, unir Windows Live y Office, desarrollar el potencial de Live Mesh y, sobre todo, buscar un socio en la batalla.
¿Baterías de Ión-Litio 20 veces más duraderas?
Investigadores de la empresa Hitachi Maxwell en colaboración con la Universidad de Nagasaki (NIAIST) y la empresa Fuji Heavy Industries parecen haber desarrollado una batería que es capaz de almacenar 20 veces la energía de las baterías actuales.
Teóricamente el descubrimiento podría hacer que las baterías actuales de Ión-Litio quedaran relegadas a un segundo plano, porque según estos investigadores su descubrimiento no sólo aumenta la autonomía multiplicándola por 20, sino que además el proceso de fabricación masivo es sencillo y muy económico.
La idea tras la cual se basan los investigadores es la de utilizar manganeso en lugar de cobalto en dichas baterías, un componente muy caro y que por lo visto limita esa autonomía. Como dicen en Engadget, todo esto es muy bonito, pero hasta que no lo veamos en producción real y con una aplicación práctica a la informática moderna, donde las baterías son uno de los grandes problemas y limitaciones de la tecnología, no nos lo creeremos.
Notification e-global.es - Junio 2008
Estos son los Documentos Academicos, Cientificos y Tecnicos; Libros y Ensayos sobre Comercio Electronico y Negocios Electronicos Publicados en la Biblioteca Digital E-Global PaperFree de Comercio Electronico Global durante Mayo de 2008. Puedes descargar los que quieras leer en http://www.e-global.es
-- Total documentos en base de datos / Total Docs in Database: 2366
-- Nuevos documentos / New pdf Documents to download: 10
-- Cursos de comercio electronico: 3 (Del Viernes 6 al Lunes 16 de Junio)
-- Curso de Comercio Exterior en Internet: (Del Viernes 6 al Lunes 16 de Junio)
Sube un video a Videolever. Ya sabes que hemos lanzado Videolever, que es una plataforma para subir videos de tus ideas, y compartir o incrustar videos en tu sitio web o blog. Videolever se centra unicamente en videos interesantes y utiles. Videos que transmitan contenidos innovadores y el saber hacer de profesionales, emprendedores, empresarios, investigadores, profesores universitarios, doctorandos, masterandos y una persona como tu que seguro tienes ideas para compartir en un video corto.
-::: Documentos en Espanol :::-
- ANEI, 2008. Web 2,0 y Empresa. Manual de aplicacion en entornos corporativos.
- Nevarez Carrillo, 2005. Hacia una economía de la atencion. Principios de diseno de Nielsen.
- Rising Voices, 2008. Introduccion a los Medios de Comunicacion ciudadanos.
-::: Documents in English :::-
- Eurostat, 2008. Enterprise Births, Survivals and Deaths - Employment Effects.
- B2B-Blog de Comercio Electrónico Global (puedes leer B2B-Blog en RSS/XML para leer B2B-Blog en lectores RSS. O simplemente haz click y suscribete en: + Bloglines, + RSS Google, + My Yahoo RSSs, + Netvibes, + My MSN. O lee B2B-Blog desde Feedester, Feedburner, Firefox, etc.). Ultimas entradas al blog:
- iPhone 3G Movistar, el lanzamiento en España
- Facebook en el movil, aplicaciones
- Tu móvil señala tu perfil de consumidor en el supermercado
- Ultimos Articulos Publicados en el portal (que puedes sindicar RSS/XML):
- Solo el 16 por cien de los espanoles utiliza el comercio electronico
- II Estudio de la Fundación BBVA sobre internet en Espana
______________________________
Cursos de Comercio Electronico:
- Curso de Especialización en e-Marketing para Comercio Electronico. Del Viernes 6 al Lunes 16 de Junio. Inscríbete hoy.
- Curso Avanzado sobre Modelos de Negocio en Comercio Electronico. Del Viernes 6 al Lunes 16 de Junio. Inscríbete hoy.
- Curso de Negociacion Estrategica y Negociacion Online. Del Viernes 6 al Lunes 16 de Junio. Inscríbete hoy. Abierta la inscripción online.
- Curso de Comercio Exterior en Internet. Del Viernes 6 al Lunes 16 de Junio.
Ventas de videojuegos ya superan millonarias taquillas de cine en Estados Unidos
Las cifras pasaron de 12.500 millones de dólares en 2006 a 18.000 millones el año anterior, casi 45 por ciento más.
Pero quizás lo más diciente sea el reciente estreno de dos títulos. El primero es Halo 3. El 25 de septiembre del 2007, este juego de acción, que presenta un mundo donde el futuro de la humanidad depende de un soldado, vendió 170 millones de dólares en 24 horas, solo en Estados Unidos. Eso casi triplica los 60 millones de dólares que recaudó en su día de premier la cinta Spiderman 3, el filme más taquillero en ese país el año anterior.
El segundo caso es Grand Theft Auto IV. El pasado 29 de abril, la polémica historia de Niko Bellic, un mercenario que hace trabajos para la mafia de Nueva York, como traficar drogas y maltratar a prostitutas, rompió todos los récords.
Según su distribuidor, Take-Two Interactive, vendió 3,6 millones de unidades en todo el mundo en su primer día, y recaudó 310 millones de dólares. La cifra siguió en ascenso y al terminar su primera semana completó 6 millones de copias distribuidas y 500 millones de dólares.
Esta máquina de hacer dinero casi obliga a aplazar el estreno en Estados Unidos de la cinta Ironman, que finalmente salió sin retraso el 2 de mayo. Y aunque la película del héroe de hierro obtuvo 35,2 millones de dólares en su debut, solo alcanzó cerca de 200 en su primera semana de exhibición internacional, es decir, 300 millones menos que el juego de Niko Bellic.
Como si todo esto fuera poco, la evolución del negocio de los videojuegos aún no parece haber llegado a su límite. Según Anita Frazier, analista de la firma de investigaciones NPD Group, en el 2008 se superarán las marcas del 2007.
'La guerra de las consolas'
¿Qué hizo que esta industria entrara en semejante racha? La respuesta se encuentra a finales del 2006, cuando Nintendo y Sony presentaron sus nuevas consolas de juego: Wii y PlayStation 3, respectivamente, para competirle a Microsoft, cuya consola Xbox 360 había salido un año antes.
Microsoft y Sony apostaron por máquinas muy poderosas, con procesadores gráficos que generan imágenes bastante realistas. Nintendo, en cambio, se alejó de la pelea por la musculatura visual y le apuntó a la interacción de los usuarios para atraer nuevos adeptos.
Esta lucha entre gigantes generó un duro enfrentamiento en el mercado, conocido en la industria como 'La guerra de las consolas', que disparó las ventas de hardware, software y accesorios.
Bill van Zyll, director general de Nintendo Latinoamérica, dice que el crecimiento acelerado de su sector se debe en gran medida a la innovación de la oferta y a la expansión de la clientela.
E ejecutivo pone como ejemplo su exitosa consola Wii, líder mundial y agotada desde hace varios meses en Estados Unidos, cuyo sello de distinción es su control de mando, que reconoce los movimientos de las personas y los traslada a personajes virtuales.
"Nuestras investigaciones muestran que casi un tercio de quienes compran Wii no lo hacen para el uso exclusivo de un jugador, sino para toda la familia", sostiene van Zyll. La apuesta de Nintendo por un dispositivo que involucra a jugadores aficionados y a ocasionales, como mujeres y personas mayores, evidentemente fue un acierto.
Zyll anota que las consolas les han robado jugadores a los computadores (PC), pero no cree que estos hayan sido descartados como plataforma. "El PC está dirigido a un jugador especializado. En cambio, las consolas son para un usuario que quiere un dispositivo plug and play (se conecta y queda listo para el uso)", dice.
Guillermo Hermida, gerente de PlayStation Colombia, cree que la revolución de los juegos de video en la última década está relacionada con la fuerte competencia entre Nintendo, Microsoft y Sony.
"Las consolas han mostrado sus cartas más novedosas y han puesto a rodar una gran cantidad de desarrollos de los estudios de software, que generan títulos para toda clase de públicos", explica.
Rodrigo Díaz, gerente de Xbox Colombia, recuerda que desarrollar un videojuego era una tarea más sencilla en el pasado, cuando se trataba básicamente de una labor de programación y el contenido ocupaba un segundo plano.
Para lanzar un título hoy, contrasta, se necesita un departamento de música, diseño y desarrollo. "La historia y el contenido son tan importantes como el realismo de los gráficos", comenta.
Díaz cuenta que la producción de Halo 3 se inició en el 2004 con 60 personas y terminó el año pasado con 120. En la versión final se incluyeron más de 39.000 líneas de diálogo, 13.000 efectos de sonido y 6 horas de música, un conjunto de audio que supera el de 20 películas.
¿Y los costos? Este aspecto es otra ventaja de los videojuegos. Se estima que el desarrollo de Halo 3 costó 30 millones de dólares, y en trabajos de mercadeo se gastaron 20 millones más. Estos números son bajos si se comparan con los 258 millones que invirtió Columbia Pictures en la tercera parte de El hombre araña.
En Internet aún reinan los PC
Todo esto, sin contar con el floreciente campo de los videojuegos en línea, usados el año pasado por el 42 por ciento de los estadounidenses, según un estudio de NPD Group. El 90 por ciento lo hizo principalmente con su PC.
Es por esto que el popular juego de rol en línea World of Warcraft es la envidia de la industria. Aunque para acceder a él hay que pagar una mensualidad cercana a los 15 dólares, tiene más de 10 millones de usuarios y en el 2007 le generó ingresos por 300 millones de dólares a la compañía Blizzard. Este es solo un ejemplo del potencial que tiene este nicho de los videojuegos, que factura mil millones de dólares anuales solo en suscripciones, de acuerdo con NPD.
Colombia sería líder
Según la Encuesta de Consumo Cultural, realizada con el apoyo del Ministerio de Cultura, la mitad de los niños entre los 5 y los 11 años gastan buena parte de su tiempo libre en videojuegos. Y aunque en el país no hay cifras oficiales de ventas, los expertos coinciden en que el crecimiento de esta industria será grande este año.
"Colombia ocupará muy pronto el primer lugar de la región dentro del sector, por encima de Chile y Brasil", aseguró Rodrigo Díaz, de Xbox Colombia. Según él, los títulos de deportes (fútbol y carros), disparos y películas animadas son los que mayor demanda tienen.
Sergio Vélez, gerente de juegos de Video Colombia (distribuidor de Nintendo), cree que la participación de las mujeres y otros jugadores ocasionales marcará la evolución de este negocio. "Los desafíos mentales, con juegos como el sudoku, y títulos de ejercicios físicos, como Wii-Fit, son atractivos para las ejecutivas, que empiezan a encontrar una oferta dirigida a sus preferencias", comentó.
Celulares, el futuro de esta industria
Con más de 3.250 millones de usuarios de teléfonos celulares en el planeta, según la firma The Mobile World, este es un mercado que los videojuegos no van a pasar por alto.
Las cifras son prometedoras: de acuerdo con la compañía investigadora iSuppli, los juegos en dispositivos móviles moverán 6.600 millones de dólares en el año 2011.
No en vano uno de cada cuatro desarrolladores de juegos en Asia está dedicado a crear aplicaciones para celulares, para que usted no tanga que limitarse al tradicional Tetris.
Microsoft planea bloquear Linux en las Laptops
Mientras Microsoft está planeando bloquear Linux en las laptops económicas o las que ellos llaman “Ultra Lowcost”, nosotros podemos ver como los mismos fabricantes ya han bloqueado Windows XP, las computadoras sus drivers no son compatibles con los discos con XP aunque estos traigan los últimos service pack (SP3), para poder instalar windows XP deben de utilizarse herramientas que irónicamente son de código abierto y gratuitas para poderse incluir tales drivers en los instaladores. Lo mejor que le ha pasado a GNU/Linux es Windows Vista y el Service Pack 3 de Windows XP
Existen 354 distribuciones de Linux activas y otras 184 nuevas con un ritmo de crecimiento de 50 nuevas distribuciones nuevas cada mes, esto supera hasta las versiones Home Made de Windows XP, hay distribuciones para todos los gustos y necesidades, no importa si quiero hacer un Firewall, un Cluster de 100 computadoras, una estación de trabajo, o lo quiero para una “Ultra Lowcost” y no digamos para usarlo en algún proyecto de electrónica.
Realmente Microsoft se ve tonto diciendo aguanten con XP mientras viene Windows 7 y mientras dicen que el enfoque de Windows Vista fue la seguridad dicen que el enfoque de Windows 7 será el rendimiento, aunque los desarrolladores como Eric Traut digan lo contrario.
Microsoft sabe que las ULPC (Ultra Lowcost PC) es un mercado emergente que vino para quedarse, se esperan más de 20 nuevos modelos en los próximos 6 meses y muchos fabricates se unen cada vez más a este mercado ofreciendo PC desde 200 a 500 dólares, esto parece una fiebre que fue iniciada cuando muchas persnas querían comprar un OLPC, las computadoras donde Microsoft planea ponerles candado anti Linux son las vendrían siendo aquellas donde se permitiría instalar XP y definidas Ultra Lowcost (algo difícil de definir).
Procesador de menos de 1GHz de un solo core (No se incluen los procesadores Via C7 and Intel Atom N270)
Arriba de 1GB en RAM
Discos Duros mayores de 80GB
Pantallas menores a 10.2 pulgadas
Sin pantallas sensibles al tacto.
Ahora los temores de Microsoft son más latentes pero se hacen más evidentes al ver que los precios de XP en estas PCs serán desde los 10 a los 32 dólares, hasta aqui puedo escuchar sus rodillas temblando, Linux en el Desktop es un hecho.
Las paradojas de la seguridad
Una interesante paradoja de la seguridad, puesta de manifiesto por Bruce Schneier en su última columna en Wired, “Why do we accept signatures by fax?“: en un mundo donde la gente despotrica acerca de la seguridad en Internet y en la web, resulta que muchísimas empresas aceptan como válido un documento firmado y enviado por fax, cuando todos sabemos que resulta completamente trivial y prácticamente indetectable tomar simplemente una tijera y pegar una firma encima del documento que vamos a enviar. Una firma en un fax no puede ser garante de nada: su seguridad es nula; su falsificación, primaria, al alcance de un niño pequeño. Y sin embargo, el fax se sigue utilizando para el envio de contratos, cancelaciones, recibos, NDAs y documentos de todo tipo, atribuyéndoles plena validez.
En España, por ejemplo, es tradicional que si bien todo sean facilidades para firmar un contrato de servicio de cualquier tipo, sea necesario recurrir al fax para efectuar una cancelación del mismo, en parte - estoy seguro - porque ello dificulta el proceso al tratarse el fax de un dispositivo que nunca llegó a alcanzar una penetración importante en usuarios domésticos. Pero el nivel de seguridad que ofrece esa baja firmada por fax, que podría haber sido enviada por cualquiera, hace que el recurso al fax sea completamente absurdo: si quieren dificultar el proceso, harían mejor en pedirnos el documento en escritura cuneiforme sobre una piedra, al menos darían más trabajo a un presunto falsificador…
El fax es claramente una de las tecnologías que peor ha soportado el cambio de siglo. Pero en los negocios, su uso, además de incómodo, es completamente absurdo. Yo, en las últimas tarjetas, eliminé el número de fax, y casi miro con cara de “¿vienes del pasado?” a quien amenaza con enviarme uno o me pide que se lo envíe yo. El uso del fax me resulta incómodo y molesto. Pero, incomodidad aparte, su nula seguridad y el proceso de negación colectiva que desencadena y en virtud del cual todo lo que viene por él nos parece válido es verdaderamente pasmoso, y más en una época en la que, en cuestiones de seguridad, muchos cuestionan casi todo…
El Desastre Debian nos afectará por años
Pasará mucho tiempo antes de que estos días se olviden en la comunidad del software libre. Y nadie sabe hasta dónde llegarán las consecuencias de lo que ya se conoce como el Desastre Debian . "¿Pero sabés que es lo mejor –me decía en estos días un hacker amigo–, que aunque estamos profundamente avergonzados, dolidos y enojados, de todas maneras lo hicimos público, no lo ocultamos. Y sabemos que vamos a salir adelante."
Para resumir el incidente, los sistemas que usan la distribución de Linux llamada Debian estuvieron un año y ocho meses creando contraseñas públicas totalmente inseguras. Y esto ocurrió porque dos líneas de código fueron eliminadas de una aplicación conocida como OpenSLL . El Desastre Debian no afecta solo a Linux, sino que alcanza a cualquier sistema que tenga alguna relación con la seguridad en Internet.
El asunto es interesante porque quedó demostrado que sólo dos líneas de código realmente pueden causar una catástrofe de seguridad, y porque se trata de una cuestión técnicamente muy compleja que nos afecta de forma directa y cotidiana. La mayor parte de los tecnicismos quedarán fuera de esta columna, para no volverla indigesta, pero los curiosos podrán leer más detalles en los links que aparecen a lo largo del texto.
Contraseñas públicas
Cada vez que hacemos transacciones bancarias o comerciales en Internet, los datos son encriptados durante el trayecto, de tal manera que un pirata informático no pueda espiar nuestras contraseñas y otros datos sensibles. Encriptar algo es, en pocas palabras, convertirlo en un galimatías inextricable que sólo puede descifrarse si se cuenta con las contraseñas adecuadas.
En las comunicaciones por Internet se usan SSL o TLS . Las siglas vienen de Secure Sockets Layer y Transport Layer Security . En el proceso se requieren contraseñas públicas que cada parte produce aleatoriamente. Funciona bien, o razonablemente bien, considerando la inseguridad inherente a la Red.
El único pequeño problema es que, al revés que en el mundo real, en las computadoras el azar sencillamente no existe. Se lo puede emular con bastante fidelidad, pero es uno de los puntos débiles de estas tecnologías. El azar, en el mundo informático, puede volverse algo más o menos predecible; y aun el mejor de los azares no es azar verdadero. Estos números supuestamente aleatorios creados por las computadoras se llaman, por esto, seudoaleatorios .
Para crear las claves que intercambian nuestra PC y el servidor con el que queremos conectarnos (el del banco, digamos) se debe producir números al azar; seudoaleatorios, en rigor. Se usan para esto semillas , es decir, otros números, también al azar y en un rango muy grande. ¿Por qué es tan importante la semilla ? Porque es casi la única forma de evitar que el número pseudoaleatorio con el que se crean las claves públicas se vuelva predecible. De ocurrir esto, el cifrado se desmoronaría.
OpenSSL es una implementación de código fuente abierto de SSL y TLS . Su versión inicial salió en mayo de 1999 y fue la primera aplicación de software libre validada por la autoridad de tecnologías de encriptación de Estados Unidos. Nada hacía suponer que uno de los más prestigiosos paquetes de software libre estaría en el centro de una tormenta global nueve años después. Y mucho menos que involucraría a la más respetada de las distribuciones de Linux, Debian.
Caos de juguete
Al revés que Windows o Mac OS, Linux no tiene una única versión, sino que llega al público y las empresas bajo la forma de distribuciones, o distros , en la jerga. De hecho, cualquier persona con un poco de conocimiento y bastante paciencia puede armar su propia distribución ( www.gentoo.org ).
Las distros más conspicuas tienen un plantel estable de programadores, que adaptan el código fuente de Linux a fines específicos. Red Hat, por ejemplo, es una corporación que cotiza en Bolsa y cuenta con unos 2000 empleados. Canonical Limited, que compagina Ubuntu, tiene 130.
Debian es una rareza magnífica. Fundada por el alemán-norteamericano Ian Murdock, en 1994, el proyecto proponía algo que los cínicos de moda habrían encontrado risible: crear y mantener una distribución de Linux de forma cooperativa y abierta, con el mismo espíritu del software libre y con idéntica coherencia política; es decir, sin software de código cerrado de ninguna clase. La palabra Debian es la combinación del nombre de la novia de Murdock en la época en que inició el proyecto, Debra, hoy su ex esposa, y su propio nombre de pila. Ian lideró Debian hasta 1996, y actualmente es uno de los vicepresidentes de Sun Microsystems. Aquí, su blog, aunque no ha sido actualizado en los últimos dos meses: http://ianmurdock.com
Pese al supuesto exceso de idealismo (¿qué hubiera sido de nuestra especie sin los excesivamente idealistas?, me pregunto), Debian no sólo prosperó, sino que se convirtió en una de las distribuciones más populares y, por mucho, la más respetada. Que en estos días haya quedado asociada a un desastre de seguridad informática es a la vez una pena, una paradoja y en gran medida una injusticia, como se verá enseguida.
Pero constituye también una lección que el software libre deberá aprender, o arriesgarse a quedar convertido en una orquídea de invernadero o en instrumento de grandes corporaciones, como IBM o Google, habiendo así perdido por completo su sentido. Y hablo, como mínimo, de una simple ecuación económica; si el software libre desaparece, todos perdemos, incluso aquellos que no creen en él. Un estudio de la Universidad del Rey Juan Carlos, de Madrid, España, concluyó hace poco que si las 283 millones de líneas de código de Debian fueran propiedad de una compañía privada costarían unos 5400 millones de euros ( https://penta.debconf.org/~joerg/attachments/33-measuring_etch_slides.pdf ).
Pero, ¿qué pasó exactamente?
El 13 de mayo último, el proyecto Debian anunció que había descubierto una vulnerabilidad en el generador de números seudoaleatorios de su versión de OpenSSL . Dicho simple, su azar era previsible. ¿Por qué? Porque habían sido eliminadas dos líneas de código. A causa de esto, de manera silenciosa e invisible, se empezaron a usar como semillas los identificadores de proceso , los números que se asignan a cada programa que corre en un sistema, en este caso Linux ( www.debian.org/security/2008/dsa-1571 ). Puesto que en Linux sólo puede haber 32.768 identificadores de proceso, el número de semillas disponibles para generar números al azar se volvió ridículamente bajo. Como el algoritmo (la matemática) que se usa para producir números al azar es conocida, teniendo eso y las posibles semillas, es fácil adivinar el cifrado resultante.
Parecía tan sólo otro de esos miles de agujeros de seguridad que infestan el código de todas las aplicaciones informáticas de hoy. Pero era muchísimo más grave.
Durante un año y ocho meses, desde el 17/9/2006 hasta el 13/5/2008, cuando se corrigió la falla, los servidores basados en Debian habían estado produciendo claves fáciles de adivinar, predecibles y, por lo tanto, inútiles. Así que no bastaba con instalar la nueva versión corregida del paquete OpenSSL de Debian; había que regenerar los certificados digitales basados en esas claves públicas y volverlos a enviar a la autoridad competente.
Esas claves son independientes del sistema, por lo que la vulnerabilidad puede estar ahora enquistada en casi cualquier computadora del mundo. Oculta, olvidada, con una grave vulnerabilidad latente.
Y para empeorar todavía más las cosas, hay una cantidad de programas que se sirven de las bibliotecas de OpenSSL para hacer su trabajo de encriptación y seguridad.
Fue tan grave que el Centro de Tormentas de Internet ( www.sans.org ) no sólo lo reportó inmediatamente ( http://isc.sans.org/diary.html?date=2008-05-13 ), sino que subió su nivel de alerta a amarillo.
Sólo un par de días después de saberse la noticia, mis máquinas con Ubuntu instalaron una nueva versión de OpenSSL , y como parte del proceso me informaron que iban a recrear mis claves públicas; el sistema me avisó que, si no tenía idea de lo que esto significaba, le diera OK y me olvidara del asunto. Era una esquirla insignificante de un terremoto asolador. Me erizó la piel.
Quienes no leen inglés tienen un excelente resumen en español sobre el incidente en www.hispasec.com/unaaldia/3492
¿Qué toqué?
Aparte de la gravísima incertidumbre causada por casi dos años de crear y distribuir claves inseguras, está la humillación de cómo ocurrió la falla. Si no está sentado, hágalo ahora, porque la raíz del problema no puede ser más pueril.
Allá por 2006, un programador de Debian estaba trabajando en OpenSSL cuando el depurador, un sistema que se usa para detectar errores en el código, le hizo algunas advertencias sobre memoria no inicializada. Después de consultar con el grupo OpenSSL , simplemente decidió eliminar las líneas de código molestas, con las consecuencias antedichas. Dicha discusión puede verse aquí: http://rt.openssl.org/Ticket/Display.html?id=521&user=guest&pass=guest Según Debian, la intención de su programador era depurar el código, algo intrínsecamente bueno, y además hizo lo que correspondía, consultar con OpenSSL , que no encontró objeciones en eliminar dichas instrucciones ( http://wiki.debian.org/SSLkeys#head-a8437fc14786b3d5b9678241c7201c8c863555e7 ).
Pero el borrado de esas dos líneas de código causó que el generador de números seudoaleatorios (PRGN, por sus siglas en inglés) simplemente quedara restringido a usar 32.768 posibles semillas. Y adiós.
Si usted usa Ubuntu, Kubuntu o cualquier otro derivado de Debian, actualice el sistema, si no lo hizo ya, para corregir este bochornoso error y regenerar las claves criptográficas.
Si es administrador de sistemas, casi sin ninguna duda tiene relación con la seguridad informática, por lo que sería muy aconsejable que revise todo su sistema de certificados y claves criptográficas. Cuanto antes, mejor.
Lecciones al día
¿Puede uno hacer todo bien y, sin embargo, equivocarse? Oh, sí. Los periodistas lo sabemos bien. Podemos quemarnos el cerebro consultando las fuentes y reflexionando sobre un asunto, buscando todos los ángulos posibles para no imponer tendencia alguna a nuestro texto y, sin embargo, publicar algo que no es enteramente cierto. Habríamos necesitado quizá dos años y medio para hacerlo enteramente cierto. Pero debemos cerrar esa nota en el día. ¿Por qué?
Porque, como a los programadores, nos desvelan ciertos principios. En nuestro caso es la necesidad de dar a conocer. Es el mandamiento no escrito de esta profesión. Primero que nada, antes que nada y por sobre todas las cosas que el flujo de la información no se detenga. A veces este principio nos obnubila.
A los programadores los obsesiona la pureza del código. Es decir, que no sea propenso a errores. Sobre todo en un caso como el de OpenSSL , cuyas bibliotecas son usadas por numerosos programas de terceros.
Sinceramente, creo que el desarrollador de Debian que borró esas dos líneas de código se dejó llevar por este mandamiento informático. No quería mensajes de error del depurador porque esos mensajes significaban que en el futuro otros programadores podrían tener inconvenientes con OpenSSL .
Creo que fue Voltaire quien escribió que lo perfecto es enemigo de lo bueno: “Le mieux est l´ennemi du bien”. Todas las profesiones tienen alguna clase de ideal que, por momentos, puede cegar a sus cultores. Los de afuera nunca comprenden lo que se siente. Los que no son programadores encontrarán disparatado que alguien simplemente borre unas instrucciones, creyendo que están allí de adorno. No fue así, no fue tan simple, y no se puede simplemente crucificar al programador.
En cambio, todos tenemos que aprender aquí una lección. Igual que los periodistas seguiremos, inexorablemente, intentando que las cosas se sepan, incluso cuando podemos equivocarnos, los programadores no cejarán en el intento de depurar el código. Es inevitable.
La lección es otra. Todo código relacionado con la seguridad debería resolverse por medios más formales y estrictos que una lista de correo. Debian dice que la raíz del error estuvo en que “el programador consultó en la lista equivocada del grupo OpenSSL”.
Las listas de correo están muy bien, son una tradición, funcionan cuando todo lo demás falla, etcétera. Pero todo programador debería aprender que de ahora en más no puede eliminar ni una línea de código de un software de seguridad sin el visto bueno de una autoridad competente. O dicho de otro modo, que la seguridad está por encima de la pureza del código.
La segunda lección tiene que ver con la perspectiva. Creer que dos líneas de código son pocas, o que son insignificantes es miopía pura. Hoy se cree que el Titanic se hundió por culpa de sus remaches, que eran de mala calidad.
No ya dos líneas de código, sino un simple signo puede cambiar diametralmente una trayectoria, un vector, una cuenta. No es lo mismo haber llegado a tu primer millón de dólares (1.000.000) que haber llegado a deber tu primer millón (-1.000.000).