Buscar

2008/06/02

¿Baterías de Ión-Litio 20 veces más duraderas?

Fuente: the INQUIRER.

Investigadores de la empresa Hitachi Maxwell en colaboración con la Universidad de Nagasaki (NIAIST) y la empresa Fuji Heavy Industries parecen haber desarrollado una batería que es capaz de almacenar 20 veces la energía de las baterías actuales.

Teóricamente el descubrimiento podría hacer que las baterías actuales de Ión-Litio quedaran relegadas a un segundo plano, porque según estos investigadores su descubrimiento no sólo aumenta la autonomía multiplicándola por 20, sino que además el proceso de fabricación masivo es sencillo y muy económico.

La idea tras la cual se basan los investigadores es la de utilizar manganeso en lugar de cobalto en dichas baterías, un componente muy caro y que por lo visto limita esa autonomía. Como dicen en Engadget, todo esto es muy bonito, pero hasta que no lo veamos en producción real y con una aplicación práctica a la informática moderna, donde las baterías son uno de los grandes problemas y limitaciones de la tecnología, no nos lo creeremos.

Notification e-global.es - Junio 2008

The following are the Latest Key Papers, Academic and Scientific Documentation, and Books on E-Business Published in the Digital Library E-Global PaperFree for free download in http://www.e-global.es

Estos son los Documentos Academicos, Cientificos y Tecnicos; Libros y Ensayos sobre Comercio Electronico y Negocios Electronicos Publicados en la Biblioteca Digital E-Global PaperFree de Comercio Electronico Global durante Mayo de 2008. Puedes descargar los que quieras leer en http://www.e-global.es

-- Total documentos en base de datos / Total Docs in Database: 2366

-- Nuevos documentos / New pdf Documents to download: 10

-- Cursos de comercio electronico: 3 (Del Viernes 6 al Lunes 16 de Junio)

-- Curso de Comercio Exterior en Internet: (Del Viernes 6 al Lunes 16 de Junio)


Sube un video a Videolever. Ya sabes que hemos lanzado Videolever, que es una plataforma para subir videos de tus ideas, y compartir o incrustar videos en tu sitio web o blog. Videolever se centra unicamente en videos interesantes y utiles. Videos que transmitan contenidos innovadores y el saber hacer de profesionales, emprendedores, empresarios, investigadores, profesores universitarios, doctorandos, masterandos y una persona como tu que seguro tienes ideas para compartir en un video corto.


-::: Documentos en Espanol :::-

- Red es y COIT, 2008. Ciudadania Movil.

- ANEI, 2008. Web 2,0 y Empresa. Manual de aplicacion en entornos corporativos.

- Comisión Europea DG Empresa e Industria, 2007. Carta Europea de la PYME Seleccion de buenas practicas.

- Gonzalez Marin N, 2005. Un Acercamiento al Comercio Electronico y a la Proteccion del Consumidor en Mexico.

- Nevarez Carrillo, 2005. Hacia una economía de la atencion. Principios de diseno de Nielsen.

- Rising Voices, 2008. Introduccion a los Medios de Comunicacion ciudadanos.


-::: Documents in English :::-

- Eurostat, 2008. Enterprise Births, Survivals and Deaths - Employment Effects.

- European e-Business Support Network, 2007. Benchmarking Sectoral Policy Initiatives in Support of e-Business for SMEs.

- Bossink B, 2005. Coinnovation Research. Manual for experiential research into organizational coinnovation.

- Eurostat, 2008. Key figures on European business. With a special feature on the factors of business success.



- B2B-Blog de Comercio Electrónico Global (puedes leer B2B-Blog en RSS/XML para leer B2B-Blog en lectores RSS. O simplemente haz click y suscribete en: + Bloglines, + RSS Google, + My Yahoo RSSs, + Netvibes, + My MSN. O lee B2B-Blog desde Feedester, Feedburner, Firefox, etc.). Ultimas entradas al blog:

- Vinton Gray Cerf: ha sido un honor conocerle

- iPhone 3G Movistar, el lanzamiento en España

- Facebook en el movil, aplicaciones

- Tu móvil señala tu perfil de consumidor en el supermercado



- Ultimos Articulos Publicados en el portal (que puedes sindicar RSS/XML):

- Solo el 16 por cien de los espanoles utiliza el comercio electronico

- II Estudio de la Fundación BBVA sobre internet en Espana

_____________________________________________________________________________

Cursos de Comercio Electronico:

- Curso de Especialización en e-Marketing para Comercio Electronico. Del Viernes 6 al Lunes 16 de Junio. Inscríbete hoy.

- Curso Avanzado sobre Modelos de Negocio en Comercio Electronico. Del Viernes 6 al Lunes 16 de Junio. Inscríbete hoy.

- Curso de Negociacion Estrategica y Negociacion Online. Del Viernes 6 al Lunes 16 de Junio. Inscríbete hoy. Abierta la inscripción online.

- Curso de Comercio Exterior en Internet. Del Viernes 6 al Lunes 16 de Junio.

Ventas de videojuegos ya superan millonarias taquillas de cine en Estados Unidos

Fuente: El Tiempo.

Las cifras pasaron de 12.500 millones de dólares en 2006 a 18.000 millones el año anterior, casi 45 por ciento más.

Pero quizás lo más diciente sea el reciente estreno de dos títulos. El primero es Halo 3. El 25 de septiembre del 2007, este juego de acción, que presenta un mundo donde el futuro de la humanidad depende de un soldado, vendió 170 millones de dólares en 24 horas, solo en Estados Unidos. Eso casi triplica los 60 millones de dólares que recaudó en su día de premier la cinta Spiderman 3, el filme más taquillero en ese país el año anterior.

El segundo caso es Grand Theft Auto IV. El pasado 29 de abril, la polémica historia de Niko Bellic, un mercenario que hace trabajos para la mafia de Nueva York, como traficar drogas y maltratar a prostitutas, rompió todos los récords.

Según su distribuidor, Take-Two Interactive, vendió 3,6 millones de unidades en todo el mundo en su primer día, y recaudó 310 millones de dólares. La cifra siguió en ascenso y al terminar su primera semana completó 6 millones de copias distribuidas y 500 millones de dólares.

Esta máquina de hacer dinero casi obliga a aplazar el estreno en Estados Unidos de la cinta Ironman, que finalmente salió sin retraso el 2 de mayo. Y aunque la película del héroe de hierro obtuvo 35,2 millones de dólares en su debut, solo alcanzó cerca de 200 en su primera semana de exhibición internacional, es decir, 300 millones menos que el juego de Niko Bellic.

Como si todo esto fuera poco, la evolución del negocio de los videojuegos aún no parece haber llegado a su límite. Según Anita Frazier, analista de la firma de investigaciones NPD Group, en el 2008 se superarán las marcas del 2007.

'La guerra de las consolas'

¿Qué hizo que esta industria entrara en semejante racha? La respuesta se encuentra a finales del 2006, cuando Nintendo y Sony presentaron sus nuevas consolas de juego: Wii y PlayStation 3, respectivamente, para competirle a Microsoft, cuya consola Xbox 360 había salido un año antes.

Microsoft y Sony apostaron por máquinas muy poderosas, con procesadores gráficos que generan imágenes bastante realistas. Nintendo, en cambio, se alejó de la pelea por la musculatura visual y le apuntó a la interacción de los usuarios para atraer nuevos adeptos.

Esta lucha entre gigantes generó un duro enfrentamiento en el mercado, conocido en la industria como 'La guerra de las consolas', que disparó las ventas de hardware, software y accesorios.

Bill van Zyll, director general de Nintendo Latinoamérica, dice que el crecimiento acelerado de su sector se debe en gran medida a la innovación de la oferta y a la expansión de la clientela.

E ejecutivo pone como ejemplo su exitosa consola Wii, líder mundial y agotada desde hace varios meses en Estados Unidos, cuyo sello de distinción es su control de mando, que reconoce los movimientos de las personas y los traslada a personajes virtuales.

"Nuestras investigaciones muestran que casi un tercio de quienes compran Wii no lo hacen para el uso exclusivo de un jugador, sino para toda la familia", sostiene van Zyll. La apuesta de Nintendo por un dispositivo que involucra a jugadores aficionados y a ocasionales, como mujeres y personas mayores, evidentemente fue un acierto.

Zyll anota que las consolas les han robado jugadores a los computadores (PC), pero no cree que estos hayan sido descartados como plataforma. "El PC está dirigido a un jugador especializado. En cambio, las consolas son para un usuario que quiere un dispositivo plug and play (se conecta y queda listo para el uso)", dice.

Guillermo Hermida, gerente de PlayStation Colombia, cree que la revolución de los juegos de video en la última década está relacionada con la fuerte competencia entre Nintendo, Microsoft y Sony.

"Las consolas han mostrado sus cartas más novedosas y han puesto a rodar una gran cantidad de desarrollos de los estudios de software, que generan títulos para toda clase de públicos", explica.

Rodrigo Díaz, gerente de Xbox Colombia, recuerda que desarrollar un videojuego era una tarea más sencilla en el pasado, cuando se trataba básicamente de una labor de programación y el contenido ocupaba un segundo plano.

Para lanzar un título hoy, contrasta, se necesita un departamento de música, diseño y desarrollo. "La historia y el contenido son tan importantes como el realismo de los gráficos", comenta.

Díaz cuenta que la producción de Halo 3 se inició en el 2004 con 60 personas y terminó el año pasado con 120. En la versión final se incluyeron más de 39.000 líneas de diálogo, 13.000 efectos de sonido y 6 horas de música, un conjunto de audio que supera el de 20 películas.

¿Y los costos? Este aspecto es otra ventaja de los videojuegos. Se estima que el desarrollo de Halo 3 costó 30 millones de dólares, y en trabajos de mercadeo se gastaron 20 millones más. Estos números son bajos si se comparan con los 258 millones que invirtió Columbia Pictures en la tercera parte de El hombre araña.

En Internet aún reinan los PC

Todo esto, sin contar con el floreciente campo de los videojuegos en línea, usados el año pasado por el 42 por ciento de los estadounidenses, según un estudio de NPD Group. El 90 por ciento lo hizo principalmente con su PC.

Es por esto que el popular juego de rol en línea World of Warcraft es la envidia de la industria. Aunque para acceder a él hay que pagar una mensualidad cercana a los 15 dólares, tiene más de 10 millones de usuarios y en el 2007 le generó ingresos por 300 millones de dólares a la compañía Blizzard. Este es solo un ejemplo del potencial que tiene este nicho de los videojuegos, que factura mil millones de dólares anuales solo en suscripciones, de acuerdo con NPD.

Colombia sería líder

Según la Encuesta de Consumo Cultural, realizada con el apoyo del Ministerio de Cultura, la mitad de los niños entre los 5 y los 11 años gastan buena parte de su tiempo libre en videojuegos. Y aunque en el país no hay cifras oficiales de ventas, los expertos coinciden en que el crecimiento de esta industria será grande este año.

"Colombia ocupará muy pronto el primer lugar de la región dentro del sector, por encima de Chile y Brasil", aseguró Rodrigo Díaz, de Xbox Colombia. Según él, los títulos de deportes (fútbol y carros), disparos y películas animadas son los que mayor demanda tienen.

Sergio Vélez, gerente de juegos de Video Colombia (distribuidor de Nintendo), cree que la participación de las mujeres y otros jugadores ocasionales marcará la evolución de este negocio. "Los desafíos mentales, con juegos como el sudoku, y títulos de ejercicios físicos, como Wii-Fit, son atractivos para las ejecutivas, que empiezan a encontrar una oferta dirigida a sus preferencias", comentó.

Celulares, el futuro de esta industria

Con más de 3.250 millones de usuarios de teléfonos celulares en el planeta, según la firma The Mobile World, este es un mercado que los videojuegos no van a pasar por alto.

Las cifras son prometedoras: de acuerdo con la compañía investigadora iSuppli, los juegos en dispositivos móviles moverán 6.600 millones de dólares en el año 2011.

No en vano uno de cada cuatro desarrolladores de juegos en Asia está dedicado a crear aplicaciones para celulares, para que usted no tanga que limitarse al tradicional Tetris.

Microsoft planea bloquear Linux en las Laptops

Fuente: talishte.

Mientras Microsoft está planeando bloquear Linux en las laptops económicas o las que ellos llaman “Ultra Lowcost”, nosotros podemos ver como los mismos fabricantes ya han bloqueado Windows XP, las computadoras sus drivers no son compatibles con los discos con XP aunque estos traigan los últimos service pack (SP3), para poder instalar windows XP deben de utilizarse herramientas que irónicamente son de código abierto y gratuitas para poderse incluir tales drivers en los instaladores. Lo mejor que le ha pasado a GNU/Linux es Windows Vista y el Service Pack 3 de Windows XP

Existen 354 distribuciones de Linux activas y otras 184 nuevas con un ritmo de crecimiento de 50 nuevas distribuciones nuevas cada mes, esto supera hasta las versiones
Home Made de Windows XP, hay distribuciones para todos los gustos y necesidades, no importa si quiero hacer un Firewall, un Cluster de 100 computadoras, una estación de trabajo, o lo quiero para una “Ultra Lowcost” y no digamos para usarlo en algún proyecto de electrónica.

Realmente Microsoft se ve tonto diciendo aguanten con XP mientras viene Windows 7 y mientras dicen que el enfoque de Windows Vista fue la seguridad dicen que el enfoque de Windows 7 será el rendimiento, aunque los desarrolladores como Eric Traut digan lo contrario.

Microsoft sabe que las ULPC (Ultra Lowcost PC) es un mercado emergente que vino para quedarse, se esperan más de 20 nuevos modelos en los próximos 6 meses y muchos fabricates se unen cada vez más a este mercado ofreciendo PC desde 200 a 500 dólares, esto parece una fiebre que fue iniciada cuando muchas persnas querían comprar un OLPC, las computadoras donde Microsoft planea ponerles candado anti Linux son las vendrían siendo aquellas donde se permitiría instalar XP y definidas Ultra Lowcost (algo difícil de definir).

Procesador de menos de 1GHz de un solo core (No se incluen los procesadores Via C7 and Intel Atom N270)
Arriba de 1GB en RAM
Discos Duros mayores de 80GB
Pantallas menores a 10.2 pulgadas
Sin pantallas sensibles al tacto.

Ahora los temores de Microsoft son más latentes pero se hacen más evidentes al ver que los precios de XP en estas PCs serán desde los 10 a los 32 dólares, hasta aqui puedo escuchar sus rodillas temblando, Linux en el Desktop es un hecho.

Las paradojas de la seguridad

Fuente: Blog de Enrique Dans.

Una interesante paradoja de la seguridad, puesta de manifiesto por Bruce Schneier en su última columna en Wired, Why do we accept signatures by fax?: en un mundo donde la gente despotrica acerca de la seguridad en Internet y en la web, resulta que muchísimas empresas aceptan como válido un documento firmado y enviado por fax, cuando todos sabemos que resulta completamente trivial y prácticamente indetectable tomar simplemente una tijera y pegar una firma encima del documento que vamos a enviar. Una firma en un fax no puede ser garante de nada: su seguridad es nula; su falsificación, primaria, al alcance de un niño pequeño. Y sin embargo, el fax se sigue utilizando para el envio de contratos, cancelaciones, recibos, NDAs y documentos de todo tipo, atribuyéndoles plena validez.
En España, por ejemplo, es tradicional que si bien todo sean facilidades para firmar un contrato de servicio de cualquier tipo, sea necesario recurrir al fax para efectuar una cancelación del mismo, en parte - estoy seguro - porque ello dificulta el proceso al tratarse el fax de un dispositivo que nunca llegó a alcanzar una penetración importante en usuarios domésticos. Pero el nivel de seguridad que ofrece esa baja firmada por fax, que podría haber sido enviada por cualquiera, hace que el recurso al fax sea completamente absurdo: si quieren dificultar el proceso, harían mejor en pedirnos el documento en escritura cuneiforme sobre una piedra, al menos darían más trabajo a un presunto falsificador…
El fax es claramente una de las tecnologías que peor ha soportado el cambio de siglo. Pero en los negocios, su uso, además de incómodo, es completamente absurdo. Yo, en las últimas tarjetas, eliminé el número de fax, y casi miro con cara de “¿vienes del pasado?” a quien amenaza con enviarme uno o me pide que se lo envíe yo. El uso del fax me resulta incómodo y molesto. Pero, incomodidad aparte, su nula seguridad y el proceso de negación colectiva que desencadena y en virtud del cual todo lo que viene por él nos parece válido es verdaderamente pasmoso, y más en una época en la que, en cuestiones de seguridad, muchos cuestionan casi todo…

El Desastre Debian nos afectará por años

Fuente: La Nacion.

Pasará mucho tiempo antes de que estos días se olviden en la comunidad del software libre. Y nadie sabe hasta dónde llegarán las consecuencias de lo que ya se conoce como el Desastre Debian . "¿Pero sabés que es lo mejor –me decía en estos días un hacker amigo–, que aunque estamos profundamente avergonzados, dolidos y enojados, de todas maneras lo hicimos público, no lo ocultamos. Y sabemos que vamos a salir adelante."

Para resumir el incidente, los sistemas que usan la distribución de Linux llamada Debian estuvieron un año y ocho meses creando contraseñas públicas totalmente inseguras. Y esto ocurrió porque dos líneas de código fueron eliminadas de una aplicación conocida como OpenSLL . El Desastre Debian no afecta solo a Linux, sino que alcanza a cualquier sistema que tenga alguna relación con la seguridad en Internet.

El asunto es interesante porque quedó demostrado que sólo dos líneas de código realmente pueden causar una catástrofe de seguridad, y porque se trata de una cuestión técnicamente muy compleja que nos afecta de forma directa y cotidiana. La mayor parte de los tecnicismos quedarán fuera de esta columna, para no volverla indigesta, pero los curiosos podrán leer más detalles en los links que aparecen a lo largo del texto.

Contraseñas públicas

Cada vez que hacemos transacciones bancarias o comerciales en Internet, los datos son encriptados durante el trayecto, de tal manera que un pirata informático no pueda espiar nuestras contraseñas y otros datos sensibles. Encriptar algo es, en pocas palabras, convertirlo en un galimatías inextricable que sólo puede descifrarse si se cuenta con las contraseñas adecuadas.

En las comunicaciones por Internet se usan SSL o TLS . Las siglas vienen de Secure Sockets Layer y Transport Layer Security . En el proceso se requieren contraseñas públicas que cada parte produce aleatoriamente. Funciona bien, o razonablemente bien, considerando la inseguridad inherente a la Red.

El único pequeño problema es que, al revés que en el mundo real, en las computadoras el azar sencillamente no existe. Se lo puede emular con bastante fidelidad, pero es uno de los puntos débiles de estas tecnologías. El azar, en el mundo informático, puede volverse algo más o menos predecible; y aun el mejor de los azares no es azar verdadero. Estos números supuestamente aleatorios creados por las computadoras se llaman, por esto, seudoaleatorios .

Para crear las claves que intercambian nuestra PC y el servidor con el que queremos conectarnos (el del banco, digamos) se debe producir números al azar; seudoaleatorios, en rigor. Se usan para esto semillas , es decir, otros números, también al azar y en un rango muy grande. ¿Por qué es tan importante la semilla ? Porque es casi la única forma de evitar que el número pseudoaleatorio con el que se crean las claves públicas se vuelva predecible. De ocurrir esto, el cifrado se desmoronaría.

OpenSSL es una implementación de código fuente abierto de SSL y TLS . Su versión inicial salió en mayo de 1999 y fue la primera aplicación de software libre validada por la autoridad de tecnologías de encriptación de Estados Unidos. Nada hacía suponer que uno de los más prestigiosos paquetes de software libre estaría en el centro de una tormenta global nueve años después. Y mucho menos que involucraría a la más respetada de las distribuciones de Linux, Debian.

Caos de juguete

Al revés que Windows o Mac OS, Linux no tiene una única versión, sino que llega al público y las empresas bajo la forma de distribuciones, o distros , en la jerga. De hecho, cualquier persona con un poco de conocimiento y bastante paciencia puede armar su propia distribución ( www.gentoo.org ).

Las distros más conspicuas tienen un plantel estable de programadores, que adaptan el código fuente de Linux a fines específicos. Red Hat, por ejemplo, es una corporación que cotiza en Bolsa y cuenta con unos 2000 empleados. Canonical Limited, que compagina Ubuntu, tiene 130.

Debian es una rareza magnífica. Fundada por el alemán-norteamericano Ian Murdock, en 1994, el proyecto proponía algo que los cínicos de moda habrían encontrado risible: crear y mantener una distribución de Linux de forma cooperativa y abierta, con el mismo espíritu del software libre y con idéntica coherencia política; es decir, sin software de código cerrado de ninguna clase. La palabra Debian es la combinación del nombre de la novia de Murdock en la época en que inició el proyecto, Debra, hoy su ex esposa, y su propio nombre de pila. Ian lideró Debian hasta 1996, y actualmente es uno de los vicepresidentes de Sun Microsystems. Aquí, su blog, aunque no ha sido actualizado en los últimos dos meses: http://ianmurdock.com

Pese al supuesto exceso de idealismo (¿qué hubiera sido de nuestra especie sin los excesivamente idealistas?, me pregunto), Debian no sólo prosperó, sino que se convirtió en una de las distribuciones más populares y, por mucho, la más respetada. Que en estos días haya quedado asociada a un desastre de seguridad informática es a la vez una pena, una paradoja y en gran medida una injusticia, como se verá enseguida.

Pero constituye también una lección que el software libre deberá aprender, o arriesgarse a quedar convertido en una orquídea de invernadero o en instrumento de grandes corporaciones, como IBM o Google, habiendo así perdido por completo su sentido. Y hablo, como mínimo, de una simple ecuación económica; si el software libre desaparece, todos perdemos, incluso aquellos que no creen en él. Un estudio de la Universidad del Rey Juan Carlos, de Madrid, España, concluyó hace poco que si las 283 millones de líneas de código de Debian fueran propiedad de una compañía privada costarían unos 5400 millones de euros ( https://penta.debconf.org/~joerg/attachments/33-measuring_etch_slides.pdf ).

Pero, ¿qué pasó exactamente?

El 13 de mayo último, el proyecto Debian anunció que había descubierto una vulnerabilidad en el generador de números seudoaleatorios de su versión de OpenSSL . Dicho simple, su azar era previsible. ¿Por qué? Porque habían sido eliminadas dos líneas de código. A causa de esto, de manera silenciosa e invisible, se empezaron a usar como semillas los identificadores de proceso , los números que se asignan a cada programa que corre en un sistema, en este caso Linux ( www.debian.org/security/2008/dsa-1571 ). Puesto que en Linux sólo puede haber 32.768 identificadores de proceso, el número de semillas disponibles para generar números al azar se volvió ridículamente bajo. Como el algoritmo (la matemática) que se usa para producir números al azar es conocida, teniendo eso y las posibles semillas, es fácil adivinar el cifrado resultante.

Parecía tan sólo otro de esos miles de agujeros de seguridad que infestan el código de todas las aplicaciones informáticas de hoy. Pero era muchísimo más grave.

Durante un año y ocho meses, desde el 17/9/2006 hasta el 13/5/2008, cuando se corrigió la falla, los servidores basados en Debian habían estado produciendo claves fáciles de adivinar, predecibles y, por lo tanto, inútiles. Así que no bastaba con instalar la nueva versión corregida del paquete OpenSSL de Debian; había que regenerar los certificados digitales basados en esas claves públicas y volverlos a enviar a la autoridad competente.

Esas claves son independientes del sistema, por lo que la vulnerabilidad puede estar ahora enquistada en casi cualquier computadora del mundo. Oculta, olvidada, con una grave vulnerabilidad latente.

Y para empeorar todavía más las cosas, hay una cantidad de programas que se sirven de las bibliotecas de OpenSSL para hacer su trabajo de encriptación y seguridad.

Fue tan grave que el Centro de Tormentas de Internet ( www.sans.org ) no sólo lo reportó inmediatamente ( http://isc.sans.org/diary.html?date=2008-05-13 ), sino que subió su nivel de alerta a amarillo.

Sólo un par de días después de saberse la noticia, mis máquinas con Ubuntu instalaron una nueva versión de OpenSSL , y como parte del proceso me informaron que iban a recrear mis claves públicas; el sistema me avisó que, si no tenía idea de lo que esto significaba, le diera OK y me olvidara del asunto. Era una esquirla insignificante de un terremoto asolador. Me erizó la piel.

Quienes no leen inglés tienen un excelente resumen en español sobre el incidente en www.hispasec.com/unaaldia/3492

¿Qué toqué?

Aparte de la gravísima incertidumbre causada por casi dos años de crear y distribuir claves inseguras, está la humillación de cómo ocurrió la falla. Si no está sentado, hágalo ahora, porque la raíz del problema no puede ser más pueril.

Allá por 2006, un programador de Debian estaba trabajando en OpenSSL cuando el depurador, un sistema que se usa para detectar errores en el código, le hizo algunas advertencias sobre memoria no inicializada. Después de consultar con el grupo OpenSSL , simplemente decidió eliminar las líneas de código molestas, con las consecuencias antedichas. Dicha discusión puede verse aquí: http://rt.openssl.org/Ticket/Display.html?id=521&user=guest&pass=guest Según Debian, la intención de su programador era depurar el código, algo intrínsecamente bueno, y además hizo lo que correspondía, consultar con OpenSSL , que no encontró objeciones en eliminar dichas instrucciones ( http://wiki.debian.org/SSLkeys#head-a8437fc14786b3d5b9678241c7201c8c863555e7 ).

Pero el borrado de esas dos líneas de código causó que el generador de números seudoaleatorios (PRGN, por sus siglas en inglés) simplemente quedara restringido a usar 32.768 posibles semillas. Y adiós.

Si usted usa Ubuntu, Kubuntu o cualquier otro derivado de Debian, actualice el sistema, si no lo hizo ya, para corregir este bochornoso error y regenerar las claves criptográficas.

Si es administrador de sistemas, casi sin ninguna duda tiene relación con la seguridad informática, por lo que sería muy aconsejable que revise todo su sistema de certificados y claves criptográficas. Cuanto antes, mejor.

Lecciones al día

¿Puede uno hacer todo bien y, sin embargo, equivocarse? Oh, sí. Los periodistas lo sabemos bien. Podemos quemarnos el cerebro consultando las fuentes y reflexionando sobre un asunto, buscando todos los ángulos posibles para no imponer tendencia alguna a nuestro texto y, sin embargo, publicar algo que no es enteramente cierto. Habríamos necesitado quizá dos años y medio para hacerlo enteramente cierto. Pero debemos cerrar esa nota en el día. ¿Por qué?

Porque, como a los programadores, nos desvelan ciertos principios. En nuestro caso es la necesidad de dar a conocer. Es el mandamiento no escrito de esta profesión. Primero que nada, antes que nada y por sobre todas las cosas que el flujo de la información no se detenga. A veces este principio nos obnubila.

A los programadores los obsesiona la pureza del código. Es decir, que no sea propenso a errores. Sobre todo en un caso como el de OpenSSL , cuyas bibliotecas son usadas por numerosos programas de terceros.

Sinceramente, creo que el desarrollador de Debian que borró esas dos líneas de código se dejó llevar por este mandamiento informático. No quería mensajes de error del depurador porque esos mensajes significaban que en el futuro otros programadores podrían tener inconvenientes con OpenSSL .

Creo que fue Voltaire quien escribió que lo perfecto es enemigo de lo bueno: “Le mieux est l´ennemi du bien”. Todas las profesiones tienen alguna clase de ideal que, por momentos, puede cegar a sus cultores. Los de afuera nunca comprenden lo que se siente. Los que no son programadores encontrarán disparatado que alguien simplemente borre unas instrucciones, creyendo que están allí de adorno. No fue así, no fue tan simple, y no se puede simplemente crucificar al programador.

En cambio, todos tenemos que aprender aquí una lección. Igual que los periodistas seguiremos, inexorablemente, intentando que las cosas se sepan, incluso cuando podemos equivocarnos, los programadores no cejarán en el intento de depurar el código. Es inevitable.

La lección es otra. Todo código relacionado con la seguridad debería resolverse por medios más formales y estrictos que una lista de correo. Debian dice que la raíz del error estuvo en que “el programador consultó en la lista equivocada del grupo OpenSSL”.

Las listas de correo están muy bien, son una tradición, funcionan cuando todo lo demás falla, etcétera. Pero todo programador debería aprender que de ahora en más no puede eliminar ni una línea de código de un software de seguridad sin el visto bueno de una autoridad competente. O dicho de otro modo, que la seguridad está por encima de la pureza del código.

La segunda lección tiene que ver con la perspectiva. Creer que dos líneas de código son pocas, o que son insignificantes es miopía pura. Hoy se cree que el Titanic se hundió por culpa de sus remaches, que eran de mala calidad.

No ya dos líneas de código, sino un simple signo puede cambiar diametralmente una trayectoria, un vector, una cuenta. No es lo mismo haber llegado a tu primer millón de dólares (1.000.000) que haber llegado a deber tu primer millón (-1.000.000).

Google propone un servicio inalámbrico rápido a escala nacional

Fuente: PC World.

Google está presionando para abrir un servicio nacional inalámbrico que promete un acceso superrápido a datos utilizando los llamados espacios blancos en el espectro de la televisión analógica.

En una carta a la Comisión Federal de Comunicaciones (FCC), Google sugirió que el espectro podría proveer “velocidades de transmisión de datos más altas y mayor alcance” de lo que es posible ahora con los servicios de telecomunicaciones y los “hotspots” Wi-Fi nacionales.

Los espacios blancos son el espectro inalámbrico inutilizado que existe entre los canales de TV. Esos espacios sirven para impedir que un canal analógico interfiera con un canal vecino. Las emisoras siempre han argumentado que los espacios no pueden utilizarse porque esto crearía interferencias con las transmisiones televisivas. Pero después de la transición a la TV digital en febrero de 2009, esa posición tiene menos sentido.

Esta porción del espectro (la banda de 700 MHz) puede viajar largas distancias y penetrar obstáculos como edificios y paredes, lo que la hace muy codiciada por diversos desarrolladores.

Utilizando estos espacios blancos, Google podría ofrecer acceso inalámbrico a la Internet para muchos dispositivos portátiles, entre ellos nuevos teléfonos móviles que utilizan el software Android; este software es respaldado por Google y está siendo desarrollado por un consorcio de compañías.

Richard Whitt, un asesor de Google basado en Washington, escribió la carta fechada el 21 de marzo de 2008 a la FCC. Llamó a la nueva tecnología inalámbrica “Wi-Fi 2.0” y celebró la capacidad de la misma para producir “velocidades de datos de varios gigabits por segundo”. Si la FCC da a Google la luz verde, dijo Whitt, el servicio podría estar disponible a los consumidores para el próximo año.

La carta de Whitt también sugería que la nueva banda ancha podría satisfacer las necesidades de los usuarios en zonas rurales. Y afirmó que el plan proporcionaría “una competencia muy necesaria” a los proveedores actuales del servicio de banda ancha.

Microsoft y la White Spaces Coalition, cuyos miembros incluyen Dell, Intel y Philips Electronics, respaldan el plan de Google.

Adobe mete vídeo en Flash en su formato PDF

Fuente: El Mundo.

La generación de documentos en el popular formato PDF de Adobe con imágenes en movimiento es posible con Acrobat 9 y su capacidad para incluir contenidos en Flash.

Se trata de una capacidad largamente esparada, sobre todo desde la compra de Macromedia por parte de Adobe en 2005. Ahora, esta herramienmta permite incluir contenidos sofisticados en Flash, entre otras novedades. ¿Que se quiere incrustar un vídeo de YouTube en el documento? No hay problema.

Recientemente, la compañía había cerrado un acuerdo con Yahoo! para incrustar publicidad interactiva en los documentos PDF, lo que implicaba introducir contenidos de manera interactiva en en este formato.

La compañía asegura en una nota (PDF) que el nuevo Acrobat 9 es capaz de convertir cualquier página web en un documento PDF, como otros documentos de papel, y permite las búsquedas en estos nuevos documentos.

Además, también es capaz de incluir presentaciones sde diapositivas tipo 'Power Point' de Microsoft, demostraciones, cuestionarios interactivos o incluso voz. Permite también la posibilidad de trabajar sobre un PDF de manera simultánea y remota.

Por último, Adobe asegura que el borrado permanente de información grarantiza la confidencialidad de ciertas informaciones.

Se prevé que Acrobat 9 Pro Extended, Acrobat 9 Pro y Acrobat 9 Standard para Microsoft Windows, y Acrobat 9 Pro para Mac OS X estén disponibles en agosto de 2008 en español.

Acrobat.com, una 'suite' ofimática en Red

Por otro lado, la compañía también ha anunciado la versión preliminar de Acrobat.com, una nueva web que integra varios servicios 'online', y que se une a otros servicios lanzados recientemente, como la versión de Red de PhotoShop o el reproductor de vídeo Adobe TV, una tendencia que la empresa inició con AIR.

Acrobat.com es una combinación de varios servicios 'online' recientemente lanzados: Adobe Brio (videoconferencias), Adobe Buzzword (procesador de textos 'online') y Adobe Share (herramienta para compartir documentos), así como Adobe ConnectNow, un servicio personal de realización de conferencias web que incluye posibilidades de intercambio de escritorio, conferencia de vídeo y voz, y chat integrado.

Según el sitio web especializado Techcrunch, con esta versión en pruebas de esta plataforma Adobe aúna las funciones de competidores como Google Docs, Microsoft Office Live Workspace, WebEx, y GoTo Meeting, "todo a la vez".

Linus Torvalds candidato al “Príncipe de Asturias”

Fuente: the INQUIRER.

Linus Benedict Torvalds, ingeniero de software finlandés, conocido por desarrollar la primera versión del kernel (núcleo) del sistema operativo Linux, ha sido propuesto como candidato a recibir el premio Príncipe de Asturias de Investigación Científica y Técnica 2008.

Torvarlds tendrá que competir con al menos 42 personas u organizaciones que también han sido propuestos para la XXVIII edición de los prestigiosos premios, uno de los económicamente mejor dotados del mundo.

Y no lo tendrá fácil. El científico británico James Lovelock, que lanzó la “teoría Gaia” que establece que la tierra funciona como un organismo vivo, el bioquímico belga Eric de Clercq por sus descubrimientos para hacer frente a enfermedades virales o la organización meteorológica mundial son otros de los candidatos.

Un jurado compuesto principalmente por científicos a los que se unen catedráticos, políticos y directivos de la industria decidirá el ganador cuyos premios serán entregados en octubre en el teatro campoamor de Oviedo.

La importancia y popularidad de Linux en el mundo tecnológico e informático mundial es indudable y crece rápidamente. Se estima que los ingresos por software de servidores, escritorios o empaquetados que corren bajo Linux (o servicios complementarios) alcanzarán 36.000 millones de dólares en 2008.

Más allá de las comparaciones (a veces odiosas), entre el uso en máquinas domésticas de distribuciones GNU/Linux o de sistemas Windows, Linux presenta unas virtudes de indudable valor. Entre ellas la estabilidad, acceso a las fuentes, seguridad, escalabilidad, interoperatibilidad, la activa comunidad de desarrollo que hay a su alrededor o su modelo de desarrollo de código abierto bajo licencia GPL (software libre).

Con una amplia cuota en el mercado de servidores y un dominio absoluto en supercomputadoras, su reto en cuanto a crecimiento de uso está ahora en el mercado del escritorio y en los dispositivos móviles.

Strands: aprende de ti mismo (pero tus datos son tuyos)

Fuente: Blog de Enrique Dans.

En Strands están que no paran. Y como ya he dicho en otras ocasiones que me gustan mucho lo que hacen, y además, me lo adelantan con todo lujo de detalles porque son amiguetes desde mucho antes de que Strands fuese Strands, lo cuento:
La última movida se llama simplemente Strands.com, y es la que define la tercera línea de productos de la compañía, la dedicada a medios sociales: ayudar a las personas a encontrar cosas que les podrían gustar, basándose en su comportamiento online. En este sentido, Strands.com, todavía en beta cerrada por invitación, es un sitio que recuerda poderosamente a Friendfeed, un agregador de toda tu información online, o lifestream, pero con toda la sistemática de algoritmos de recomendación de la compañía puesto encima de ello, para que puedas utilizar tu contenido y el de los amigos que decidas seguir como fuentes que te ayuden a encontrar contenido que te interese. De entrada, lo he estado probando, y me he encontrado con que había añadido nada menos que catorce de los servicios que utilizo, como quien diría “sin levantar el lápiz del papel”, simplemente proporcionando al sitio mi nombre de usuario en ellos o, en algunos casos, la URL del feed correspondiente. Tengo curiosidad por ver como gestiona las repeticiones (mi feed de Twitter, por ejemlo, está consolidado en mi Jaiku y en mi minifeed de Facebook, por ejemplo) y, por supuesto, de ver como reacciona cuando incorpore los de mis amigos.
Se trata de trabajar con los dos tipos de datos que generamos online: por un lado, los llamados “activos digitales” (listas de amigos, vídeos, fotografías, entradas de blog, etc.) y, por otro, datos que describen nuestras preferencias. La idea es avanzar en el camino de sitios como Friendfeed: mientras éste se limita a proporcionarte información sobre lo que hacen tus amigos, Strands procesa esa información y la usa para darte algo más que te permite orientarte en el maremagnum de contenido, pero con un respeto total y absoluto a la privacidad y a la portabilidad de los datos. Es precisamente en este sentido donde Strands ha querido ser religiosamente estricta: se ha hecho uso del conjunto de tecnologías abiertas ya desarrolladas, sin recurrir a ninguna tecnología propietaria, mediante estándares como OpenID, OAuth y APML que permitirán a los usuarios tener un control absoluto sobre sus datos y llevárselos a otros sitios en los que quiera que sean utilizados.
Los servicios que proporciona la página son cosas como el descubrir las entradas que han gozado de popularidad entre tus amigos, el control de la privacidad y la segmentación (quién de tus amigos ve qué contenidos tuyos) y el tracking de tus amigos, de las cuales hablaré a medida que las vaya probando.