Buscar

2007/10/04

La web que viene

Fuente: El Pais.

¿Cómo se diseñarán las páginas web durante los próximos años? Nadie lo sabe con certeza, aunque el World Wide Web Consortium (W3C) trabaja para incorporar nuevos elementos demandados por la comunidad internacional de diseñadores y desarrolladores de sitios web.
Según Bert Bos, máximo responsable del grupo de trabajo del W3C dedicado al desarrollo de las CSS (Hojas de Estilo en Cascada), entre las posibles novedades que se pretenden estandarizar se encuentran las siguientes: el uso de sombreados en textos o recuadros, la incorporación de imágenes con transparencias, el empleo de enlaces que hagan algo más que conducir al usuario a otra página, la posible utilización de más fuentes tipográficas, el uso de textos verticales o inclinados o la posibilidad de diseñar fácilmente páginas similares a las de periódicos o revistas (basadas en una rejilla).
Estas son algunas de las mejoras en las CSS que está estudiando el W3C, expuestas por Bos durante la primera jornada del congreso Fundamentos Web que empezó ayer miércoles en Gijón. El congreso, que este año llega a su tercera edición, cuenta con la participación de unos 400 profesionales relacionados con el desarrollo de páginas web.
Bert Bos explicó que casi 11 años después de la primera recomendación publicada por el W3C sobre cómo trabajar con CSS, el uso de las hojas de estilo es una realidad que afecta ya al 72% de las páginas web. Además, durante esta primera década de uso de las CSS se ha logrado reducir considerablemente el número de fallos en los navegadores.
Sin embargo, el representante del W3C reconoció que, a pesar del trabajo realizado en este tiempo, "aún quedan muchas cosas por desarrollar" en el campo de las CSS.
El grupo de trabajo que dirige Bos está integrado por unos 30 miembros y cuenta con la colaboración activa de unos 500 profesionales de todo el mundo. Bert Bos reclamó la colaboración de los diseñadores y desarrolladores para definir lo mejor posible las prioridades que debe establecer el W3C en este ámbito.
Escuchar a los usuarios
En la primera jornada del congreso Fundamentos Web intervino también el director de experiencia de usuario de Google, Jeffrey Veen, que destacó la importancia de escuchar a los usuarios a la hora de diseñar nuevos productos o servicios web "para entender sus necesidades".
"Debemos hacer sitios web que encajen en la vida de los usuarios, no intentar que los usuarios se adapten a nuestras páginas", explicó el representante de Google.
Veen reveló que dedica "mucho tiempo" de su trabajo a hablar con los usuarios "para saber qué les motiva, qué les gusta y qué intentan hacer en Internet". Esa información es clave para tomar luego la mejor decisión posible a la hora de diseñar un nuevo producto o servicio.
Según Veen, el mejor momento para hablar con los usuarios es en la fase inicial de definición de un proyecto, cuando el coste que implicaría un cambio es muy bajo. Si los cambios se pretendiesen hacer en la fase final del proyecto, los costes se dispararían.
Antes de trabajar para Google, Jeffrey Veen fue el director general de Measure Map, compañí¬a que fue adquirida por el buscador, y miembro fundador de la consultora de experiencia de usuario Adaptive Path.

Microsoft publica el código de las librerías .NET

Fuente: Barrapunto.

Según la nota en el blog de Miguel de Icaza, Microsoft publica el código fuente de las librerías de clases de .NET bajo una licencia no libre, al más puro estilo de Sun cuando en el pasado publicó las fuentes de Java sin liberarlo del todo. Si alguien todavía pensaba que en esto de las plataformas de desarrollo no había competencia, no dejará de sorprenderle este hecho, cuya iniciativa seguramente esté basada en las ventajas que ofrece la competencia (Sun) a los desarrolladores con esta posibilidad. Gracias a .NET (y/o Mono) se libera Java, y gracias a Java, se va liberando .NET.

El mayor error de la historia de Internet: cuando Yahoo pasó de comprar Google

Fuente: the INQUIRER.

En el año 2001, el CEO de Yahoo, Terry Semel, se reunió con Larry Page y Sergey Brin de Google con la intención de comprar la compañía. Pedían cinco mil millones de dólares, pero Semel dijo que no los valía. Ahora cuesta 100.000 millones, pero ni siquiera está en venta.

En Just Search se han dedicado a eso, a “buscar” en la Red, y han encontrado algunos de los errores más flagrantes de la historia de Internet. De ellos, el más conocido es el de Yahoo, que tuvo en sus manos la posibilidad de unirse a Google (digo unirse porque ellos nunca dijeron estar en venta) y la despreció.

Pero también Google se equivoca. Porque en 2005, y según Rupert Murdoch, Google podía haber comprado MySpace por sólo 290 millones de dólares, sin embargo decidió no hacerlo. Tres meses después, News de Murdoch compró el sitio de red social por 580 millones de dólares, el doble de lo que hubiese pagado Google. ¿Y por qué metió la pata? Porque en 2006, MySpace se hizo con un increíble 8 por ciento del tráfico de búsquedas de Google, que es de donde Google obtiene sus mayores ganancias. Si MySpace decidiese utilizar otro proveedor de búsquedas, Google podría perder bastante dinero, mucho más de lo que le hubiese costado comprar MySpace.

Otros errores vergonzosos son la unión de AOL con Time Warner (uno de los grandes fiascos de la burbuja Internet) y la compra de Lycos por parte de Terra.

OpenSuse 10.3 final

Fuente: HispaMp3.

Los chicos de Novell nos presentan la versión final de OpenSuse 10.3, de la distribución germana más popular.

A destacar de la misma que desde la versión anterior incorpora las revolucionarias gráficas tridimensionales XGL y la última Compiz Fusion de serie instalada por defecto.

Las principales diferencia con respecto a la versión 10.2, residen en que GNOME 2.20, la posibilidad de probar una preview de KDE 4, aunque de serie nos permite instalar la 3.5.7.

También destacan mejoras en YaST GTK, el centro de control de openSUSE, la nueva herramienta 1-Click-Install, la inclusión de soporte de serie para el codec MP3, LOS Repositorios "community".

2007/10/03

El vídeo online, próxima puerta de entrada para los virus informáticos

Fuente: 20minutos.
  • Expertos y académicos dicen que los creadores de virus están buscando nuevas vías de distribución.
  • Las redes sociales, los wikis y los blogs también pueden usarse para para infectar con código malicioso.
Los filtros antispam y los antivirus están mejorando su efectividad, por lo que los creadores de virus se ven obligados a imaginar nuevas vías de infección. "El próximo paso parecen ser los reproductores multimedia", afirma Chris Rouland, jefe de tecnología de IBM que ha participado en la elaboración del informe sobre amenazas informáticas de Georgia Tech.

El centro universitario de EE UU ha reunido esta semana a 300 académicos y expertos en seguridad para presentar su informe anual sobre amenazas para los usuarios de ordenadores, según informa The Washington Post.

Entre los nuevos riesgos, destaca el vídeo online. Los usuarios son cada vez más conscientes de la posibilidad de resultar infectados a través del correo electrónico o de determinadas páginas web, y el aumento de las cautelas lleva a los creadores de virus a buscar otras vías de infección. Y el vídeo es una de ellas.

No son muchos los casos detectados hasta el momento, pero en la presentación del informe de Georgia Tech han podido verse algunos. Uno de ellos abre de forma automática cuando se ejecuta un archivo multimedia una página web diseñada para distribuir virus. Otro es capaz de instalar programas espía cuando se abre un vídeo.

En la presentación del informe se han abordado otras amenazas en alza que provienen del uso de sitios sociales, como las comunidades online (MySpace o Facebook), los blogs y los Wikis, donde los atacantes empiezan a colocar sus señuelos con la esperanza de seguir infectando a los incautos.

La Biblioteca Británica en digital

Fuente: BBC Mundo.

Más de 100.000 libros antiguos, a los que no se tenía acceso con anterioridad, estarán a disposición del público con el programa de digitalización que inició la Biblioteca Británica.
La propuesta se centra en textos del siglo XIX, muchos de los cuales son desconocidos porque apenas se reimprimieron unos pocos tras sus primeras publicaciones.
La biblioteca considera que el acceso a estos documentos, a través de internet, será de gran utilidad para los docentes.
"Si no hay ediciones modernas, los profesores no pueden utilizarlos para sus clases", dijo Kristian Jensen, de la Biblioteca Británica.
"Lo que leemos en la actualidad es lo que la tradición predeterminó como gran literatura", añadió.
Trabajando a la capacidad máxima, aproximadamente 50.000 páginas pueden escanearse diariamente.
El resultado del proyecto
Se estima que se necesitarán 30 terabits (un billón de bits) de almacenaje para colocar el material que se obtendrá con el proyecto.
Se prevé que para digitalizar los primeros 25 millones de páginas se necesitarán dos años. El beneficio será mayor para los textos a los que no se puede acceder en la actualidad.
Por ejemplo, las obras que se publicaron fuera de los grandes centros literarios han perdido la nitidez en su impresión y, con frecuencia, han pasado al olvido.
Ahora, estos escritores tendrán una segunda oportunidad para llegar a nuevos lectores.
"Al digitalizar toda la colección le damos acceso (a la gente) a los libros sin el filtro de juicios posteriores, bien se basen en gusto o en aspectos económicos referidos a la impresión y publicación de los textos, comentó Jensen.
Esta nueva categoría de títulos por internet complementará otros volúmenes históricos y antiguos que la Biblioteca Británica ya puso a disposición de los lectores en la red a través de proyectos similares.
Éstos forman parte de dos propuestas: la colección en internet de libros ingleses antiguos y la del siglo XVIII.
Ambas están disponibles sin restricción para las instituciones británicas de educación superior.
Próximamente la Biblioteca Británica incluirá en su oferta digital dos millones de páginas de periódicos del siglo XIX y un millón de los del siglo XVIII.
Búsqueda de libros
Las publicaciones digitales serán accesibles por medio de dos opciones, inicialmente a través de la herramienta de Microsoft que permite la búsqueda de libros y, posteriormente, en la página en internet de la Biblioteca Británica.
Los lectores podrán utilizar palabras clave dentro de la publicación, lo que les permitirá buscar los textos con mayor rapidez y mejorar la interacción con el material.
Mientras Microsoft está trabajando en este proyecto, Google está digitalizando el trabajo de cinco de las bibliotecas más importantes del mundo, las de las universidades de Stanford, Harvard y Michigan, la de la biblioteca pública de Nueva York y la de Bodleian en Oxford.
Debido a restricciones relacionadas con derechos de propiedad intelectual, el acuerdo entre Microsoft y la institución británica solo incluye material de "dominio público".
"Hemos tenido mucho cuidado al excluir piezas de autores del siglo XIX que murieron después de 1936 porque el derecho de autor está vigente 70 años después de la muerte de la persona", indicó Jensen.

Internet será diez veces más veloz

Fuente: Publico.es.

Varios operadores están ensayando dos tecnologías que multiplicarán entre cinco y diez veces la velocidad actual de conexión a Internet. Los nuevos sistemas permitirán ofrecer servicios como televisión de alta definición o videoconferencia, y algunos de estos productos estarán disponibles antes de que acabe el año.

Pero las redes de nueva generación no llegarán de forma masiva hasta que la entidad reguladora, la Comisión del Mercado de las Telecomunicaciones (CMT), aclare el panorama legal.

Telefónica es la compañía que más pruebas está realizando. Unos 500 hogares de la Comunidad de Madrid están probando el VDSL2, una tecnología que es capaz de ofrecer velocidades cercanas a los 50 megabits por segundo (Mbps). El actual ADSL, o su versión mejorada, el ADSL2+, rinde a 16 Mbps en el mejor de los casos.

Desde Telefónica aseguran que los primeros resultados son buenos. De hecho, han solicitado a la Comisión del Mercado de las Telecomunicaciones (CMT) la autorización para extender los ensayos a Barcelona; en concreto, a varias centrales de Sant Cugat del Vallés, que se unirán a los que ya se hacen en ciudades como Alcorcón, Getafe, Móstoles y Tres Cantos, todas en Madrid, junto a la propia capital.

El VDSL2 tiene un defecto frente al ADSL: sólo va bien en las distancias cortas. La velocidad teórica del VDSL2 puede llegar a los 100 Mbps. Pero eso sólo ocurre en los laboratorios, con los mejores equipos y cableado.

En escenarios reales, para poder ofrecer velocidades superiores a los 30 Mbps, la distancia de la línea entre abonado y central debe ser inferior a los 300 metros. A partir de aquí, a mayor distancia, menor velocidad.

Lo que está haciendo Telefónica con estos ensayos es colocar nodos, una especie de minicentrales entre la central telefónica y el usuario, para reducir la longitud de la línea. De los 50 repetidores (armarios de 2x2 metros), unos se han colocado dentro del mismo edificio y otros, en un radio de 600 metros. El enlace entre ambos extremos sigue siendo el cable de cobre del teléfono, que sirve de soporte físico a la tecnología VDSL2. Por su parte, la conexión entre el nodo y la central, y de ahí a Internet, es mediante fibra óptica.

Jazztel también está realizando pruebas de laboratorio con el VDSL2. Su apuesta, a la espera de lo que decida la CMT, será ofrecer conexiones mediante esta tecnología pero sin necesidad de instalar nodos. Los datos irán desde la central hasta el hogar con VDSL2. El problema aquí es que sólo los que vivan a menos de 600 metros de una central notará la mejora en la velocidad.

GPON y fibra óptica

La otra tecnología que está probando algunas operadoras es el GPON. Telefónica lo está haciendo en varias centrales de Madrid. En este caso, los datos viajan por fibra óptica y no sobre el cable de cobre telefónico, como hace el ADSL.

La fibra es aún más rápida. Puede alcanzar los 100 Mbs simétricos, es decir, la misma velocidad tanto en sentido ascendente como descendente. Otra de sus ventajas es que no se ve afectada por la distancia entre la central y el hogar del usuario.

El punto débil de la fibra es el precio. Llevarla hasta el hogar puede superar los 1.000 euros por usuario, frente a los 300 que supone darle una conexión ADSL nueva. De ahí que tanto Telefónica como la competencia insistan en la necesidad de una nueva legislación, que de estabilidad a las nuevas inversiones.

Esa es la posición de Jazztel, Orange, Yacom y Ono pero también de Telefónica.La operadora de cable Ono, que ya ofrece 25 Mbs con su red actual, lleva tres meses realizando una serie de pruebas con GPON. Unos 2.000 vecinos de Alcalá de Henares, en Madrid, han visto sustituida su conexión de cable por la fibra óptica.

Orange, por su parte, asegura estar preparada para instalar el FTTH pero no ha querido revelar si está realizando alguna prueba.

¿Fue realmente un error la compra de Skype?

Fuente: Blog de Enrique Dans.

Una pléyade de artículos en la prensa de hoy critican duramente la adquisición de Skype por parte de eBay de hace dos años, con titulares que van desde el “estallido de la burbuja” de Business Week hasta el Sorry, wrong number del WSJ. Los hechos hablan por sí mismos: Janus Friis sale de la compañía, Niklas Zennström deja el puesto de CEO, se paga únicamente un tercio del earn-out establecido, y se anotan mil quinientos millones como pérdida.

Mi análisis, sin embargo, es diferente, y empieza por negar la mayor: creo que la operación no sólo no fue un error, sino que ni siquiera fue especialmente cara. Creo que Skype era, en el momento de ser comprada, una compañía con un buzz factor brutal, unos crecimientos impresionantes en número de usuarios y en facturación, una empresa con un potencial increíble. Y que lo que realmente ha habido aquí ha sido una gestión de la operación de adquisición y del proceso de post-adquisición espantosa por parte de eBay, en una auténtica demostración de cómo destruir valor para el accionista. Y creo que culpar a Skype o a quienes hicieron en su momento la valoración de la compañía es de una cortedad de miras increíble en este caso, además de un ejercicio de amarillismo.

Lo primero que hizo eBay al tomar posesión de la compañía fue cargarse completamente el buzz factor: de una Skype que generaba titulares sin parar por los más variados motivos (alianzas, incorporación de nuevas prestaciones, etc.) pasamos a la fría estepa siberiana, a la falta total de noticias y al más puro síndrome post-adquisición del que he hablado en tantas ocasiones. De las pretendidas sinergias y planes para la maravillosa integración de la herramienta dentro del marketplace… dos años después, nada más allá de la triste opción de incluir el botoncito de “Skype Me” cuando listas un producto, algo que, francamente, podía hacer hasta yo. De eBay se puede decir que aniquiló la incipiente pero marcada cultura de Skype: de una gran independencia y autonomía en la gestión de los países pasamos a una centralización y una integración en unas estructuras de Skype que, a pesar de la toma de control, dejaron completamente a la compañía de lado, retirándole cualquier prioridad. Fue completamente incapaz de retener a los fundadores: Niklas abandona el cargo hoy, pero realmente llevaba muchos meses fuera de él, inmerso en el lanzamiento de Joost, y Janus todavía más. Resulta completamente evidente: una Skype que podría haber aportado un gran valor a muchas compañías, ha sido maltratada y estropeada por el tratamiento que le ha dado una eBay que jamás creyó en ella. Como comprar un jamón, meterlo en un armario, y dejarlo que se pudra en él. Para mí, esto no es un caso de mala valoración, ni de burbuja, ni de dejarse llevar por la exuberancia: es un caso puro, duro y palmario de mala gestión.

Hoy, Skype tiene algo menos de el doble de los usuarios que tenía cuando fue adquirida: del 30% de los 95 millones de usuarios registrados activos que tenía en Septiembre de 2005, hemos pasado a un 20% de 220 millones, un crecimiento muy inferior al que debería haber tenido de haber seguido en solitario o haber sido comprada por alguien con un poco de criterio y ganas de hacer las cosas bien. Ante la demostración de mala gestión de eBay, lo mejor que le podría pasar hoy a Skype es convertirse en un spin-off y recuperar la alegría de vivir.

¿Una operación cara y mal planteada? No. La compañía no compró caro: compró mal. Lo que ha sido es una verdadera pena.

Los terapeutas usan la Wii para rehabilitar a sus pacientes

Fuente: the INQUIRER.

La consola más sorprendente del mercado vuelve a ofrecernos una aplicación notable: la de ayudar en la rehabilitación de los pacientes, que se recuperan y se divierten jugando a la Wii.

La forma de jugar a la Wii permite que ciertos tipos de afecciones puedan ser tratadas jugando a esta consola. Al menos así lo están demostrando algunos terapeutas.
Una persona de 77 años - ex-jugador semiprofesional de tenis - que sufrió una apoplejía recuperó buena parte dela movilidad de sus brazos y piernas gracias a sus partiditos con el Wii Tennis, y sus terapeutas coinciden en que la consola le ha ayudado mucho en esa recuperación.
Uno de los responsables del centro de rehabilitación en Minneapolis ha afirmado que “aunque no está diseñada para ser utilizada en la terapia por sí misma, algunos de los juegos son muy útiles a la hora de activar al paciente. Luego es cuestión de - desde un punto de vista de investigación - tratar de desarrollar estos conceptos a algo que esté dedicado y especializado para la rehabilitación.”

PlayStation 3 vende menos que GameCube

Fuente: Vida Extra.
A nadie se le escapa que PlayStation 3 no está funcionando tan bien como debería. La sombra de PlayStation 2 es alargada, y aunque Xbox 360 y Wii están funcionando mucho mejor que sus rivales en la anterior generación, gran parte de las ventas que PlayStation 3 no ha tenido se deben a antiguos usuarios de PlayStation 2 que aún no han encontrado la razón para dar el salto generacional.
Por ello, me ha resultado curioso encontrarme hoy con este gráfico que compara las ventas conseguida en los 10 primeros meses de vida por PlayStation 3, con la gran olvidada de la generación anterior: GameCube. Aunque personalmente (y esto es un gusto personal, insisto) GameCube me parece la mejor máquina de dicha generación, es cierto que sus ventas fueron nefastas, convirtiéndose en la consola menos vendida de Nintendo en toda su historia (obviando el Virtual Boy, por supuesto).

Por ello, no deja de resultar curiosa la comparativa, ya que las dos máquinas han recorrido un camino similar en sus primeros meses de vida. Mientras las ventas de GameCube fueron mayores en su primera etapa y luego decrecieron, en el caso de PlayStation 3 se elevaron paulatinamente hasta alcanzar un punto máximo para luego caer de nuevo. El caso es que ambas máquinas están funcionando de forma parecida pero… ¿seguirá PlayStation 3 los pasos de GameCube?
Personalmente, creo que no, debido en gran parte a la enorme base de usuarios de PlayStation 2 que, cuando llegue el momento de renovar su máquina de sobremesa, ni se plantean otra opción que no sea la de hacerse con una PlayStation. Si a eso añadimos que el catálogo de la consola aún está por construir, ya que apenas hay títulos que merezcan la pena, podemos concluir que todavía es pronto para cantar el fracaso de PlayStation 3.
Su futuro depende en gran medida del próximo año y medio. El primer paso ya podría haber sido dado: una agresiva bajada de precios que se rumorea que tendrá lugar en apenas una semana. Ahora solo queda completar el catálogo con los títulos exclusivos que atraen a los hardcore gamers (‘Metal Gear’, por ejemplo) añadir los juegos sociales que impulsaron las ventas de PlayStation 2 entre los jugadores ocasionales (‘SingStar’, ‘Buzz’...) y, por supuesto, no perder ni una de las grandes licencias deportivas (‘Pro Evolution Soccer’, ‘FIFA’...) con estos ingredientes, es de esperar que aquí a un año el gráfico comparativo de ambas consolas sea bastante diferente.