Buscar

2011/03/16

Twitter «expulsa» a sus imitadores

Twitter ha puesto en marcha una ofensiva de control sobre las actividades de su ecosistema. Los desarrolladores ya no tienen margen de error y deben cumplir todas las normas. La última recomendación, que no se creen nuevos clientes de la plataforma. Tras la sorpresa inicial, el equipo ha explicado este rechazo en base a un criterio: la innovación.
El pasado viernes la compañía publicó una actualización de las condiciones de servicio de su API. Sigue siendo abierta y, por tanto, mientras se cumplan estas reglas cualquier aplicación va a encontrar su sitio. Sin embargo, las normas llegaron acompañadas de una recomendación dirigida a todos los desarrolladores que estén planteando trabajar en el ecosistema de la red de microblogging. Que se lo piensen dos veces antes de crear un cliente de Twitter.
«Los desarrolladores nos preguntan si pueden crear aplicaciones cliente que imiten o reproduzcan la experiencia general de usuario de Twitter. La respuestas es no», decían los comentarios adjuntos a la publicación firmados por el responsable de la API de Twitter, Ryan Sarver.

Rebajar la tensión

En los entornos de desarrollo de Twitter esta medida no fue bien recibida. Aún menos tras los cierres de algunos servicios que llevan años en funcionamiento sin ningún tipo de cambio, una actitud que en algunos círculos se ha considerado como una estrategia agresiva por recuperar cuota de negocio frente a la competencia directa.
Por eso, Sarver volvió a comparecer online junto a su compañero Raffi Krikorian, jefe del servicio de aplicaciones, para detallar las medidas y acotar las declaraciones realizadas la semana pasada. Lo primero, definir qué es un cliente de Twitter; lo segundo, a qué público va dirigido. Sarver comenzó matizar sus palabras escogiendo delicadamente quiénes no se encuentran comprometidos con esta recomendación.
«No considero que Instagram o Foursquare estén en ese grupo», dijo aludiendo a lo que cree que son clientes de Twitter puros, es decir, aquellos que tiene en su función primaria realizar lo mismo que su programa. «Estamos hablando específicamente de clientes para usuarios. HootSuite y Seesmic se centran más en empresas y marketing», añadió sacando de la cesta otro grupo de servicios semejantes.

¿A quién va dirigida la recomendación?

Raffi tuvo ante sí la tarea de explicar qué criterios se van a seguir para determinar qué uso de la API es más o menos adecuado, sin olvidar que se trata de una API abierta. «Me encanta ver que toda la innovación traiga contenido a Twitter», afirmó para después poner algunos ejemplos de lo que les gusta, como una cafetería francesa que sirve panecillos horneados con forma de «tweets» o unas plantas que avisan con un mensaje de que necesitan ser regadas.
«Por favor, innovad. No os limitéis a apostar vuestro dinero simplemente en hacer una llamada a la API para coger el timeline de los usuarios y renderizarlo», añadió. Las condiciones del servicio de la API de Twitter están para cumplirse. Y parece ser que ahora más que nunca.

460.000 personas se abren una cuenta en Twitter cada día

Twitter sigue celebrando su quinto aniversario con la publicación de nuevos datos que atestiguan su éxito. Cada semana se envían 1.000 millones de «tuits» y el crecimiento en las plataformas móviles en el último año ha sido de un 182%. Nada menos que 460.000 personas se crean un perfil cada día.
El próximo 21 de marzo se cumplen 5 años de la publicación del primer mensaje en Twitter, que empezó a ser programado el 13 de marzo de 2006. El éxito de esta red de microblogging es indiscutible y desde la propia compañía han querido dar datos sobre su crecimiento desde sus inicios. El cambio desde que Jack Dorsey publicó el primer «tuit» en 2006 ha sido muy elevado.
Twitter ha tardado tres años, dos meses y un día en llegar a los mil millones de comentarios. Ahora que cumple dos primaveras más esa cifra ha quedado muy superada. La plataforma más popular de internet genera cada semana mil millones de «tuits», siendo 50 millones la media diaria de comentarios que se registran desde hace un año.
El crecimiento en el volumen de información de Twitter no para de crecer y los últimos meses las cifras han experimentado un aumento espectacular. Según Twitter, en el último mes la media ha pasado de 50 millones a 140 millones de «tuits» diarios. La referencia más cercana, del pasado 11 de marzo, es aún superior, y registró 177 millones de «tuits» en tan solo 24 horas.
Entre las cifras récord en cuanto a niveles de tráfico de «tuits», la muerte de Michael Jackson el 25 de junio de 2009, era, hasta este año, el momento con más «tuits» por segundo con 456. La celebración del último año nuevo en Japón ha batido con creces ese récord, registrando 6.939 comentarios por segundo.
El número de usuarios de Twitter también crece como la espuma. En el último mes se ha registrado un promedio de 460.000 nuevas cuentas por día. El pasado 11 de marzo se registró el récord de nuevos usuarios con 543.000. El aumento en la actividad ha producido también que las oficinas de la compañía se hayan ampliado. En los orígenes, la popular plataforma de microblogging contaba con ocho empleados. Actualmente, el «staff» de Twitter está integrado por 400 trabajadores.

Así es el efecto «Me gusta» de Facebook en las noticias

Yahoo ha presentado los resultados de un estudio sobre el efecto de Facebook en las noticias digitales, en el que se han analizado durante un periodo de tres meses 100.000 historias de 45 grandes sitios informativos desde «The New York Times» y «The Guardian» hasta el «paidContent» y el «Poynter».
En términos de popularidad global, «The New York Times» es, sin duda, el líder indiscutible del «compromiso social» con unos 2,3 millones de «Me gusta» por mes, 400 «Me gusta» de media por historia y 13 artículos en el top 40 de contenidos con más «Me gusta». En cuanto a las historias individuales, el extracto de Amy Chua en «The Wall Street Journal» titulado «¿Por qué las madres chinas son superiores» lidera el top con 340.000 «Me gusta».
Aunque los «clics» sobre un botón de «Me gusta» no sirven para medir las motivaciones que llevan a los usuarios a decantarse por una u otro historia, lo cierto es que los resultados arrojados por este estudio, conducido por Lifshits Yury, resultan instructivos y pueden ayudar a conocer cómo reaccionan los miembros de esta red social ante determinados contenidos.
Entre los datos que aporta el estudio, se desmonta una vieja creencia que existe entre los editores de que la frecuencia de publicación en Facebook es la clave para obtener más fidelidad de los lectores. Más lejos de la realidad, ya que las hitorias que llegan a top afectan a la mayoría de la actividad de los usuarios. Así, y como demuestran los resultados obtenidos, la NPR (Radio Pública de Estados Unidos), «The Guardian» o Yahoo News «pueden llegar a la mitad de la fidelidad (de sus seguidores en esta red) publicando solo una historia por día».

Contenidos más compartidos

Si nos fijamos en los contenidos y en su temática, hay dos conclusiones interesantes: primero, que una gran historia puede valer mucho más en términos de fidelidad y de identidad con la marca que «un montón de pequeños artículos». Y segundo, en relación a los asuntos que despiertan más interés, el análisis arroja que abundan aquellos que están relacionados, en general, con el estilo de vida, las galerías de imágenes, los debates o las actividades que buscan la interacción de los lectores, el humor y las noticias curiosas. Cuatro de los artículos en el top 40 se refieren a noticias de la actualidad política, tres sobre famosos, pero «el tipo más común de historia con gancho es la opinión y el análisis». Este dato puede deberse, según se desprende del estudio, a un elemento esencial en Facebook como es la necesidad de compartir los artículos y las recomendaciones de los amigos.
En general, todos aquellos artículos que conectan con el ánimo del usuario y que despiertan en él su atención son aquellos por los que se suelen decantar los seguidores de un medio informativo y los que más se comparten.

Los Gobiernos quieren más poder sobre la gestión de Internet

La organización que gestiona los dominios de Internet, ICANN, popularmente conocida como el Gobierno de Internet, está bajo la presión, precisamente, de los Gobiernos nacionales que quieren tener un mayor peso en la toma de decisiones. Esta semana celebra en San Francisco su cumbre anual, y en la reunión se vive el enfado de los Ejecutivos por su plan de multiplicar el número de dominios.

ICANN fue creada en 1998 con el impulso del Departamento de Comercio de Estados Unidos que delegó en este organismo la citada gestión. Por razones históricas, Estados Unidos controlaba el gobierno técnico de Internet y creó ICANN para dar entrada a la comunidad de internautas, empresas y Gobiernos en el mismo. Pero sigue conservando la titularidad y periódicamente renueva el contrato con ICANN. El próximo mes de septiembre debe hacerlo. Enfrente tiene a un grupo de países, desde China a India, que reclaman que la gestión de Internet recaiga en una agencia de Naciones Unidas, la Unión Internacional de Telecomunicaciones (UIT). Un horizonte que preocupa a otros Gobiernos que temen que Internet caiga en manos de dictaduras que censuran la Red y que la toma de decisiones se aletargue en un complejo procedimiento diplomático.
En la reunión de San Francisco, Vinton Cerf, uno de los padres de Internet, manifestó su apoyo a la actual organización técnica de la Red que, eso sí, podría mejorar su carácter multilateral.
Pero el proyecto de ICANN de multiplicar el número de dominios de primer nivel (como .com o .org) e introducir varios centenares de nuevos dominios (desde .orange a .xxx o .gay) ha molestado a todos. Incluso a Estados Unidos. Inicialmente, la Administración de Obama planteó el derecho de veto de los Gobiernos en este tipo de decisiones. En San Francisco no ha vuelto a hablar de ello, pero sí que apuesta por ampliar el carácter multilateral de la organización, un movimiento que Amadeu Abril, que acude a la reunión como consultor de CORE, interpreta como una manera de apaciguar las críticas gubernamentales y conseguir su apoyo para renovar el contrato con ICANN. Los Gobiernos intervienen en ICANN a través de un consejo, el GAC. Hace un par de semanas, en una reunión en Bruselas, formularon una serie de objeciones a la introducción de nuevos dominios. Estados Unidos, en esta fase preliminar a la renovación del convenio, ha pedido la opinión de la comunidad de Internet sobre este futuro, pero nadie duda de que va a mantener su apoyo a ICANN.
Para João Damas, una de las 13 personas responsables de la seguridad del sistema de nombres de dominios (DNS, en sus siglas en inglés), las críticas al proyecto de multiplicar los dominios de la Red son comprensibles ya que "sería desastroso" porque favorecería la fragmentación de Internet. La gestión técnica de los DNS (mecanismo que traduce las direcciones que escribe el internauta a los números que entienden las máquinas) se basa en una única estructura en forma de árbol, con nodos principales de los que dependen otros. Es así, pero nada impediría, comenta, que si un Gobierno quisiera bloquear el acceso, por ejemplo, a un dominio como .tibet cayera en la tentación de organizar su propio árbol de DNS rompiendo la unidad técnica de la Red y "excluyendo los dominios molestos".
ICANN ha elaborado una lista con una serie de puntos que centran los desacuerdos manifestados por los Gobiernos con su proyecto de más dominios. Estos reclaman, entre otros aspectos, mayor influencia en la toma de estas decisiones y, en otro punto, mayor protección de marcas y toponimias. Las multinacionales se verían obligadas a registrarse en todos los dominios para evitar la ocupación de uno de ellos con su nombre por parte de terceros si no está muy claro quién está autorizado a registrar el dominio de una marca. En el caso de topónimos, el conflicto surge a la hora de decidir quién tiene autoridad para registrar, un caso, un dominio como ".danubio".

El Pais

Reconstruir Haití en tiempo real

"Una ciudad viva es siempre Beta", afirma Carl Skelton, director del Brooklyn Experimental Media Center de Nueva York y creador de Betaville (http://betaville.net), una aplicación colaborativa online para la creación y el debate arquitectónico. Su nombre es un guiño a la jerga informática, que utiliza el término beta para indicar la primera versión de un programa, la que sirve para ser probada y descubrir errores. Eso es básicamente Betaville: corregir errores e introducir mejoras, interviniendo virtualmente en el desarrollo arquitectónico y urbanístico de ciudades reales.

"En los pueblos el ciudadano puede intervenir en los grandes cambios que afectan a la comunidad, pero en las metrópolis se siente excluido de la toma de decisiones. Con Betaville queremos devolverle la posibilidad de participar en el debate sobre la arquitectura y el espacio público", explica Skelton.
Para acceder a uno de los entornos tridimensionales de Betaville solo hay que registrarse, luego la interfaz facilita la interacción de la gente. Actualmente hay reproducciones de Manhattan y el centro de Brooklyn, y se está construyendo una plataforma para Léogâne, una localidad costera de Haití, muy afectada por el terremoto ocurrido hace un año. "Estamos colaborando con la ONG Orphans International Worldwide para contribuir con Betaville a sus planes de construcción de escuelas", indica Skelton.
En estos espacios, el internauta puede moverse libremente, añadir sus propuestas y leer las sugerencias de otros visitantes. "Por el momento es posible sobrevolar o caminar en una exacta reproducción virtual tridimensional de un edificio, un distrito o una ciudad entera, ver lo que otros han propuesto, acceder a información e ir comentando y contribuyendo a las propuestas ya en marcha".
Betaville existe en versión web y en aplicación para móviles Android. En ellos se puede comprobar en tiempo real y por medio de la función de realidad aumentada del móvil cómo un espacio o edificio real se vería afectado por las aportaciones de los betavillanos.


El Pais

Microsoft y Google se cruzan 'plug-ins' en la guerra de formatos para vídeo

La misma semana en que Microsoft lanza la versión definitiva de su navegador Internet Explorer 9, Google ofrece la descarga de un plug-in (módulo añadido que incrementa las funcionalidades de un programa principal) que introduce el formato WebM en el citado navegador para visionar vídeos. Microsoft, dentro de la opción HTML5, apoya para tales menesteres el formato H.264 y su navegador no soporta de forma nativa el formato que apoyan Google y Firefox. A la recíproca, Microsoft lanzó este enero otro plug-in para el navegador Chrome de Google para poder usar el formato H.264 en el mismo ya que el navegador de Google no lo hace.

Chrome no apoya el códec H.264, un formato de compresión propietario para vídeos en la web. La empresa apuesta por las soluciones propuestas por WebM y Theora, que son de código abierto. Google argumenta que "aunque H.264 juega un papel importante en el vídeo, nuestro objetivo es permitir la innovación abierta". Aunque esta militancia en el código abierto no es total porque Chrome apoya Flash (que soporta H.264). Otros productos de Google, como Android, no han abandonado este formato. El H.264 tiene el apoyo de Apple y Microsoft y lo administra el consorcio MPEG-LA. El año pasado, Google liberó el códec VP8 dentro del proyecto WebM en colaboración con Firefox y Opera. MPEG, tras conocer el anuncio, advirtió que crearía un grupo de trabajo para estudiar si el nuevo formato vulneraba patentes suyas. MPEG no cobra licencia para la distribución gratuita de vídeos y sí en el caso de que sea de pago. Google, al liberar VP8, anunció que su empleo tendría una notoria restricción, no podrían usarlo aquellos que decidieran combatir en los tribunales supuestas vulneraciones de derechos industriales.
Los vídeos WebM se reconocen por su extensión .webm que asocia el vídeo al formato Vp8, el audio, al Ogg Vorbis y un derivado de Matroska como contenedor. Esta decisión se enmarca dentro de la implantación del lenguaje HTML5 en Internet. WebM también tiene el apoyo de Adobe (propietaria de Flash), Skype, AMD, Logitech y otros. Uno de los problemas de la decisión de Google es que muchas cámaras están equipadas con H.264.

El Pais

El 31 de julio Google borrará los perfiles privados

El rumor indicaba que Google lanzaría una red social bajo el nombre de Circles. No fue así. Habría sido la tercera, después de Orkut y Buzz. El único anuncio de Google hasta el momento es que los perfiles privados de los usuarios de Google desaparecerán si no se hacen públicos antes del 31 de julio.

Hacer un perfil público no significa desvelar todos los servicios en los que se ha dado de alta. Poner la cuenta de Flickr, Twitter, Facebook, blogger o Picasa de cada usuario seguirá siendo opcional, pero sí será obligatorio desvelar, al menos, el nombre de usuario.
En un mensaje dentro de la sección de ayuda de Google, se explica y expone la decisión: "El objetivo de los perfiles de Google es que puedas controlar tu identidad online. Hoy en día, casi todos los perfiles de Google son públicos. Creemos que el mejor uso de estos perfiles es precisamente ayudar a que te encuentren y se pongan en contacto contigo online. Los perfiles privados no ofrecen esta posibilidad, por lo que hemos decidido que todos los perfiles sean públicos.
Ten en cuenta que el único dato obligatorio que se mostrará en el perfil es el nombre completo. Podrás modificar o eliminar cualquier otra información que no quieras compartir.
Si actualmente dispones de un perfil privado y no deseas hacerlo público, puedes eliminarlo. O, simplemente no hagas nada. Todos los perfiles privados se eliminarán a partir del 31 de julio de 2011."
Esta medida hará que quienes tengan cuentas inactivas, las pierdan, pero también que quiénes las utilizan para comentar con intención de generar ruido o molestar en diferentes servicios pierdan sus cuentas. No es un impedimento final, pero sí será más molesto crear cuenta anónimas.

El Pais

Hewlett Packard da un giro hacia el portátil en su estrategia de 'hardware'

Hewlett Packard está en proceso de cambio. Su director ejecutivo, Leo Apotheker, acaba de anunciar la nueva estrategia que va a ser seguir la compañía, que se sostiene sobre tres pilares básicos: la 'nube', la conectividad y el 'software'. Todo partiendo de la unificación de la experiencia y de las plataformas. WebOS, para 2012.
Dentro de esta nueva hoja de ruta habrá también otros aspectos básicos como la movilidad, la adaptación al consumo de la informática y las grandes bases de datos con papeles preponderantes. Para tirar de todo este engranaje ha habido dos movimientos básicos, las compras de WebOS (a través de la de Palm) y de Vertica. Estas son las 4 claves de la nueva estrategia de HP.

Experiencia multiplataforma unificada

HP no se plantea una era 'post-pc' como Apple, sino una era 'no sólo de PCs'. La empresa estadounidense no tiene ningún conflicto con el formato de ordenador original de Microsoft. De hecho, cada segundo se venden dos unidades de su marca. Pero HP quiere que todos sus usuarios, utilicen el aparato que utilicen, disfruten de la misma experiencia gracias a la computación en 'nube'.
Esta experiencia esperan poder ofrecerla gracias a la integración total que se están dando actualmente. Apotheker habla de un mundo totalmente conectado a la Red en el que las personas han dejado de tener una vida profesional y otra de consumo separadas. "La gente ha unido esos roles en su vida diaria", dijo en su discurso.
Los ordenadores de Hewlett-Packard funcionarán sobre sistemas operativos Windows y WebOS. Según Business Insider, Apotheker dijo que habrá una versión beta de WebOS corriendo sobre Windows en un navegador a finales de 2011, y que WebOS para ordenadores Windows estará disponible en 2012. Una apuesta arriesgada con un resultado incierto.
Pasando al mercado portátil, el director ejecutivo de HP adelantó que en un futuro comenzarán a vender tabletas con Windows. Sin embargo, aún están esperando a que llegue un sistema operativo óptimo. Dada la integración con WebOS, esas tabletas también podrían aparecer con las plataformas combinadas.

Infrastructure-as-a-Service y Platform-as-a-Service

La estrategia comercial de HP no se basa únicamente en la venta de 'hardware' capaz de conectarse a la 'nube'. Su objetivo es ofrecer a los compradores todos los servicios 'cloud' desde su casa, que es donde está el auténtico negocio.
Para conseguirlo, la compañía tiene en marcha un plan para desarrollar su propia infraestructura de servicios de computación en 'nube' para empresas. Actualmente trabajan con siete de los diez proveedores más grandes, por lo que ya tienen cierta experiencia acumulada. Al tratar esta cuestión, Apotheker enfatizó las medidas de seguridad que van a tomar, que espera que les diferencien de la competencia.

Tienda virtual y Vertica

Allí donde hay una plataforma aparece una tienda virtual. Es el mismo camino que va a tomar HP, según reconoció el ejecutivo durante el turno de preguntas y respuestas. Fue una respuesta escueta en la que adelantó que se tratará de una tienda abierta, destinada a aplicaciones para usuarios y para empresas.
El mes pasado HP compró Vertica, una de las empresas independientes de análisis y almacenamiento de datos con más prestigio, que se caracteriza por el almacenamiento de datos en columnas y no en filas. El plan de la empresa pasa por ofrecer Vertica como servicio, como 'software' y como un dispositivo. Es decir, que HP está dispuesta a competir con IBM y con Oracle.

El Mundo

Twitter permitirá la navegación segura por defecto

Twitter ha anunciado que permitirá a sus usuarios utilizar la navegación segura mediante el protocolo HTTPS por defecto.
Hasta el momento, era posible acceder a la red de 'microblogging' desde un protocolo seguro a través de https://twitter.com. Sin embargo, ahora se podrá seleccionar una opción en los ajustes para hacer que esta conexión sea la que aparezca por defecto al acceder a Twitter.
Para activar la opción, hay que acceder a la configuración de la cuenta y marcar la casilla 'Usar siempre HTTPS', que se encuentra en la parte inferior de la página.
Además, se utilizará el protocolo de forma predeterminada, incluso cuando no esté seleccionada esta casilla, al iniciar sesión en Twitter "para que tu contraseña permanezca protegida" y en las aplicaciones oficiales para iPhone y para iPad, según explica la compañía en su blog.
No obstante, por el momento, para acceder al protocolo HTTPS desde el navegador móvil será necesario introducirlo acudir a https://twitter.com. "Estamos trabajando en una solución que comparta la opción 'Utilizar siempre HTTPS' a través de twitter.com y mobile.twitter.com", explican desde la compañía, aunque sin dar una fecha estimada.
Asimismo, desde Twitter recomiendan a los usuarios que utilicen aplicaciones de terceros que comprueben si éstas ofrecen esta opción.

El Mundo

YouTube adquiere Green Parrot Pictures para mejorar su servicio de vídeos

YouTube se ha hecho con los servicios de la compañía Green Parrot Pictures, que ha trabajado en proyectos cinematográficos como El señor de los anillos o X-Men y posee una avanzada tecnología para mejorar la calidad de las producciones de vídeo. De esta manera la plataforma podrá incrementar la velocidad de reproducción, consumiendo también menos ancho de banda.
En su intento por mejorar el servicio de vídeo, YouTube sigue apostando por la calidad. La adquisición de Green Parrot Pictures supone un impulso a la modernización de la plataforma. Las nuevas tecnologías, como Internet móvil, representan un reto para una de las grandes tendencias actuales, como es el contenido mediante 'streaming'.
Ver un vídeo a través de un 'smartphone' tiene algunos impedimentos, entre ellos el consumo de ancho de banda. Optimizar el funcionamiento de la plataforma en redes móviles será una de las tareas de la compañía irlandesa Green Parrot Pictures. Pero no será el único. El contenido de YouTube se verá mejorado en cuanto a la calidad se refiere.
Uno de los principales activos de Green Parrot Pictures es haber trabajado en producciones cinematográficas de altura. Gracias a esta experiencia y a la tecnología que han desarrollado YouTube podrá optimizar las 35 horas de vídeo que se suben al sitio cada minuto.
"Su tecnología ayuda a hacer que los vídeos parezcan mejores mientras al mismo tiempo usan menos ancho de banda y mejoran su velocidad de reproducción", recoge YouTube en su blog. Hay que tener en cuenta que mucho contenido que se sube a la página está grabado desde móviles. Esto implica una calidad relativa, que Green Parrot Pictures puede ayudar a mejorar.

El Mundo

Skype ofrecerá acceso gratuito a Internet en Japón

Skype ha anunciado que proporcionará acceso gratuito a Internet a través de sus puntos de acceso WiFi y que dará a todos sus clientes japoneses 80 yenes de crédito, el equivalente a una llamada de 25 minutos a un número japonés para ayudarles a conectar con sus familias tras el terremoto que sufrió el país.
Según explica Shin Iwata, director regional de Skype en Japón, en el blog de la compañía, el crédito llegará a todos los usuarios japoneses a lo largo de los próximos días y podrá ser utilizado hasya el 17 de abril, mientras que el acceso a Internet desde sus 'hotspots' será gratuito hasta el 19 de marzo. En la página de ayuda de Skype hay un listado con la localización de todos estos puntos.
Iwata también ha confirmado que todos los trabajadores japoneses de la compañía y sus familias están a salvo.
Además, Iwata ha animado desde la entrada del blog a participar en el programa de reunificación familiar de Cruz Roja para ayudar a encontrar desaparecidos y a realizar donaciones a Cruz Roja Internacional.
Además de Skype, varias empresas han puesto diversos servicios a disposición de los japoneses tras la tragedia.

El Mundo

La preocupación nuclear quebró el avance de precios del petróleo

Los precios del petróleo cayeron este martes en Nueva York, así como en Londres, en un mercado socavado por el agravamiento de la crisis nuclear en Japón, que compromete la recuperación del país luego del violento sismo que la golpeó.
En el New York Mercantile Exchange (Nymex), el barril de West Texas Intermediate (designación del "light sweet crude" negociado en EEUU) para entrega en abril terminó en u$s97,18 luego de caer 4,01 dólares (cerca de 4%) en relación al lunes.
En el Intercontinental Exchange de Londres, el barril de Brent del Mar del Norte con el mismo vencimiento perdió 5,15 dólares, a 108,52 dólares.
"La caída del índice Nikkei (más de 10% en Tokio), las expectativas de demanda revisadas a la baja, simples liquidaciones de posiciones sobre las materias primas por inversores que buscan neutralizar sus pérdidas en los mercados bursátiles, todo eso contribuyó a hacer caer los precios", explicó a AFP Andy Lipow, de Lipow Oil Associates.
El mercado petrolero, al igual que el conjunto de los mercados financieros mundiales, teme que la crisis nuclear se agrave en Japón luego de la nueva explosión e incendio en la central de Fukushima 1, donde los accidentes se suceden desde el violento sismo del viernes.
"La situación actual equivale casi a retirar la tercera economía mundial del mercado. Eso va a tener un impacto considerable sobre la demanda", explicó a AFP Tom Bentz, de BNP Paribas.
"Esto incrementa los temores e inquietudes sobre el tiempo que llevará a Japón recuperarse" de esta catástrofe natural, agregó el analista. Concentrados en la situación de Japón, los inversores ignoraron los últimos episodios de la crisis en el mundo árabe.
En Bahrein, país vecino de Arabia Saudita, uno de los principales productores mundiales de petróleo, el rey Hamad Ben Issa Al-Khalifa proclamó el estado de sitio por tres meses, luego de la llegada de tropas del Golfo con el cometido de ayudar a contener la rebelión chiita.
Esta situación "es una importante fuente de inquietud", subrayó Andy Lipow. "Se diría que lo que pueda pasar con la minoría chiita en Arabia Saudita pone muy nerviosos a los saudíes", precisó Lipow.

Infobae

Facebook le roba un importante directivo a Google

Facebook ha contratado a un miembro del equipo de desarrollo corporativo de Google para que dirija sus incipientes esfuerzos de fusiones y adquisiciones. Amin Zufonun, director de desarrollo corporativo en Google, se unirá la semana que viene a la red social más grande del mundo, según confirmó Facebook.
La decisión, el último suceso en la rivalidad entre las dos potencias de Internet, se ha tomado al tiempo que Facebook empieza a aumentar sus adquisiciones, que hasta ahora han sido principalmente pequeñas empresas contratadas por sus ingenieros, más que por sus productos.
Zufonun, que ha trabajado en Google desde 2003, según su perfil en la red social profesional LinkedIn, trabajará a las órdenes de Vaughan Smith, que supervisa las iniciativas de desarrollo corporativo en Facebook. "En realidad va allí a llevar algo de profesionalidad al equipo y contratar gente", señaló una fuente cercana al asunto.
"Creo que serán más activos (en cuestión de adquisiciones)", señaló la fuente sobre Facebook. "Quieren a alguien con experiencia para dirigir el equipo. Cualquier empresa de tecnología en crecimiento necesita tener un (responsable de) Fusiones y Adquisiciones competente".
El fichaje de Zufonun es el último indicio de los ambiciosos planes de expansión de Facebook, y subraya la rivalidad entre la red social y Google. La popularidad de Facebook amenaza con arrebatar al buscador de Google el tiempo de los usuarios en Internet y el dinero de la publicidad.

Publico