Buscar

2009/11/27

Melómanos digitales

Fuente: El Pais.

El rockero Neil Young abominó del MP3 y hasta del iPod, que comparó con un juguete de Fisher Price. En su campaña contra el sonido puro -excesivamente puro-, prohibió que se digitalizaran su legado musical. La cruzada sorprendió en su mundo de sonido sucio, pero no entre los grandes melómanos, que durante años se han buscado alternativas a la omnipresencia del MP3, una tecnología que tiene la virtud de su gran compresión musical, pero a costa de pérdida de calidad.

Sonido digital no es sinónimo de MP3. La alta fidelidad digital existe, incluso se descarga en Internet; pero hay que pagarla.

A Stefan Pietzsch su amor por la música le llevó a abrir una tienda virtual de jazz. Su casa de Mallorca está preparada para el mejor sonido, pero no para el sonido orgánico del vinilo, sino para la reproducción digital. "A diferencia del vinilo, el formato digital, tanto en CD como en archivos comprimidos, te permite un ingente acceso a todo tipo de música. Con un equipo de primera fila, la puedes escuchar con el mejor sonido tecnológico que el oído humano puede percibir".

"Dispongo de un reproductor CEC TL1 (12.000 euros) que lleva tracción por correa". Esto quiere decir que el motor está separado por una correa para que su movimiento no altere de ningún modo la reproducción de cedés. Y un DAC [conversor de sonido digital a analógico] (9.000 euros) para conectar al amplificador, que reproduce la señal y aumenta la frecuencia de 44 KHz a 732 KHZ".

"Hay webs que permiten bajar música con 24 bits/96 KHz, muy superior a la del formato CD (16 bits/44 KHz)", explica Pietzsch. Se refiere al audio de alta definición de sitios como Itrax o Aixrecords. Allí hay canciones y álbumes grabados con un sonido surround 5.1 que supera la capacidad auditiva humana -situada, en límite superior, en los 20 KHz-.

En la red hay poco material en este formato de descarga de primerísima fila, "muy lejos del MP3, comprimido a 128 Kbps", apunta Pietzsch. "Son descargas de pago; en esa calidad no hay nada gratis", dice. Aunque se puede obtener un álbum de country o rock en 24 bits / 96 KHz por 18 euros.

"Tengo unos 800 cedés ya pasados a archivo digital usando Flac, un códec que comprime sin pérdida de calidad", insiste. Como códec libre de patentes, es muy usado por quienes prefieren mantener la calidad del archivo antes que un almacenaje de ficheros muy comprimido. "Como otros formatos de reducción sin pérdida, comprime una pieza a la mitad de su tamaño en el fichero, mientras que el MP3 la comprime diez veces más".

Con su DAC de 9.000 euros, Pietzsch convierte en analógico su sonido digital para conectarlo a un pre-amplificador Klimó (5.000 euros) a través de unos cables de alta calidad (4.000 euros). Es el paso previo para llegar a las dos etapas de potencia -una para cada canal, izquierdo y derecho- de la misma marca, y de 14.000 euros. "Son de válvulas, y manipulan poco la señal". Luego, a través de cables de altavoz de 3.000 euros, todo llegaría a sus cajas Avantgarde Mezzo (31.500 euros). En total, casi 100.000 euros de equipo, que tritura cualquier nostalgia de la era vinilo.

La melomanía está reconciliándose con el mundo digital gracias a nuevos formatos de compresión musical de calidad y sin pérdida sonora. "Para el bueno sonido, hemos de intentar que la compresión no baje de unos 44.1 KHZ y 192 Kbps, y hay que olvidar los 128 Kbps del MP3 usual", apunta Pascual Diago, matemático con experiencia en el campo musical. "Algo curioso", dice,"es el efecto iPod, para el cual se están creando grandes cosas que ofrecen óptimas soluciones Hi-Fi".

Pérdida de calidad

"Siempre habrá pérdida de calidad del paso analógico al digital", explica Alejandro Alís, diseñador de electrónica a medida. Si bien el vinilo graba en analógico el sonido tal y como se produce, "ya en el salto al CD se graba en forma de '1' y '0'", apunta, "se mide en un instante de tiempo la amplitud de la señal para convertirla a un valor numérico aproximadamente 40.000 veces por segundo. La pérdida de calidad es inapreciable al oído humano".

Un músico de culto como Neil Young mantiene una teoría diferente. Cree que en digital podemos advertir absolutamente todos los detalles de una canción la primera vez que la escuchamos. Y, como nada se esconde en esa escucha a la sensibilidad del oído, el cerebro no se siente impulsado a poner esa canción por segunda vez: no se está escuchando música, sino códigos y dígitos, tonos y frecuencias. Finalmente, la mejora de los sistemas digitales, decididó a Young a publicar su discografía y vídeos en Blu-Ray de alta definición.

"El oído humano no está acostumbrado a la perfección", dice Rafael San Espert, director de la banda de música de Bilbao. "Por eso, a veces, nos sentimos más cómodos y disfrutamos más con una reproducción analógica de calidad. Si lo que buscas es calidad acústica, los buenos sistemas digitales de hoy. Si quieres calidez de sonido: equipo analógico y de válvulas; pero el mejor sonido que se pueda imaginar es aún el que podemos escuchar en una buena sala de conciertos".

Lo más parecido a la realidad

La alta definición en audio se caracteriza principalmente por ser un estándar de calidad que pretende superar la capacidad auditiva humana, concretado en dos formatos principales: el SACD (reproducción de 100 KHz) y el DVD-Audio (reproducción de 80 KHz). El mejor CD ofrece, como máximo, 22 KHz. Ahora bien, muchos piensan que estos formatos -y sus equivalentes en archivos digitales- sólo ofrecen la posibilidad del audio multicanal y envolvente.

Según el físico Elies Fuster, investigador acústico en la Universidad Politécnica de Valencia, "el sonido 5.1 no tiene por qué implicar siempre una mejor calidad, sino la utilización de 6 canales. De hecho, en el formato DVD audio, como este soporte tiene una capacidad limitada, para trabajar en 5.1 hay que bajar un poco la calidad del audio; aunque, desde luego, es superior a la del CD".

Rafael Sanz Espert, director de la banda municipal de música de Bilbao, y miembro del consejo de la World Association for Symphonic Bands and Ensembles (WASBE), describe la Alta Fidelidad. "La Hi-Fi es una norma de calidad que significa que la reproducción del sonido es muy fiel al original y pretende que los ruidos y la distorsión sean mínimos; por tanto, la Alta Fidelidad quiere decir exactamente eso: el mayor parecido a la realidad". Y, para evitar confusiones, la diferencia del High-end audio, es decir, de los productos de alta gama para la escucha casera. "Éstos serían aquellos productos que reproducen el sonido tal y como fue generado durante la grabación, algo que no es siempre cierto, puesto que determinadas características en los elementos de la reproducción hacen más placentera la escucha. Dichas características", detalla, "suelen ser distorsiones de armónicos". Y si comparamos la Alta Fidelidad con el MP3, Sanz Espert, zanja: "Es como leer un libro con la calidad de un fax".

Panasonic busca un crecimiento de doble dígito fuera de Japón

Fuente: Yahoo!

La japonesa Panasonic dijo que se pondrá como objetivo un crecimiento de doble dígito en las ventas en el extranjero en cada uno de los tres próximos ejercicios, lo que supone un aperitivo de los planes de negocio que tiene previsto esbozar a principios del año próximo.

Acudir a las ventas en el extranjero es importante para Panasonic, ya que más de la mitad de sus ingresos globales dependen del mercado nacional, donde la población está reduciéndose y envejeciendo.

Panasonic, que tiene previsto desvelar su nueva estrategia en enero, se ha puesto como objetivo un crecimiento anual de las ventas del 15-20 por ciento en los mercados emergentes de Brasil, Rusia, India y China - las llamadas naciones BRIC -, además de en Vietnam, en tres años, dijo el director gerente senior de Panasonic, Hitoshi Otsuki, a Reuters, en una entrevista.

Panasonic también apuntará a México, Indonesia, Nigeria, Turquía y los países balcánicos, incluidos Serbia y Macedonia, como mercados prioritarios, dijo.

Los usuarios de Google, los más «tuiteros»

Fuente: ABC.

La consutora en medios sociales Rapleaf acaba de lanzar un estudio sobre el comportamiento de los usuarios de webmail, en concreto, aquellos que utilizan los servicios de AOL, Gmail, Hotmail y Yahoo. Entre las conclusiones a las que llega la investigación figura que Twitter es la red social más empleada entre los internautas que tienen cuenta en el servicio de Google.

En cambio, para los usuarios de otros servicios de correo la popular plataforma de microblogging apenas si existe y, por el contrario, se decantan por otras como Facebook o MySpace. En el caso de la red de Mark Zuckerberg, ésta aparece como la más popular a lo largo de todo el estudio.

Por lo que se refiere al nivel de participación de los usuarios de webmail en las redes sociales, la investigación encuentra que la mayoría de éstos tienen un único perfil, aunque el servicio donde se registra un número más alto de perfiles es en Hotmail. Aquí el porcentaje es de 2,5 perfiles por usuario. Le sigue Yahoo, AOL y, finalmente, Gmail. Sin embargo, los usuarios de Gmail son aquellos que tienen más amigos en las redes sociales, con un total de 46,2 amigos frente a los 40 de los usuarios de Yahoo.

Para llevar a cabo el estudio, Rapleaf ha contado con una muestra de 12.000 cuentas de usuarios de Hotmail, Yahoo, AOL y Gmail.

Google está preparando un nuevo diseño con más color e incluso iconos

Fuente: Libertad Digital.

Después de años de sobriedad, la compañía parece que va a darse un baño de color, como ya se venía rumoreando y como ya se puede probar mediante un pequeño "truco" del que informa Gizmodo, que permite adquirir las cookies necesarias para poder ver el nuevo navegador en el que está trabajando la compañía que podría ser el definitivo.

Parece que después de mejorar la velocidad de su buscador con el proyecto Caffeine, ahora Google se plantea cambiar de imagen, apostando más por el colorido en general y por el azul, en particular.

Además, la ventana de resultados ha sido ligeramente enriquecida y el árbol de la izquierda que ya ha aparecido ha ganado en posibilidad de delimitar resultados. A Vídeos, Noticias, Blogs, Libros y Foros se han unido Imágenes (Images), Libros (Books), Mapas (Maps) y Compras (Shooping).

Cómo probarlo

Para poder acceder a esta versión del buscador hay que abrir Google.com (www.google.com/ncr si le redirecciona a google.es) y, seguidamente, pegar el siguiente código en la misma caja de navegación y pulsar intro:

javascript:void(document.cookie="PREF=ID=20b6e4c2f44943bb:U=4bf292d46faad806:TM=1249677602:LM=1257919388:S=odm0Ys-53ZueXfZG;path=/; domain=.google.com");

Aparentemente no habrá ocurrido nada tras estas acciones pero si el usuario abre una nueva pestaña e introduce de nuevo www.google.com/ncr, se encontrará con el aspecto renovado en el que está trabajando la compañía.

“La empresa que no mide su tecnología, no puede competir”

Fuente: iProfesional.

Marcelo Utard, director de la empresa U&R IT Expertise, explica en esta entrevista en qué consiste la medición de tecnologías de la información (TI). Sostiene que las organizaciones suelen no poseer una conciencia real y plena acerca del por qué y para qué medir, por lo que no destinan recursos suficientes y caen en el peligro de la pérdida de terreno a manos de competidores.

-¿Qué es exactamente medir y monitorear?

-Creo que la pregunta correcta sería por qué y para qué medir, ya que la medición no es una necesidad, sino una respuesta a una necesidad. En la actualidad, todo negocio depende en gran medida de la disponibilidad de una infraestructura y servicios de las tecnologías de la información y la comunicación (TIC). Gracias a ellos, es eficaz al satisfacer a sus clientes. Pero si la calidad o el costo de las TIC no fuesen los adecuados, esto impactaría en el negocio, ya sea por pérdida de clientes, de rentabilidad o, lo que es muy frecuente, de ambos. Para controlar la calidad y los costos de la infraestructura y servicios TIC de las empresas es indispensable medir. Si no se mide no se puede mejorar y si no se mejora, no se puede competir. En el marco de mercados competitivos, una empresa que no mide su TIC termina, tarde o temprano, desapareciendo.

-Esto exige a la organización un esfuerzo elevado para controlar múltiples variables.
-Esa es una preocupación normal, pero excesiva. La medición no tiene que ser exactamente precisa; por el sólo hecho de medir ya podemos saber si algo mejoró o empeoró. Y eso es mucho. Es obvio que, cuanto más exacta sea la medición, mejores resultados obtendremos y, también, más costoso será lograrlo. Las empresas que deciden no medir, lo hacen porque concluyen que la medición no será suficientemente precisa o que su costo superará los beneficios. Ambos son errores de apreciación. Medir aunque sea en forma imprecisa es útil y, siempre, es mejor medir que no medir. Hasta el más simple sistema de medición permite obtener tres resultados fundamentales: si algo mejoró o empeoró (calidad), si algo se utilizó en mayor o menor medida (costos) y si algo es mejor o peor que otra cosa medida con la misma vara (benchmarking).

-Una vez comprendida la necesidad, ¿cuál sería el siguiente paso?
-Tenemos que advertir primero que la medición debe ser funcional a los procesos de gestión. La organización está compuesta por personas, tecnología y procesos. Estos últimos orientan los esfuerzos de las personas y el uso de las tecnologías hacia el logro de objetivos estratégicos. Tres proceso de gestión esenciales son: el soporte proactivo, el capacity planning (o dimensionamiento de la capacidad) y la verificación de SLA (o ANS, acuerdos de nivel de servicio).

-Sin embargo, el soporte proactivo es aún un proceso poco maduro en pequeñas y medianas empresas.
-Sí, pero es un objetivo factible y que la evolución de los negocios hará necesario. Y sólo midiendo podemos alcanzarlo. Los resultados de nuestro trabajo nos permiten minimizar los tiempos de restauración del servicio, salvar las fallas por saturación de recursos y evitar lo que llamamos coloquialmente ‘problemas’, que no son más que fallas recurrentes.

-¿Cómo ayuda a los otros dos procesos?
-La medición posibilita el capacity planning, ya que releva el grado de utilización de los recursos, muestra la tendencia en el uso y nos permite una estimación justa del incremento. Por su parte, la verificación de los SLA ha cobrado gran importancia con el nuevo escenario empresarial, en el que toda organización conforma una “cadena de valor” con sus clientes y proveedores, lo cual ha originado el concepto de “Extended enterprise“. En la interacción entre sus diversos eslabones se definen acuerdos de nivel de servicio con usuarios internos, clientes y proveedores. Si no mido, no puedo saber si estoy respetando esos acuerdos y, sobre todo, si mis proveedores lo hacen.

-Entonces medición y procesos son inseparables.
-Tan inseparables que la medición misma funciona como un proceso. Algo que se ve muy frecuentemente es lo que llamo medir “pour la galerie”. Me refiero, por ejemplo, a las empresas que implantan una herramienta condicionadas por sus casas centrales en el exterior, o a quienes toman la decisión luego del resultado de una auditoría externa. Utilizan las soluciones para mostrar un mapa o tablero de control que refleja el estado actual de la TIC, lo cual, en el mejor de los casos, les facilita la gestión de fallas y el reclamo a proveedores. En general, lo hacen en forma asistemática y no poseen ningún control de SLA de proveedores, ni redimensionamiento de capacidad, ni detección y corrección de fallas recurrentes (o gestión de problemas). Muchas veces se mide sólo porque algún gerente pone el grito en el cielo, y después se deja de medir. Acá ya nos vamos poniendo más finos y puedo decir que no basta con medir, además hace falta utilizar las mediciones en los procesos de gestión.

-¿Dónde debería invertir una empresa para empezar a medir correctamente?
-Existen dos escenarios diferentes. Por un lado, el de las grandes empresas que, habiendo tomado conciencia de la importancia de estas prácticas, contratan personal técnico para medir y adquieren herramientas apropiadas, es decir, destinan recursos. El segundo escenario, es el de las empresas medianas o pequeñas, ya que se enfrentan al costo de soluciones dolarizadas. El tipo de cambio en Argentina es muy penalizante. Además, deben contratar personal y capacitarlo. Con la alta rotación de los recursos humanos que existe en este mercado, normalmente la persona que puede interpretar correctamente las mediciones, está pronta a cambiar de trabajo. La otra alternativa, y en mi opinión la única viable, es la tercerización en empresas que se dediquen a dar servicios de medición y monitoreo. La ventaja fundamental de este modelo, es que por un abono mensual y sin costo inicial, uno tiene la herramienta más la consultoría profesional aplicada, con lo que se evita la contratación de personal externo.

Avanza el plan de Lula da Silva para llevar Internet a todo Brasil

Fuente: Infobae.

El mandatario pretende crear una estatal para el servicio de Internet de banda ancha, que llegue hasta el usuario final. El programa tendría un costo cercano a los u$s5.740 M
Lula se reunió con ocho ministros para analizar la propuesta de creación de la estatal y propuso que la empresa preste todos los servicios referentes a Internet, tanto de transmisión de datos como de distribución, indicó la edición digital del diario O Estado de Sao Paulo.

La propuesta inicial para la masificación de Internet de alta velocidad realizada por técnicos del gobierno apuntó que la estatal debería actuar en la transmisión de datos y el sector privado, continuar con la distribución del servicio hasta el usuario final.

El jefe de Estado, sin embargo, pidió que la futura empresa incluya dentro de los servicios el de la distribución para competir con las compañías privadas.

Los técnicos tendrán tres semanas más para complementar la propuesta inicial con el pedido del mandatario.

El Ministerio de Comunicaciones, en un proyecto conjunto con el sector privado, calcula que para llegar en 2014 a noventa millones de puntos de acceso, serán necesarias inversiones por unos u$s43.515 millones y el uso de otras redes, como la eléctrica, para la transmisión.

Según el ministerio, Brasil cuenta en la actualidad con veinte millones de puntos de acceso de Internet de banda ancha.

Facebook acelera los planes de salir a Bolsa y cambia su estructura de capital

Fuente: Cindo Dias.

Facebook ha dado un paso más en su camino hacia las Bolsas. La red social, que tiene más de 300 millones de usuarios en todo el mundo, ha aprobado una amplia reestructuración de su capital con la creación de dos tipos de acciones: clase A y clase B. Según explicó la compañía, los actuales títulos se convertirán en acciones B y tendrán diez votos cada una en cuestiones de gobierno corporativo. Los títulos A serían vendidos en una operación pública de venta de acciones.

Con este movimiento, los actuales accionistas, encabezados por el cofundador y consejero delegado, Mark Zuckerberg, mantendrían el control de la empresa tras la salida a Bolsa. La firma no ha precisado nunca cómo está repartido su capital. The Wall Street Journal señalaba ayer que Zuckerberg mantiene una participación de doble dígito. Otros accionistas de referencia son el cofundador Dustin Moskovitz, el inversor Peter Thiel (creador de PayPal) y el grupo de capital riesgo Accel Partners. Microsoft y la rusa DST tienen participaciones minoritarias.

Facebook parece estar siguiendo un camino similar al realizado por Google cuando debutó en el mercado en 2004. Entonces, el buscador creó una estructura de capital con acciones A y B, decisión con la que los fundadores, Larry Page y Sergey Brin, junto con el consejero delegado, Eric Schmidt, mantuvieron el control de los derechos políticos en el seno de la compañía. También empresas como Visa, Berkshire Hathaway, Ford o Echostar mantienen estructuras similares.

La red social no descarta empezar a cotizar, si bien ayer insistió en que "no tiene planes de salir a Bolsa en este momento". No obstante, buena parte de los movimientos han estado encaminados en esa dirección. En junio incorporó como director financiero a David Ebersman, que había ocupado ese puesto en la biotecnológica Genentech.

Además, la empresa ha creado fórmulas para que sus empleados vendan sus acciones. Por un lado, Facebook autorizó a principios de este año a sus trabajadores a que vendieran parte de sus acciones a la citada DST. Por otro, la empresa permitió a los empleados que vendieran títulos en mercados secundarios como SecondMarket o SharesPost.

En cualquier caso, estos movimientos han contribuido a dar indicaciones sobre cual puede ser el valor del grupo. Según el acuerdo con DST, el valor de Facebook rondaría los 6.500 millones de dólares mientras que en los mercados secundarios ha llegado a rondar los 9.500 millones. Mientras, la compañía no da muchos datos sobre su evolución. Durante el año ha señalado que en 2009 logrará cash flow positivo con un aumento de los ingresos del 70%, y su consejero Marc Andreessen indicó que el volumen de negocio llegaría a 500 millones.

Twitter frena su crecimiento mientras ajusta el negocio

Twitter, la estrella mundial del microblogging, ha frenado su crecimiento. Según datos de la medidora de audiencias Comscore citados por la publicación Techcrunch, la compañía alcanzó los 58,4 millones de visitantes únicos en el mundo en octubre, por debajo de los 58,3 millones del mes de septiembre. Una evolución que contrasta con el avance de la plataforma de blogs Wordpress, que elevó el número de visitantes únicos en ese periodo en 10 millones hasta los 151,8 millones.

Esta evolución viene en un momento en el que Twitter se apresta a lanzar sus servicios de facturación publicitaria, según han explicado sus responsables, para tratar de empezar a rentabilizar su audiencia. La compañía, que no descarta salir a Bolsa, va a registrar este año una facturación próxima a los cuatro millones de dólares. Su valoración ronda los 1.000 millones. Eso sí, alguno de sus responsables insiste en que los ingresos van a venir pronto.

Google Chrome OS, disponible para ejecutar desde un pendrive

Fuente: eWeek.

Un usuario ha conseguido hacer funcionar el nuevo sistema operativo de Google directamente desde una unidad de memoria Flash USB.

Comienzan a aparecer los primeros desarrollos sobre el nuevo sistema operativo de Google, Chrome OS.

Un desarrollador ha conseguido hacerlo funcionar directamente desde una unidad de memoria Flash USB, los tradicionales pendrive. Lógicamente, el sistema aún se encuentra en una etapa muy temprana de desarrollo, por lo que tampoco se pueden esperar grandes cosas de esta propuesta.

Llama la atención que tan sólo unos días después de que Google abriera el código de Chrome OS a través del sitio web del proyecto Chromium, ya existan nuevas modalidades para probarlo.

El propio desarrollador ha puesto a disposición la descarga para todo aquel que esté interesado, además de algunas explicaciones dependiendo del sistema operativo que se vaya a utilizar, Windows, Mac OS o Linux.

Básicamente, una vez que se ha instalado el sistema en una unidad de memoria Flash USB, se podrá arrancar directamente sin necesidad de modificar el sistema operativo existente.

Sony espera que en 2012 la mitad de sus envíos de televisores sean 3D

Fuente: ITespresso.

Sony piensa hacer una apuesta fuerte por su tecnología de tres dimensiones. Ya lo afirmó su CEO Howard Stringer en la feria IFA de Berlín y ahora su vicepresidente ejecutivo Hiroshi Yoshioka lo ha confirmado.

El directivo señaló que la su previsión es que en un plazo de tres años, en el ejercicio fiscal que finalizaría en marzo de 2013, aproximadamente el 50% de sus envíos totales de televisores incorporen tecnología 3D.

La empresa pondrá todas sus esperanzas en el segmento tridimensional, que también se incorporará a ordenadores y a su consola PlayStation3, aunque la fecha de actualización de ésta para permitir su reproducción aún se desconoce.

En el ámbito de los televisores a la enseña japonesa le hace falta un empujoncito como el que podría darle la 3D ya que dicha unidad atraviesa su sexto año de pérdidas, debido a la fortaleza del yen y a la intensificación de la competencia con Samsung y LG.

Estas dos compañías coinciden con Sony en los buenos augurios para la tecnología tridimensional. De hecho, LG espera que el mercado de las televisiones con capacidad para reproducir contenidos en 3D ascienda a los 30 millones de unidades en 2012.

Sony espera lanzar su primera televisión 3D a principios del próximo año, según se hace eco Reuters.

Las redes sociales del momento quieren salir a bolsa

Fuente: Silicon News.

Facebook desmiente que vaya a salir a bolsa mañana mismo, pero los medios económicos están convencidos de que si no es mañana será pasado. La red social se lanzará a cotización en breve.

Y es que la bolsa se ha convertido en un objetivo a cumplir por todas las start ups con verdadero potencial: IPO, las siglas en inglés para OPV, está en boca de todos. Twitter, LinkedIn y Facebook ya han anunciado que se lo están planteando y en el mundo financiero ya se ponen fechas.

Twitter señalaba ayer que aunque no está en venta sí está pensando en nuevas formas de financiación, como la salida a bolsa. En breve la firma tendrá beneficios, como ha asegurado en una mesa redonda en Tel Aviv. "2010 creo que será el año en el que nos centraremos un poco más en los ingresos", explicaba el cofundador de la red, Biz Stone, como recoge el local The Jerusalem Post. "Aún tenemos mucho trabajo en el producto que hacer".

Twitter y Facebook no estarían solas en la entrada en cotización. LinkedIn, la red social profesional, también está planteándose una salida a mercados, aunque no inminente. "Posiblemente en algún punto de balance ocurrirá, cuando sea lo adecuado", explica a Reuters el cofundador de la red, Reid Hoffman.

Tanto LinkedIn como Twitter y Facebook venden ya sus acciones en los mercados privados. Cabe esperar que el furor inversor se desate en cuanto salgan a los públicos. ¿Serán el nuevo Google o la nueva burbuja? Sólo el tiempo responderá a esa pregunta.