Buscar

2007/09/08

De Hi5 a Facebook, el fenómeno se transforma

Fuente: elPeriodico.

Muchos internautas abrieron su primera cuenta en una red social o “social network”, en sitios como MySpace o Hi5, publicaron un perfil personal y así se conectaron con algunos amigos y con amigos de sus amigos.

Sin embargo, a medida que un segmento de los usuarios de Internet aprendió a nadar entre las aguas de la redes sociales y a aprovechar al máximo tales herramientas para “ciber socializar”, surgieron otras redes para grupos de interés más específicos y así surgió una nueva clase de usuarios de estas redes: los que pertenecen a más de una o los que optaron por la que más se acerca a lo que buscan.

Así surgen redes como LinkedIn.com, un sitio orientado a hacer contactos profesionales, que a la fecha cuenta ya con más de 13 millones de usuarios registrados expandiéndose a lo largo de 150 industrias distintas. Su objetivo principal es que los usuarios registrados mantengan una lista de contactos con los que puedan vincularse a nivel profesional. ¿Para qué podría servir estar suscrito a una red como esta? Entre las posibilidades destacan encontrar trabajo a destajo, promover un negocio, rastrear nuevas oportunidades de trabajo, asesorarse sobre decisiones profesionales y hacer contactos.

Aunque estas redes de negocios han crecido, las estadísticas siguen revelando que los sitios más visitados son los que no se restringen a una sección en particular. Un caso interesante es el de Facebook.com, que después de iniciar como una red cerrada, según datos de comScore, vio incrementar el número de usuarios suscritos al sitio hasta en un 89 por ciento desde septiembre de 2006, cuando se convirtió en una red abierta. Además ha visto transformarse el perfil demográfico de sus usuarios, los de edades entre 12 y17 años crecieron en un 149 por ciento y los de 25 a 34 años también se incrementaron en un 181 por ciento, respectivamente, durante el mismo período.

Los más populares

El proceso de conectarse con distintas personas basándose en “intereses” en común, ha tenido una evolución acelerada desde 2003 cuando FriendSter se convirtió en un fenómeno globalmente reconocido. Esto provocó un efecto dominó que ha evolucionado en lo que hoy son sitios más especializados clasificados por grupos, objetivos e intereses en común.

Algunos ejemplos son Flickr.com, que gira alrededor de la fotografía, Dogster.com, para los amantes de las mascotas o bien Tickle.com, para quien desea encontrar pareja. Para las nuevas generaciones, tener amigos y hacer contactos implica unirse a una de estas plataformas sociales que los más visitados (Hi5, MySpace, LinkedIn, Facebook) ofrecen.

La comunicación pasa a un plano virtual, donde el perfil del usuario reemplaza su personalidad, incluso su voz. Este boom de las redes sociales tiene su base y complemento en el fenómeno de la tecnología. Akash Garg, gerente de Tecnología de Hi5.com comenta “El objetivo de Hi5 siempre ha sido ayudar a gente a conectarse con más gente aprovechando los avances del Internet”, siendo igual el caso de MySpace, sitio que cuenta con el mayor número de usuarios entre las redes sociales.

Desventajas

Paradójicamente, la eficiencia en manejo del tiempo que presuponen los avances tecnológicos no es precisamente aplicable a la mayoría de estos sitios, pues muchos usuarios pasan largas horas conectados a su red social. Otro incidente a observar es que el usuario, al crear su perfil, ingresa datos importantes tales como su información básica, intereses, edad, lugar donde vive, sexo, educación y trabajo, a su vez que publica fotografías en la web y “sube” música.

Esto puede llevarle a casos de invasión de privacidad, siendo recomendable que al abrir su cuenta mantenga cierta información como restringida y/o privada.

Conectados


Estudios del Instituto para la Productividad Corporativa en Estados Unidos señalan que cerca del 52 por ciento del personal de empresas que utiliza redes sociales se vale de ellas para comunicarse con colegas y 47 por ciento con clientes.

Sea cual sea su uso, las redes sociales ya no solo entretienen, sobre todo ahora que incluso se puede acceder a ellas en versión móvil, tal el caso de m.facebook.com. Lo cierto es que mientras utilizamos estos “servicios” de conectividad por medio de la web, estas empresas forman una base de datos que sirven para estadísticas que son la fuente de análisis de mercadeo. Pero esta es otra historia…

Hi5 y los consumidores 2.0

Fuente: El Universal.

Habla en exclusiva el director y fundador de una de las redes sociales más populares.

Las redes sociales en internet son algo más que el punto de encuentro y convivencia de personas. Para Ramu Yalamanchi, fundador y director general de Hi5, representan uno de los caminos más transitados por los consumidores 2.0, aquellos que revolucionaron el marketing y la publicidad virtual.

El creador del hoy undécimo sitio más visitado en el mundo, de acuerdo con la compañía de monitoreo Alexa, sólo superado por MySpace, de News Corp., y Orkut, de Google, en sitios del mismo perfil, asegura que uno de los alcances de la publicidad en línea es la posibilidad de focalizar y dirigir de mejor forma los mensajes a la gente.

Con el conocimiento de características de los usuarios la comunicación es más eficiente. Incluso, la medición y revisión de resultados permite la corrección de estrategias cuando no se cumplen los objetivos.

Dentro de las variables que una empresa debe considerar para apostar por estas alternativas de promoción está su tamaño y el mercado al que se desea enfocar. A partir de entonces, dijo Yalamanchi, podrá definirse una estrategia para la inversión publicitaria.

Hi5 cuenta con 60 millones de usuarios registrados en el mundo y la mitad de ellos visitan al menos una vez el sitio al mes. En México existen 2 millones 600 mil de estos visitantes frecuentes. Yalamanchi aseguró que la población de habla hispana representa uno de los mercados más importantes para su sitio.

Países como Ecuador, Costa Rica, El Salvador, Guatemala, Perú, Honduras, Nicaragua y Colombia tienen a Hi5 dentro de su top cinco de sitios más visitados; en México ocupa la posición número nueve.

El ritmo de crecimiento de usuarios y páginas visitadas reporta una tasa de 40% anual, estimó el directivo egresado de la Universidad de Illinois en Estados Unidos.

Según un reporte de Hi5, uno de cada cinco de sus visitantes tiene entre 18 y 24 años de edad, 23% entre 13 y 17 años, 15% entre 25 y 34 años, y 18% entre 35 y 44 años.

Un usuario promedio consume 15 minutos por sesión con una frecuencia de visita entre cinco y 10 veces por mes.

Los contenidos, la estrella de la Red

Fuente: Catalejo.

'The Internet is for Porn'... pero cada vez menos. Como gran medio de comunicación que es, cada vez son más importantes los contenidos. Y esto incluye tanto generarlos como consumirlos. De hecho, según datos de la 'Online Publishers Association', ya es la actividad a la que dedicamos más tiempo en la Red. Superior al que utilizamos para comunicarnos, hacer búsquedas o para el comercio electrónico.

Para entendernos: pasamos más tiempo leyendo noticias, blogs, viendo vídeos o escuchando música que conectados al 'messenger' o al correo electrónico. Según este estudio, que ofrece un análisis de los últimos cuatro años, el tiempo dedicado a la primera actividad ha crecido un 37%, hasta ocupar un 47% del total. Por detrás, las comunicaciones has descendido un 28%, hasta el 33% del tiempo.

Hace cuatro años, era al contrario. En 2003 utilizábamos mucho más la Red para enviarnos mensajes o charlar (un 46% del tiempo) que para crear o consumir contenidos (un 34%). Son las dos actividades principales. Por detrás quedan el comercio electrónico y las búsquedas -actividad clave que sólo ocupa un 5% del tiempo-.

Los propios responsables del estudio ofrecen algunas de las claves de este cambio: el traslado a Internet de actividades que antes sólo se hacían fuera, como buscar noticias, entretenimiento o, simplemente, mirar la información del tiempo; la posibilidad de obtener información intensiva en tiempo real; la creación de comunidades y plataformas fáciles para 'colgar' contenidos propios; el incremento de la banda ancha; la popularización del vídeo en la Red...

Se podrían dar muchos más motivos para una tendencia que no hace sino crecer día a día. Y que tiene sus peligros. Por ejemplo, los contenidos repetidos. Los blogs son un gran avance para la Red como medio de comunicación... pero muchos no hacen otra cosa que copiarse o copiar a los medios. Otro es que se produzca una sobredosis de información. O que la 'basura' inunde la Red.

Lo que deja claro este estudio es que, quien quiera destacar en la Red, lo primero que tiene que cuidar son sus contenidos. Que lo que cuente interese a su público, que lo presente de forma atractiva, que sea original y no una copia, que enganche a los buscadores... es decir, que tenga la calidad suficiente para atraer todas las miradas.

Algo que nunca ha sido fácil, pero es lo que siempre ha hecho falta para 'vender' contenidos. El gran cambio es que ahora no sólo pueden hacerlo unos pocos privilegiados, sino casi cualquiera. Es difícil, pero, créanme, merece la pena intentarlo.

¿Cómo diseñarías una comunidad 'on line'?

Fuente: Catalejo.

MySpace, Bebo, Facebook, Orkut... la Red está llena de comunidades virtuales. Incluso servicios como Twitter, YouTube o Flickr son, en una parte fundamental, una comunidad para que se relacionen sus usuarios. ¿Cuáles son los ingredientes de estos sitios web? Cada uno tiene los suyos, aunque en todos hay interactividad, comentarios, la posibilidad de establecer contactos...

Son algunas fórmulas habituales para páginas en las que se encuentra gente con un interés común. Aparte de estas pocas reglas generales, cada sitio tiene sus particularidades, sus propias características. No hay una receta ideal para elaborar una comunidad 'on line'. Aunque podemos intentar establecer una aproximada: ¿qué crees que sería necesario? ¿Cómo diseñarías una comunidad 'on line'?

Por ejemplo, ¿debe tener vídeo, audio o fotos? ¿Usar herramientas propias o admitir externas? ¿Con una página de inicio que muestre las últimas actualizaciones o que no lo haga? ¿Abierta a cualquiera o sólo para registrados? ¿Con herramientas para actualizar desde diferentes lugares o sólo desde la página de la comunidad?

Hay cientos de posibilidades. También, para mi gusto, algunas claves:

  • Que esté centrada en un objeto social definido (vídeo, audio, relaciones profesionales, libros, música, cine...).
  • Que sea gratuita y sin publicidad intrusiva.
  • Que las direcciones URL de los 'objetos' sean sencillas, cortas y fijas para que se puedan compartir.

  • Que sea fácil 'etiquetar' los contenidos para tenerlos localizados y organizados.
  • Premiar a los usuarios más participativos destacando su aportación.
  • Facilitar que los propios usuarios contribuyan al desarrollo técnico de la comunidad.

Ni siquiera estas premisas son normas fijas. Pero parecen un buen punto de partida para elaborar, entre todos, una receta clara sobre cómo debería ser y qué debería tener una comunidad 'on line' ideal. Espero vuestras aportaciones. Esta misma semana haré un resumen con todas ellas, seguro que resulta interesante.

“Barcelona será el procesador x86 más sofisticado del mercado”

Fuente: siliconnews.es.

Por Raúl Puerta

Entrevista a Alejandro Ruiz Bueno, director de Desarrollo de Negocio de AMD para Administración Pública y Grandes Cuentas en España y Portugal.

Después de muchas especulaciones sobre un posible retraso en la llegada de los primeros chips ‘quad-core’ de AMD, parece que se presentarán en un par de semanas. Alejandro Ruiz Bueno, responsable de AMD en España, adelanta a Silicon News algunas de las novedades de la plataforma conocida como Barcelona, el último envite frente a Intel.

¿Podría dar algunos detalles sobre la velocidad y rendimiento de los primeros modelos de Barcelona que estarán disponibles?

La plataforma Barcelona o nuestro diseño de cuatro núcleos de chip Opteron para servidores llegará tanto en versiones estándar como de bajo consumo. Los primeros modelos correrán como tope en la franja de los 2 GHz.

No obstante, los actuales procesadores Opteron de núcleo dual alcanzan ya los 2,8 GHz. ¿No llegarán a este tope los ‘quad-core’?

Sí, posteriormente. AMD espera que los chips nativos ‘quad-core’ superen esos 2 GHz con distintas frecuencias de reloj en el último trimestre del año, afectando tanto a las versiones estándares como a la Special Edition. Quizá lo más relevante es destacar que los nuevos modelos están diseñados para operar con el mismo consumo de vatios que la actual generación de Opteron.

Además de un mejor rendimiento por vatio y eficiencia energética, ¿qué otras bondades destacaría de la nueva plataforma?

Los grandes ahorros en consumo energético representan sin duda una de las claves principales, gracias a una frecuencia por núcleo independiente, a la tecnología CoolCore de AMD o a la gestión de energía dinámica dual (Dual Dynamic Power Management).

Por su parte, el acelerador de operaciones de coma flotante o la tecnología de optimización de memoria contribuyen a incrementar el rendimiento, junto a mejoras en los procesos de virtualización y la memoria caché balanceada.

¿Cuál será el rendimiento de Barcelona frente a los actuales Opteron de núcleo dual en aplicaciones como bases de datos u operaciones de coma flotante?

Estimamos que los nuevos procesadores aportarán un rendimiento un 70 por ciento superior a los Opteron duales en ciertas aplicaciones de bases de datos y hasta del 40 por ciento en las operaciones de coma flotante; y cuando aumenten su frecuencia de reloj, estas estimaciones también se verán incrementadas.

La principal diferencia frente a los Xeon ‘quad-core’ de Intel es que Barcelona incluirá cuatro chips en la misma pieza de silicio. ¿Cuál será la ventaja de rendimiento frente a estos Xeon?

Barcelona será el procesador x86 más sofisticado del mercado. A diferencia de Intel, nuestro diseño incluye las innovaciones más demandadas por los modernos CPDs. Debido precisamente al diseño puro o nativo (cuatro CPUs en el mismo silicio y no la suma de dos y dos chips) Barcelona mantendrá el liderazgo de AMD en cuanto a rendimiento por vatio en el segmento x86, además de proteger la inversión de los clientes y potenciar las posibilidades asociadas a la virtualización.

¿Cuándo cree que estarán disponibles los primeros servidores comerciales equipados con Barcelona?

Los primeros servidores comerciales estarán probablemente disponibles este mes de septiembre, justo después del lanzamiento de la plataforma.

¿Y qué esperan en términos de migraciones desde la anterior plataforma Opteron de núcleo dual?

Algo importante a destacar es que los fabricantes de servidores simplemente deberán actualizar la BIOs de la máquina equipada con los últimos Opteron duales, los Rev F, en caso de que quieran pasar de la plataforma dual a los ‘quad-core’. No obstante, la política de migraciones deberá definirse entre los OEMs y los clientes finales.

AMD ya ha migrado al proceso de fabricación de 65 nanómetros. ¿Para cuándo se dará el salto a los 45 nanómetros? Intel ya ha adoptado este proceso y lo incluirá próximamente en sus Harpertown o Xeon ‘quad-core’ de nueva generación...

Estamos en el camino para ello. La fábrica de Dresden en Alemania ya trabaja con los primeros prototipos, y el salto a los 45 nanómetros lo daremos a mediados de 2008. Y a diferencia de Intel, AMD e IBM trabajan con tecnologías de inmersión litográfica y obleas SOI (Silicon-On-Insulator).

Mercury Research estima que Intel cuenta con el 80,5 por ciento del mercado global de chips x86, mientras AMD ostenta el 18,7 por ciento. ¿Es correcto?

No exactamente. Según los números que maneja la misma consultora, en el segundo trimestre de este año AMD ostentaba el 22,9 por ciento de cuota global medida en término de unidades.

Ahora que Dell ha decidido finalmente incluir la tecnología AMD en su gama de servidores, en qué medida cree que aumentará su cuota frente a Intel?

No podemos comentar proyecciones o estimaciones futuras sobre la cuota de mercado, pero el pasado trimestre crecimos en porcentaje de unidades vendidas. A medida que avanzamos hacia el primer procesador ‘quad-core’ del mercado x86 -Barcelona- seguiremos aumentando nuestra presencia en el mercado.

¿Qué nos puede contar de Sandtiger, el futuro diseño de Opteron compuesto por ocho núcleos de proceso?

La familia Sandtiger está pensada para optimizar los servidores y usuarios de gama alta. Aumentará el listón del rendimiento por vatio hasta nuevos niveles, tanto para aplicaciones que requieran una sola tarea como las que demandan la ejecución de múltiples tareas. Se trata de una infraestructura que garantiza la continuidad y la adopción transparente para el usuario, e irá provista de entre 8 y 16 núcleos, en una única pieza de silicio construida ya sobre los 45 nanómetros y con un controlador de memoria DDR3.

Nueva plataforma basada en el procesador Intel Xeon Serie 7300

Fuente: RPP.

“Caneland” fue el nombre en código que se dio a la nueva plataforma de servidor Intel Xeon MP 7300 (multiprocesador o cuatro zócalos). La plataforma se compone de “Tigerton”, nombre en código que se ha dado al nuevo procesador Quad-Core Intel Xeon serie 7300 y “Clarksboro”, nombre en código del chipset Intel® 7300 con Data Traffic Optimizations.

·Caneland completa el portafolio de la microarquitectura Intel® Core™ en toda la familia de procesadores Intel® Xeon®, ya disponibles en servidores UP (Uni Procesador) y DP (Doble Procesador) desde el 2006, y ahora disponibles en servidores MP (Multi Procesador). La plataforma anterior con en el procesador Intel Xeon MP estaba basada en el procesador Intel® Xeon® 7100, conocida originalmente con el nombre en código Tulsa.

·La microarquitectura Intel Core que se presentó hace un año demuestra el liderazgo de Intel el liderazgo en desempeño, además del uso eficiente de la energía en servidores de producción en volumen (motherboards para servidores UP y DP). Intel reafirma ese liderazgo introduciendo la tecnología Quad-Core a la línea de producción en volumen en noviembre del 2006, logrando que la compañía obtuviera una enorme ventaja en una serie de pruebas de referencia para servidores.

·Intel fue el primero en llevar al mercado una plataforma Quad-Core MP en octubre del 2006, ejecutando dos aplicaciones reales a 2.66 GHz.

·Intel fue el primero en llevar al mercado plataformas Quad-Core MP reales para OEMs, primero con Sun Microsystems* en el IDF Beijing en marzo de este año y luego con SuperMicro en Computex y HP en su TechForum en junio de este año.

·Intel fue el primero en vender volúmenes de producción de plataformas Quad-Core MP con el procesador Intel Xeon serie 7300 y el chipset Intel 7300 a clientes OEMs en junio de este año. Al mismo tiempo, Intel inició también la venta de sistemas seminales a usuarios finales para iniciar sus precalificaciones.

·Caneland pasó del diseño a la producción en un tiempo récord, convirtiéndolo en el programa de producción de procesadores MP más veloz en la historia de Intel.

·Las plataformas basadas en Caneland serán compatibles con procesadores basados en Intel Core de 45 nm de siguiente generación en el 2008.

·El procesador Intel Xeon 7300 (Tigerton) presentado hoy es el procesador de 65 nm de Intel para servidores MP basados en Intel Xeon que se utilizarán con la nueva plataforma Caneland. El procesador Xeon 7300 es un procesador quad-core basado en la microarquitectura Intel® Core™.

20 años de telefonía móvil global

Fuente: Canal PDA.

La primera llamada desde un teléfono portátil se efectuó en 1973, hace 34 años, pero el despegue de la telefonía móvil no se inició hasta que fue posible llamar a números de otras compañías y de otros países. El embrión de esa posibilidad fue el GSM (Global System for Mobile Communication), cuyo documento fundacional fue suscrito por doce estados europeos en Copenhague el 7 de septiembre de 1987, hoy hace exactamente 20 años. Un decimotercer estado (adivinen cuál) se sumó al acuerdo tres días después. Actualmente hay en el mundo más de 2.500 millones de líneas móviles GSM, y cada día se añaden 1,2 millones más.

Hoy nos parece de lo más normal poder elegir entre varias compañías de telefonía móvil, cambiarnos de una a otra y llamar a teléfonos móviles ubicados en otros países, pero hace 20 años el panorama era muy distinto. La telefonía móvil era una tecnología incipiente y ofrecía posibilidades limitadas en cuanto a funcionalidad y cobertura.

Ya en 1982, la Conferencia Europea de Administraciones de Correos y Telecomunicaciones (CEPT, siglas de su nombre en francés), que agrupa a los organismos estatales europeos competentes en telecomunicaciones, había creado un grupo encargado de desarrollar un sistema común de telecomunicaciones móviles que permitiera la itinerancia. En 1985, Francia, Alemania e Italia se propusieron formalmente que dicho sistema estuviera operativo en 1991, y al cabo de un año se les unió el Reino Unido. La cumbre de jefes de estado y gobierno de la Comunidad Europea de diciembre de 1986 manifestó también su interés en dicho sistema común, que consideraban beneficioso para la cohesión del continente y su competitividad en el campo tecnológico internacional.

Todo ello desembocó en una reunión celebrada en Copenhague el 7 de septiembre de 1987. En el curso de la misma, representantes de 13 países europeos (Alemania, Bélgica, Dinamarca, España, Finlandia, Francia, Irlanda, Italia, Noruega, Holanda, Portugal, el Reino Unido y Suecia) se comprometían a establecer redes celulares de comunicaciones móviles de 900 MHz en cada uno de los países y a abrir un servicio público paneuropeo basado en las mismas.

El documento en cuestión, al que ha tenido acceso CanalPDA, se titula Memorandum of Understanding on the Implementation of a Pan European 900 MHz Digital Cellular Mobile Communications Service by 1991. A lo largo de 14 páginas mecanografiadas se detallan los antecedentes, las funcionalidades y los objetivos del sistema que actualmente conocemos como GSM y que ha superado su ámbito europeo original, cubriendo más del 80% de la población mundial en 218 estados, con 2.500 millones de líneas móviles.

La difusión de la telefonía móvil se ha acelerado: se tardaron 12 años en alcanzar los primeros 1.000 millones de líneas GSM, pero sólo 30 meses en duplicar esa cifra.

Objetivos modestos

Entre las estipulaciones del acuerdo llama la atención el artículo 10, que establece que para el año 1993 el sistema propuesto debía cubrir las capitales de todos los estados miembros de la CEPT, 'incluyendo sus aeropuertos respectivos', y para el año 1995, las rutas de transporte principales entre dichas capitales. El artículo 18 indica que los firmantes podían retirarse del acuerdo antes del 31 de diciembre de 1991, notificándolo por escrito a los otros.

Por cada uno de los estados citados, suscribieron el acuerdo representantes de los ministerios competentes en materia de telecomunicaciones. No obstante, en tres de los casos, también lo hicieron representantes de las compañías de telefonía: España (Telefónica), Italia (SIET) y el Reino Unido (Telecom Securicor y Racel Vodafone). Se da la circunstancia de que la adhesión de Telefónica al acuerdo, suscrita por Antonio Hernández, subdirector del departamento de operaciones de red, se agregó el 10 de septiembre, tres días después que el resto.

La GSM Association (GSMA), que agrupa a las más de 700 operadoras móviles GSM del mundo, conmemora el vigésimo aniversario de su nacimiento con unas cifras apabullantes. Según la GSMA, el mercado de los servicios móviles supone hoy un 1,6% del PIB mundial. Cada año se venden más de 1.000 millones de terminales móviles, cuyos usuarios consumen más de 7 billones de minutos de voz y mandan unos 2,5 billones de mensajes de texto. China Mobile, el mayor operador móvil del mundo, cuenta con 332 millones de usuarios, lo cual da una idea del alcance de estas empresas en la sociedad.

La GSM Association, con el patrocinio de Ericsson, ha encargado el rodaje de un largometraje documental titulado The Mobile World que recogerá la diversidad de usos de la telefonía móvil en el mundo. El film se estrenará en febrero de 2008, durante el 3GSM World Congress de Barcelona, pero en la web conmemorativa www.gsmtwenty.com ya se puede ver un tráiler.

Primeras impresiones de Opera 9.5 alpha

Fuente: HispaMp3.

La versión alpha de Opera 9.5 ya está disponible, y aun en esta etapa tan prematura de su disponibilidad, Opera demuestra ser un navegador que supera a Firefox e Internet Explorer 7 en velocidad de renderizado de páginas. Si ya era bueno, ahora lo es más. Las pruebas Javascript realizadas demuestran que al mostrar páginas Opera 9.5 mejoró sensiblemente frente a la versión 9.23 (281 ms frente a los 546 anteriores) pero en cualquier caso esos tiempos son increíbles si los comparamos con Firefox e Internet Explorer 7, que se mueven en rangos que van de los 900 a los 1500 milisegundos. Más información en español.

¿ Comprará finalmente Microsoft a Yahoo! ?

Fuente: HispaMp3.

Cada vez son más insistentes los rumores de compra de Yahoo! por parte de Microsoft.

Esta vez el rumor procede de Robert Peck, analista de la consultora Bear Stearns, que sostiene que Microsoft estaría planteándose la posibilidad de adquirir a la empresa rival a un precio de 40 dólares por acción, casi el doble de lo que cotiza ahora.

Una adquisición sin duda costosa, que podría rondar los 53.000 millones de dólares, pero que convertiría a Microsoft en un auténtico gigante, tanto de software como de servicios online y offline.

Un gigante quizás demasiado grande y lento para plantar cara al agil y versátil Google...

2007/09/07

Photoshop podrá usarse desde Internet

Fuente: Noticiasdot.

El popular programa de edición de fotografías Photoshop incorparará a su gama de productos una versión básica y más liviana que podrá usarse a través de internet.

Así lo dio a conocer John Loiacono, vice presidente de Adobe Systems, la empresa desarrolladora, que presentó el Photoshop Express en el marco de “Photoshop World”, un evento que se lleva a cabo actualmente en Las Vegas y en el cual se exhiben aplicaciones para esta famosa suite de diseño.

Según Loiacono, este versión apuntará a un público de consumidores antes que a un nicho especializado, ya que contará con herramientas básicas de edición, las cuales podrán complementarse con otras aplicaciones del último suite.

Loiacono mostró cómo es posible ajustar una imagen con tan solo darle vueltas a las diferentes versiones que se muestran en la parte superior de la pantalla, hacer una vista preliminar de los resultados y luego hacer click para seleccionar las modificaciones deseadas”, señaló John Nack de Adobe en el blog oficial de la empresa.

En una comunicado de prensa, Adobe señaló que el producto aún se encuentra en etapa de desarrollo, sin hacer referencia fechas estimadas de salida al mercado o de puesta on line, aunque se presume que pueda ser a través de terceros como los portales de fotografías compartidas por usuarios Photobucket o Flickr.