Buscar

Mostrando entradas con la etiqueta datos. Mostrar todas las entradas
Mostrando entradas con la etiqueta datos. Mostrar todas las entradas

2009/10/12

'Lo sentimos, parece que hemos perdido todos sus datos'

Fuente: Yahoo!

La operadora T-Mobile, filial de Deutsche Telekom, ha informado a sus clientes en los Estados Unidos de que ha perdido todos los datos personales (contactos, citas, listas de tareas, fotos) de los poseedores de los terminales Sidekick que no estuvieran alojados en el propio terminal, sino en los servidores del servicio. El Sidekick es una serie de teléfonos avanzados fabricados por la firma Danger, que T-Mobile comercializa en exclusiva y que combinan el alojamiento local con diversos servicios de 'cloud computing'. El comunicado de T-Mobile insta a sus clientes a no retirar la batería de sus Sidekick, no reiniciarlos y evitar que se queden sin batería, con el fin de conservar al menos los datos que contienen. La operadora indica que siguen buscando una manera de recuperar los datos, pero reconoce que hay pocas probabilidades de que lo logre.

El servicio de alojamiento remoto de los datos de los Sidekick corre a cargo de la propia Danger. La firma es propiedad de Microsoft, que la adquirió en febrero de 2008 por 500 millones de dòlares. Danger fue fundada por Andy Rubin, que actualmente es el director de plataformas móviles de Google y, por lo tanto, el máximo responsable de Android.

El desastre de los Sidekick constituye un durísimo golpe a la credibilidad de los servicios de Internet de Microsoft en particular y del 'cloud computing' en general.

2009/07/18

Un bazar con los datos del usuario

Fuente: Publico.

Si la información es poder, la de los internautas se ha convertido en el gran negocio que sustenta Internet. Todas las páginas web más visitadas tienen políticas de privacidad que prohíben la cesión de los datos de sus visitantes a terceras empresas o, si lo hacen, piden su consentimiento. Sin embargo, la mayoría dejan la puerta abierta para que entren extraños y se los lleven.

Un informe realizado por un equipo de estudiantes de la Universidad de Berkeley (California, EEUU) ha analizado qué hacen las 50 principales web con los datos de sus usuarios. Aunque el trabajo fiscaliza sitios estadounidenses, entre ellos están páginas como Google, MySpace, Facebook, Blogspot, MSN, Yahoo o Monster, todas muy visitadas por navegantes españoles.

Todas recogen alguna información de quien las visita, como la dirección IP del ordenador desde el que se conecta, el sistema operativo del equipo o el navegador usado. Aunque sólo unas pocas reconocieron en un cuestionario ceder alguno de esos datos a otras compañías, el estudio revela que las 50 incluyen al menos algún mecanismo que recoge los datos y los manda a servidores externos.

Las técnicas de recolección son variadas. La más conocida es el uso de cookies. Se trata de pequeños archivos de texto que el dueño de la página instala en el ordenador del usuario. Pero las páginas llevan publicidad de terceros y estos también cuelan su cookie. Tras pasadas polémicas, los principales navegadores tienen la opción de rechazarlas o borrarlas.

Pero hay otro truco contra el que el usuario nada puede hacer, porque ni lo ve. Se trata de los web bugs , también conocidos como web beacon, clear GIF o bicho rastreador. Estos bichitos son imágenes de un píxel de ancho por uno de alto (el píxel es la unidad más pequeña a la que puede reducirse una imagen).

A pesar de su reducido tamaño, elegido para pasar desapercibidos, estos bichos son capaces de grabar mucha información. Por defecto, un web bug recoge la IP del ordenador, la dirección de la página donde se esconde o el tiempo que es visto (permanencia en la web). Pero también puede informar del sistema operativo, incluida la versión y, en general, los parámetros que desee su creador. Otra posibilidad es sustituir el formato de imagen GIF por un código Javascript inyectado en la página con la misma función.

Según el informe, basado en la navegación de entre 30.000 y 45.000 usuarios durante un mes, las 50 páginas más visitadas tenían al menos uno de estos bichos. Algunas como Blogspot llegan a contener 100. Esto no significa que un determinado usuario se vea invadido por todos a la vez. En realidad, sólo ve tres o cuatro, pero que van cambiando, o bien el bicho es diferente para cada visitante. En este elenco aparece otra plataforma de blog, como Typepad. En tercer lugar está Google.

Publicidad personalizada

Algunas de estas imágenes registradoras sólo tienen misiones estadísticas. Si un internauta entra en la web de Público, además del contenido alojado en el servidor del dueño, también se cargan rastreadores como Google Analytics o NetRatings SiteCensus que sirven para medir el tráfico del sitio. Pero en otras web, la misión de los rastreadores es comercial. Al ver la página graban toda la información que se pide y la mandan a servidores ajenos a esa web.

Entre estos bichos están Google Adsense o Doubleclick, ambos de Google, MSN Ads o ValueClick. Todos pertenecen a plataformas de marketing y publicidad y, con la acumulación de información, permiten adaptar los anuncios o mensajes que ve el usuario a sus gustos y preferencias. Es el sueño de toda empresa, poder segmentar su publicidad. En Google lo llaman relevancia.

Uno de los autores del informe, Ashkan Soltani, tiene sus dudas sobre la legalidad de estas herramientas. "Pero hay varios informes del Gobierno sobre la necesidad de regularlas porque estas prácticas podrían ser consideradas desleales o engañosas".

En España el problema se agrava porque aquí la dirección IP del ordenador está considerada como un dato personal y su cesión a terceros sin consentimiento está prohibida. En un documento de la Agencia Española de Protección de Datos (AEPD) con recomendaciones al sector del comercio electrónico, se recuerda que, en el caso de que se usen "procedimientos automáticos invisibles de recogida de datos", se debe informar al usuario.

Para Samuel Parra , especialista en protección de datos y miembro de la Asociación Profesional Española de Privacidad, el problema es que no hay una legislación específica sobre privacidad. "Hay que recurrir a la Ley de Protección de Datos", dice. La norma especifica que los interesados a los que se soliciten datos personales deberán ser previamente informados de modo expreso, preciso e inequívoco. Y la IP es un dato de carácter personal. Pero Parra matiza un detalle que permite una escapatoria a las web. La norma sanciona la cesión de datos a una persona diferente del interesado, "pero con los web bugs falta ese elemento subjetivo: no hay cesión o comunicación de datos de un sitio a otro, la empresa del web bug lo recaba directamente".

Omnipresencia de Google

El informe revela que Google es el rey también en este terreno. El buscador opera con cinco rastreadores, entre estadísticos y de fines comerciales. Al menos uno estaba en el 92% de los 100 primeros sitios de EEUU. Es más, durante el mes de realización del trabajo, el 88% de los 393.829 dominios analizados tenían uno de los bichos de Google.

Al experto en seguridad del Instituto de Física Aplicada del CSIC, Gonzalo Álvarez Marañón , no le preocupan tanto los web bugs, que considera una tecnología superada, sino la acumulación de tanta información en manos de unos pocos. "Los web bugs sólo afectan cuando hay muchos sitios afiliados entre sí o uno está en todos", como es el caso de Google con sus rastreadores. "Lo peligroso es que este buscador lo sabe todo de todos", dice.

La ventaja de tener 1.500 empresas

La legislación sobre intimidad y privacidad es menos restrictiva en EEUU que en España, y en general es más permisiva cuando la cesión de los datos se hace entre empresas del mismo grupo. Les basta con incluir este tráfico en la declaración de privacidad o en el aviso legal. El problema es que hay algunos grupos muy grandes.

Es el caso de la red social MySpace, uno de los sitios más visitados y que pertenece a News Corporation, propiedad del magnate de la comunicación Rupert Murdoch. El gigante empresarial tiene algo más de 1.500 subsidiarias.

A los autores del estudio les costó conseguir el número de afiliados que tenía cada una de las web. De las 50 más vistas a las que encuestaron, sólo 12 dieron el dato. Tras acudir a fuentes de información oficiales, comprobaron que la media de empresas ligadas a cada web era de 297. La que más afiliados tenía era la web del Bank of America, con 2.300. En el caso de Google, que cuenta con 137, se incluyen las versiones locales que tiene en los diferentes países.

Un caso más extremo, pero más regulado, es la cesión de información personal a una empresa con la que se tiene algún contrato. De los 50 sitios analizados, 43 reconocieron compartir datos con terceros.

2009/06/03

Las cifras anticipan nuestros actos

Fuente: El Pais.

En nuestro quehacer cotidiano, cada vez más digitalizado, generamos constantemente datos sobre nuestros hábitos. Dejamos pistas en todas partes. Al comprar en el supermercado pasamos la tarjeta de fidelidad y, clic, quedamos registrados: cada semana, por ejemplo, junto a la carne, la verdura y los huevos, solemos comprar una cuña de parmesano y, sólo una vez al mes, un cartón de helado de vainilla. Luego enviamos SMS con el móvil y, clic, nuestro registro indica con cuánta gente nos relacionamos y si somos un usuario frecuente. Quizá después, en la oficina, navegamos un rato; leemos un par de periódicos, mandamos tres e-mails y compramos un billete de tren; clic, clic, clic...
Las bases de datos aumentan masivamente hasta convertirse en un pandemonio de millones de entradas. De ese caos, sin embargo, es posible desentrañar pautas sobre nuestro comportamiento para elaborar modelos predictivos y aplicarlos a la publicidad y al marketing, claro, pero también a la medicina, la gestión empresarial, los procesos electorales y la lucha contra el terrorismo. A la búsqueda de esas pautas se dedican los expertos en data mining (explotación o minería de datos), básicamente especialistas en estadística, matemáticos e ingenieros informáticos, encargados de desbrozar semejantes junglas de archivos en busca de patrones de comportamiento que ayuden a anticipar nuestras decisiones.
"El floreciente mundo de los datos es un laboratorio gigante sobre el comportamiento humano. Es una mesa de operaciones para las ciencias sociales, el comportamiento económico y la psicología", escribe Stephen Baker, periodista de BusinessWeek, en el ensayo The Numerati. How they'll get my number and yours (Jonathan Cape). En su libro, Baker aborda el prometedor futuro de la minería de datos: "En la década que viene, cada uno de nosotros dará lugar, a menudo, sin advertirlo, a modelos propios en casi cada aspecto de la vida. Seremos modelados como trabajadores, pacientes, soldados, amantes, clientes y votantes", escribe. Su vaticinio es ambicioso: sumadas todas estas facetas, veremos la "modelación matemática de la humanidad".
Una empresa habituada a trabajar con enormes bases de datos, el buscador Google, ya está aplicando el data mining en la gestión de los recursos humanos de su propia plantilla. Ante la marcha de algunos cargos estratégicos (ingenieros, diseñadores y ejecutivos de ventas), la compañía está desarrollando una herramienta que le permitiría conocer el estado de ánimo de sus trabajadores y averiguar cuáles se plantean marcharse, según publicó recientemente The Wall Street Journal. Consiste en un algoritmo (una fórmula matemática) elaborado a partir de un gran volumen de datos (entrevistas, registros de nóminas y ascensos y evaluaciones de compañeros, etcétera) de sus 20.000 trabajadores. Google no da muchos detalles más, pero el funcionamiento de una herramienta así es conocido. "Se trata de crear un modelo de predicción del comportamiento", señala Lluís Belanche, profesor titular del Departamento de Lenguajes y Sistemas Informáticos de la Universidad Politécnica de Cataluña.
"Se toma como referencia a los empleados que se fueron de la empresa porque no se sentían valorados. Cuando se tiene una muestra amplia, de miles, se analiza cómo se comportaron poco antes de marcharse". ¿Quizá mandaban menos e-mails a tan sólo un reducido grupo de amigos? ¿Pasaban más tiempo visitando páginas web o leyendo la sección de deportes?, se pregunta Baker, desde Nueva Jersey. "Si existe alguna pauta común entre estas personas insatisfechas, puedes enseñar a una máquina a buscar entre las pautas de la plantilla actual, y localizar a los empleados que encajan en ese perfil". Se trata de proyecciones y no garantizan una fiabilidad del cien por cien, advierte Belanche, "pero cuantos más registros se tienen, más confianza merece la predicción".
Las técnicas no son nuevas, pero por primera vez se empiezan a aplicar a gran escala a la gestión de los recursos humanos, la investigación médica y la lucha contra el terrorismo. "El data mining de Google no es tan diferente de otros análisis que hacen las empresas en sus intentos de anticipar nuestro comportamiento", señala Baker. "Las compañías de móviles, por ejemplo, examinan los patrones de nuestras llamadas en un intento de predecir quién es más probable que se cambie a otra operadora", añade. "Si tus llamadas siguen ese patrón es muy probable que recibas una oferta especial tentadora para que renueves tu contrato".
Las herramientas que procesan tal volumen de datos "son algoritmos de aprendizaje que proceden del campo de la inteligencia artificial", sostiene Fernando Corbacho, socio de operaciones de la compañía CognoData, especializada en la aplicación de la minería de datos en el sector empresarial. "Analizan las bases de datos y aprenden a distinguir entre los clientes que se han ido y los que no. Elaboran un perfil del cliente que se ha ido y luego lo aplica a cada empleado y dice si encaja en el perfil de fuga".
Otros gigantes del sector informático ya estudian cómo optimizar el rendimiento de sus trabajadores. La multinacional IBM se ha fijado en sus especialistas en tecnología. El proyecto consiste en reunir exhaustivos inventarios de las habilidades de cada uno de ellos y luego calcular matemáticamente la mejor manera de utilizarlos, según escribe Baker. Uno de los cerebros de la idea es el matemático Samer Takriti, investigador del Thomas J. Watson Research Center de IBM, en Nueva York, que se ha rodeado de un equipo de especialistas, desde data miners y estadísticos hasta psicólogos y antropólogos.
La empresa tiene vedados los archivos de personal, con evaluaciones anuales, pero prácticamente todo el resto de información está a su disposición. Y necesitan mucha. Cuanta más, mejor. Escudriñando currículos y registros de proyectos, el equipo puede construir un perfil de las habilidades y experiencia de cada trabajador. Puede saber cómo usan su tiempo y con quién se reúnen a partir de los calendarios online.
Además, en los registros de llamadas y los correos electrónicos están grabadas las redes sociales de cada técnico. "¿A quién envían copias adjuntas de sus e-mails? ¿Mandan copias ocultas a alguien? Estos mensajes ocultos podrían apuntar al crecimiento de redes informales dentro de la compañía", incide Baker. "Podrían mostrar que un cargo medio lidera en silencio a un importante equipo de colegas y que su jefe está fuera del circuito. Quizá ambos deberían intercambiar sus puestos". Proyectos como los de Google e IBM están aún en fase inicial, pero dejan entrever su alcance potencial.
En Estados Unidos la privacidad de los empleados está claramente definida: "El empresario es propietario de cada golpe de tecla y cada clic del ratón y de cada llamada del móvil de la empresa", subraya Baker. "Además pueden estudiar calendarios electrónicos, registros laborales y currículos". En España, una sentencia del Tribunal Supremo de 2007 concluyó que los empresarios pueden rastrear toda esa información pero tienen la obligación de avisar antes a los empleados de cualquier supervisión de sus comunicaciones a través de Internet, y deben establecer protocolos.
"Fue una sentencia algo ecléctica", señala el director de la Agencia Española de Protección de Datos (AEPD), Artemi Rallo. "Se proclamó que el tipo de servicios que se ponen a disposición de los empleados son dignos de protección, pero en la misma sentencia se recoge que si el empresario avisa de que podrá acceder o accederá a e-mails e historiales y se protocoliza, la práctica sería legal". En cualquier caso -añade Rallo-, son situaciones nuevas, sobre las que existe escasa jurisprudencia, y la cobertura legal va avanzando para adaptarse.
Los nuevos expertos en gigantescas bases de datos, los numerati -como los ha bautizado Baker- juegan ya una función crucial en las empresas. "Por múltiples razones", observa Javier Arias, ingeniero de alianzas estratégicas de Google en España. "Para algunas es una herramienta para encontrar nuevas fuentes de beneficios (¿qué producto tengo que desarrollar/crear), para otras, el data mining es parte de su investigación y desarrollo (¿qué moléculas tienen más probabilidades de funcionar contra un cáncer específico?)". Y añade que las entidades bancarias pueden emplear la técnica para "detectar que una operación con tarjeta de crédito es fraudulenta porque no se corresponde con el patrón de uso normal".
Los usos comerciales del data mining son abundantes. "Los supermercados y las grandes cadenas, como Wal-Mart o Ikea, crean grandes bases de datos en los que cada entrada es, por ejemplo, un tique", indica Belanche. "Saben qué has comprado y, si tienes tarjeta de fidelidad, incluso tienen tus datos personales". Es información fundamental para determinar los patrones de compra y poder estimular las ventas. "Localizan por ejemplo dos productos que siempre se compran juntos y los colocan en dos pasillos separados para que tengas que pasar por un tercero y compres otros que no tenías previsto adquirir".
En la elaboración de los modelos de predicción se emplean desde la estadística tradicional hasta las reglas de asociación ("si este producto se compra junto a un segundo y un tercero, entonces es probable que se compre este cuarto"), indica Belanche. "También los bancos suelen invertir en el desarrollo de sistemas de predicción de impagos de préstamos", prosigue. "Las líneas aéreas en Internet cuentan con un registro de millones de entradas. Si se analiza el registro de clics se puede saber, por ejemplo, en qué momento un cliente ha dejado de comprar un billete y por qué; quizá porque ha recibido un cargo sorpresivo, por ejemplo. A las empresas les interesa saberlo".
E incluso se están estudiando aplicaciones en los procesos electorales: conocer el patrón de voto de los electores para poder personalizar el mensaje del candidato. En su ensayo, Baker describe el proyecto de la empresa Spotlight Analysis, dirigida por Josh Gotbaum, ex funcionario de las Administraciones de Carter y Clinton. Se propone localizar a los decisivos swing voters (el voto indeciso que puede resultar determinante en unos comicios) para poder afinar los mensajes electorales. ¿La técnica? En primer lugar, toman las colosales bases de datos de empresas como ChoicePoint o Acxiom, que acumulan registros sobre sentencias judiciales, transacciones inmobiliarias y de impuestos, y sobre hábitos de consumo (suscripciones a revistas, compra de libros, viajes, etcétera). Son compañías que "compran cada pequeño dato sobre nosotros que está en venta", advierte Baker, "y luego venden selecciones de esos datos a cualquiera que quiera perfilarnos para dirigirnos una campaña". Luego se cruzan esos registros con los análisis sobre las preocupaciones de los consumidores, suministrados por empresas como Yankelovich (que recoge lo que piensan 175 millones de consumidores sobre el éxito profesional, la vida familiar o su comunidad, entre otros valores). A todo ello se añade una serie de encuestas telefónicas. El resultado permite segmentar a los votantes de una manera muy útil para el diseño de las campañas electorales. "El tipo de análisis estadístico que discutimos aquí", precisa Baker, "tanto si se trata de predecir nuestro comportamiento como cazadores de casas o como consumidores de vino, es por naturaleza aproximado. Se basa en la probabilidad". Logran su objetivo "si consiguen respuestas mejores, más rápidas o más baratas que las habituales".
El uso de la minería de datos en medicina es incipiente pero prometedor. Baker enumera algunos proyectos de instalación de sensores en el domicilio de personas de edad avanzada. Recogerán las pautas de comportamiento y avisarán de cualquier irregularidad, como un descenso de peso o un cambio del ritmo de los pasos. Otros estudios investigarán durante las próximas décadas el desarrollo de nanosensores instalados en el organismo para examinar la sangre y poder alertar a tiempo del crecimiento de un tumor. "Para que funcionen, los numerati tendrán que desarrollar normas estadísticas para cientos de nuestras pautas biológicas".
Con todo, el campo de la minería de datos que plantea mayores conflictos sobre la invasión de la privacidad es el de la lucha contra el terrorismo. Tras los atentados del 11-S de 2001, Washington empleó más de mil millones de dólares para unir las ingentes bases de datos de la CIA y el FBI y ofrecer así una única fuente a los data miners, según explica Baker. Y, además, -enumera el periodista- rastrearon datos de consumo y demografía, revisaron registros de líneas aéreas y recibos de hotel, junto a millones de vídeos y horas de llamadas telefónicas y tráfico de internet recopilados por la National Security Agency (NSA). E incluso, según publicaron varios medios en 2006, las grandes compañías telefónicas entregaron al Gobierno el registro de millones de llamadas.
En esa batalla contra el terror se incluyó el software NORA, un sistema para identificar relaciones no evidentes entre tramposos de casinos, según detalla Baker. El programa fue ideado para rastrear las bases de datos internas de los casinos en busca de vínculos entre nombres, direcciones y números de teléfonos.
Tras el 11-S se utilizó NORA para cribar las identidades y movimientos de terroristas. Su creador, Jeff Jonas, es un científico de IBM que aboga por la defensa de los derechos de privacidad. "Necesitaremos tecnología que proteja nuestra identidad y políticas que salvaguarden nuestros derechos", advierte en The Numerati. "Vamos a necesitar mucha gente inteligente en política". Sin una profunda regulación -añade Baker- es probable que recibamos lo peor de ambos mundos, una sociedad de la vigilancia que aun así es incapaz de mantenernos seguros.
En cualquier caso, Baker pronostica un inmenso nuevo territorio para la ciencia. "Promete ser uno de los grandes logros del siglo XXI. Su alcance crecerá hasta incluir la mayoría del mundo físico a medida que los matemáticos metan mano en nuevos flujos de datos, desde constelaciones de sensores atmosféricos hasta la señal de millones de cámaras de seguridad", vaticina Baker. "Es un mundo paralelo que está tomando forma; un laboratorio para la investigación y el descubrimiento compuesto de números, vectores y algoritmos".

Aplicaciones del 'data mining'

- Comercio. Conocer el patrón de compras del cliente para, por ejemplo, diseñar mejores campañas de publicidad y aumentar las ventas.
- Empleo. Cuantificar las habilidades de los trabajadores para aprovecharlas al máximo. Localizar trabajadores descontentos.
- Elecciones. Cotejar grandes bases de datos sobre hábitos de consumo y encuestas para conocer con detalle las inquietudes y los intereses del votante y así perfilar mejores campañas.
- Medicina. Reunir grandes bases de datos biológicos para emplearlas en la detección a tiempo de tumores, demencias o alzhéimer.
- Lucha contra el terrorismo. Localización de relaciones, transacciones económicas y movimientos de sospechosos.

2009/02/18

El dinero está en los datos y no en las llamadas

Fuente: Publico.

Pese a que cada día los operadores de telefonía móvil obtienen menos ingresos por los servicios de voz, las conversaciones móvil a móvil convencionales, la balanza se equilibra a su favor en el terreno del consumo de datos. 2008 fue un año que rubricó esta tendencia para los operadoras telefónicos.

El aumento del mercado de teléfonos inteligentes, que ofrecen a los usuarios aplicaciones similares a las de un ordenador, ha conseguido que el negocio del envío de mensajes de texto, la navegación por Internet y los tonos para móviles haya aumentado un 50%.

Tanto es así, que los operadores señalan a los ingresos por datos como el principal motor de su negocio, actualmente. Durante la celebración del Mobile World Congress en Barcelona las compañías han podido evidenciar esta tendencia.

La mayoría de empresas presentes en el congreso aseguran estar buscando fórmulas para dirigir sus negocios hacia el aumento de ingresos por los servicios de datos en telefonía móvil.

Además, los operadores móviles buscan poder identificar y categorizar a los usuarios que consumen estos servicios de datos.

Sin embargo, la apuesta de futuro en el campo de la telefonía móvil continúa orientada hacia la navegación en Internet desde el teléfono. Los principales operadores móviles ofrecen servicios de Internet y los fabricantes de teléfonos móviles, todos sin excepción, acumulan ya numerosos modelos en sus catálogos que ofrecen estas conexiones, bien por redes 3G o WiFi.

En el congreso mundial de telefonía, además se ha podido constatar la enorme inversión en infraestructuras de comunicación que están llevando a cabo entidades o empresas que gestionan lugares públicos como aeropuertos, hoteles, oficinas o cafeterías.

Fabricantes como Motorola o Siemens, antes protagonistas en el mercado de terminales, centran su atención en el desarrollo de infraestructuras para llevar las comunicaciones móviles e inalámbricas a todos los lugares y mediante todo tipo de servicios de datos.

2008/12/12

Nuevo récord mundial en velocidad de transferencia de datos

Fuente: Tendencias21.

114 gigabits por segundo (Gbps) es el nuevo record de transferencia de datos entre sistemas de almacenamiento establecido por un equipo internacional de físicos, científicos informáticos e ingenieros de redes conducidos por el CALTECH (California Institute of Technology). Fue el pico alcanzado sobre un flujo de datos sostenido en más de 110 Gbps entre clusters de servidores durante la reciente conferencia SuperComputing 2008, que ha tenido lugar en Austin, Texas.

A este lado del Atlántico, el Gran Colisionador de Hadrones (LHC) de la Organización Europea para la Investigación Nuclear (CERN), con el que se pretende confirmar experimentalmente el modelo estándar de la física una vez que consiga detectar el bosón de Higgs, “la partícula de Dios”, requiere un sistema un sistema de telecomunicaciones acorde a tan descomunal y meritoria ambición. El CALTECH y sus socios parecen estar a la altura de los requerimientos y dispuestos a dar respuesta a los mismos.

El corazón de la red

Para explotar a fondo la potencial riqueza de estos y otros futuros logros del LHC se ha desarrollado un sistema grid a escala global que hace coincidir, según el CALTECH, el poder computacional y la capacidad de almacenamiento de 11 principales centros Tier1 y 120 centros Tier2 situados en laboratorios y universidades de todo el mundo, “con objeto de procesar, distribuir y analizar volúmenes sin precedentes de datos, pasando de decenas a 1000 petabytes durante los próximos años”.

El corazón del sistema está tejido de redes de alta capacidad y aplicaciones de última generación lo hacen latir. En la demostracción de la Conferencia SuperComputing 2008 se utilizó, por ejemplo, Fast Data Transport (FDT), una aplicación Java desarrollada por el equipo del Caltech en estrecha colaboración con el equipo de de la Polytehnica bucharest, y que permite hacer fluir grandes conjuntos de archivos, que habitualmente se mueven en el orden de miles en aplicaciones de física de alta energía.

Otra de esas herramientas fue dCache, un proyecto que aporta un sistema de almacenamiento y recuperación de inmensas cantidades de datos, destribuidos en un gran número de nodos, utilizando un sistema virtual de archivo en árbol con una variedad de métodos de acceso estándar. El sistema proporciona entre otras cosas valiosos métodos de intercambio de datos con los sistemas de almacenamiento y gestión del espacio, así como recuperación tras fallos en los discos o en los nodos.

Tambien se hizo uso de Fast TCP, desarrollado por el profesor Steven Low del departamento de ciencias computacionales del CALTECH como una algoritmo alternativo de control de la congestión en TCP, y diseñado para transferencias de datos de alta velocidad a larga distancia, por ejemplo hacer cruzar el Atlántico a decenas de archivos de tamaño gigabyte.

Difusión científica

“Compartiendo nuestros métodos y herramientas con científicos de diversos campos, esperamos que la comunidad de investigación esté bien posicionada para dar a conocer sus descubrimientos, tomando gran ventaja de las redes actuales, así commo de las redes de próxima generación, de mucha mayor capacidad, tan pronto como éstas estén disponibles”, ha declarado Harvey Newman, profesor de física del CALTECH y presidente del grupo de Física de Alta Energía, según lo recogido en un reciente artículo de Physorg.com.

Newman añadió: “En particular, esperamos que estos desarrollos proporcionen a los físicos y jóvenes estudiantes de todo el mundo la oportunidad de participar directamente en el programa del LHC, y potencialmente hacer importantes descubrimientos.”

Por su parte, David Foster, director de Comunicaciones y Redes en el CERN, dijo que el uso eficiente de redes de alta velocidad para transferir grandes paquetes de datos es un componente esencial del grid computacional del LHC, una infraestructura que permitirá difundir las misiones y resultados de sus científicos.

Extensión mundial

Entre los socios del CALTECH y su Centro para la Investigación Computacional Avanzada (CACR) se cuentan entre otros, y además del CERN, la Universidad de Michigan, la Universidad Nacional de Ciencias y Tecnología (NUST), el Fermmi National Accelerator Laboratory (Fermilab), la Universidad Estatal de Río de Janeiro (UERJ) y la Universidad Estatal de Sao Paulo, además de prestigiosas organizaciones como Internet2 y organismos institucionales como la Fundación Nacional de Ciencias, creada por el Congreso en 1950.

Estos y otros colaboradores cuya lista puede consultarse en la página del CALTECH, han demostrado con sus inmensos y habituales flujos continentales y transoceánicos de datos, y con este nuevo récord de velocidad de transferencia, que la comunidad científica y tecnológica está preparada para explotar en profundidad la próxima generación de redes, y que –en palabras de Richard Cavanaughh, de la Universidad de Illinois y coordinador del proyecto UltraLigh– “la visión de un Grid dinámico de extensión mundial que dé soporte a muchos terabytes y más amplias transacciones de datos, es practicable”.

2008/11/21

Google construirá en Austria un centro de tratamiento de datos

Fuente: AFP.

La empresa Google ha comprado un terreno de 75 hectáreas en el norte de Austria con la idea de instalar dentro de dos años su nuevo centro de tratamiento de datos en Europa, informó este jueves el gigante estadounidense de Internet.
Google se interesó por diferentes emplazamientos en una docena de países europeos antes de decantarse por la localidad de Kronstorf, cerca de Linz (norte del país), según un comunicado del portavoz de la empresa Kay Oberbeck.
La compañía, que prevé dar trabajo a entre 50 y 100 personas en ese centro, ha sopesado el entorno económico favorable, la presencia en la zona de personal cualificado y la existencia de las infraestructuras de carreteras y energía necesarias.
El centro, no obstante, aún está en fase de diseño y no hay fecha para el inicio de las obras, según reconoció Google. Según informaron fuentes locales a la agencia APA, la inversión podría alcanzar cientos de millones de euros.

2008/09/10

Google reducirá tiempo de almacenamiento de datos personales de internautas

Fuente: El Tiempo.

La medida busca tranquilizar a aquellos que están preocupados por temas de privacidad.

Google borrará después de 9 meses, en lugar de los 18 actuales, el número de dirección IP que identifica a cada ordenador que se conecta a internet, devolviendo el anonimato a los historiales de búsqueda de los internautas, dijo la empresa en su blog oficial.

Google precisó que su decisión responde a un pedido de un grupo de organismos europeos de protección de datos personales, que había afirmado que los motores de búsqueda en internet no tenían ningún motivo para almacenar durante más de 6 meses información personal de los usuarios.

La importancia de este almacenamiento, radica en que los datos personales de los navegantes de internet son de gran utilidad para ciertos sectores, como el de la publicidad en línea, ya que permite definir los intereses, relaciones e intenciones de un internauta.

Google advirtió que esa reducción en el período de almacenamiento podría reducir la utilidad de su motor de búsqueda y afectar la innovación

"Estamos contentos de que esto lleve a alguna mejora adicional en el área de la privacidad, aunque también estamos preocupados por la potencial pérdida de seguridad, calidad e innovación que podría provocar tener menos datos almacenados", explicó la empresa tecnológica.

2008/08/27

Los datos bancarios de clientes hallados en un ordenador vendido en eBay

Fuente: La Vanguardia.

Los datos bancarios de clientes de varios bancos han sido hallados en el disco duro de un ordenador vendido en Inglaterra en eBay, la compañía de subastas por internet.

El disco contenía los números de cuentas bancarias, los de teléfonos y las firmas de más de un millón de clientes de American Express, NatWest y del Royal Bank of Scotland, informa hoy el periódico británico The Independent.

Quien descubrió toda esta documentación es Andrew Chapman, un informático de la ciudad de Oxford (sur de Inglaterra), que compró este mes el ordenador por unas 35 libras (unos 43 euros).

La información, según el periódico, pertenecía a Graphic Data, una compañía de Essex (sureste de Inglaterra) que conserva datos financieros de diversas organizaciones.

Una portavoz de eBay, Jenny Thomas, dijo hoy que un artículo así nunca debió venderse por internet y agregó que la compañía trabaja con Graphic Data para investigar el caso.

Según The Independent, el ordenador fue vendido por eBay por un ex empleado de Graphic Data. Una portavoz del Royal Bank of Scotland (RBS) señaló hoy que Graphic Data le ha confirmado que uno de sus ordenadores fue vendido "inapropiadamente" e investiga lo ocurrido.

"Como resultado de esto, los datos relacionados con solicitudes de tarjetas de crédito de algunos de nuestros clientes y datos de otros bancos no fueron retirados", añadió la portavoz.

"Nos tomamos este asunto muy en serio y trabajamos con Graphic Data para resolver esta lamentable pérdida" de datos, dijo.

2008/05/28

Google y Facebook en punto muerto sobre intercambio de datos

Fuente: Univision.

Las comunidades en línea desarrolladas por Google Inc. tienen pocos seguidores en Estados Unidos, pero la empresa líder de las búsquedas en internet continúa buscando un sitio entre las principales redes de gestión social.

Primero, deberá luchar con Facebook, el segundo sitio de reunión en línea mas grande detrás de MySpace.

Días después de que Google reveló su servicio Friend Connect _ que permite que los sitios de músicos, campañas políticas y otros tipos importen los datos de perfil que se hallan en varias redes sociales _ el programa fue bloqueado por Facebook.

Aunque Google estaba aprovechando las mismas herramientas que Facebook hizo disponibles sin costo a otros programadores externos, Facebook alegó que Google violó restricciones de Facebook sobre intercambio de datos. Ambas partes permanecen en un punto muerto.

Google, cuya red social Orkut tiene decenas de millones de usuarios en Brasil, intentó zambullirse aún más en el mundo de las redes sociales virtuales con la presentación en noviembre de un consorcio llamado OpenSocial, que permite que los programadores informáticos escriban programas para su uso en múltiples redes sociales. MySpace, un servicio de News Corp., se ha unido, pero Facebook no.

Este mes, Google lanzó el servicio Friend Connect, que promete recolectar datos de perfil tomados de Facebook, Google Talk, Orkut, LinkedIn, Plaxo y hi5, pero no de MySpace.

Con Friend Connect, la información de perfil de los usuarios es exportada a otros sitios con Google sirviendo como intermediario. Por ejemplo, una campaña política puede construir comunidades de partidarios tomando información de redes existentes.

Facebook se opuso rápidamente Friend Connect, citando la posible violación a la intimidad de sus usuarios. Normalmente, cuando Facebook trata con otras compañías de una en una, puede bloquear un servicio cuando cree que viola sus reglas. Con Google como intermediario, Facebook perdió esa influencia, así que decidió bloquear por completo a Friend Connect.

2007/11/22

Recupera tus datos de Windows con Linux

Fuente: the INQUIRER.

Un documento de un experto en recuperación de datos vuelve a demostrar la versatilidad de Linux, que puede ser utilizado para lograr rescatar la información que creíamos haber perdido en una partición defectuosa de Windows.

Aunque muchos linuxeros sabemos que la utilización de un LiveCD de Linux puede ofrecer las mismas ventajas, resulta muy interesante que aparezcan en los medios documentos como este - un PDF que podéis descargar aquí - que demuestra que arreglar sistemas Windows mediante Linux es toda una realidad.

En este caso el autor se centra en la recuperación de datos de un disco duro que extraemos del PC dañado para conectarlo a una máquina con Linux. Una vez hecho esto se explican los diferentes pasos que permiten detectar y montar las particiones de Windows para luego salvaguardar los datos copiándolos en una partición Linux, en otro sistema conectado de la red de área local, o incluso grabándolos en un CD o DVD.

2007/10/05

Big bang: ¿puede colapsar Internet por bombardeo de datos?

Fuente: Tecnologia.

El número de personas que se conectan a diario a Red supera los 1.100 millones. Y el material volcado en Internet equivale a 3 millones de veces la cantidad total de libros escritos en la historia del hombre. Dadas estas cifras, ¿está preparada la Red para soportar tanto volumen de datos?

Más de 1.100 millones personas alrededor del planeta se conectan diariamente a internet. En 2006 la cantidad de direcciones de correo electrónico activas en todo el mundo superó las 1.600 millones de cuentas. My Space, un sitio de intercambio para comunidades de amigos tiene 197 millones de usuarios y, por día, incorpora 250.000 nuevos.

Asimismo, el número de blogs se multiplica por dos cada seis meses, y en la actualidad hay más de 60 millones. El portal de videos YouTube suma 65.000 filmaciones nuevas por día.

La explosión de paradigmas como la Web 2.0, que incentiva a los usuarios comunes para que aporten contenidos propios y, al mismo tiempo, enriquezcan el material publicado por otros emisores, derivó en que el año pasado, y de acuerdo a un estudio divulgado por la compañía EMC, el universo digital alcanzara un tamaño total de 161.000 millones de gigabytes.

Para ilustrar de un mejor modo esta cifra, el material volcado en internet equivale aproximadamente a 3 millones de veces la cantidad total de libros escritos en la historia de la humanidad o el equivalente a 12 pilas de libros, cada una extendiéndose a 93 millones de millas desde la Tierra al Sol.
Dado este volumen de datos, y el hecho de que, según analistas del sector, de 1997 a esta parte la cantidad de información que circula por la web crece a un ritmo del 70% anual, la pregunta surge inevitable: ¿puede colapsar internet? ¿Está preparada la red para soportar tamaño bombardeo de datos?

Las dudas son amplias: el estudio divulgado por EMC –confeccionado por la consultora IDC– proyecta un crecimiento de hasta seis veces en la cantidad de información creada y copiada desde la actualidad hasta el 2010.

“Hoy el 95% de la información nace de manera digital y eso es un problema. Hoy los datos surgen de un procesador de texto, de dispositivos de video, sea por tecnología IP u otro mecanismo, pero lo cierto es que no es en versión analógica como antes”, explicó, a infobaeprofesional.com, Carlos Marconi, consultor de EMC.

Según el ejecutivo, otro punto a tomar en cuenta es la fuerte réplica que hoy tiene la información a raíz de la mencionada Web 2.0. En otras palabras, actualmente es común que cualquier usuario tome un video o un archivo de audio de cualquier portal y traslade el mismo contenido a una bitácora personal, una red social, u otro tipo de página virtual.

Esta posibilidad de replicar incrementa la cantidad de información que circula por internet y, además, exige mayor capacidad de almacenamiento. “Hoy todo es de un usuario a otro, y sobre un dato surgen muchos más contenidos. Todo eso consume mucho ancho de banda”, señaló Marconi.

A eso debe adicionarse que, en comparación con la década anterior, por estos días la complejidad de los contenidos en circulación consumen muchos recursos de la red. Así, los videos que normalmente se cuelgan en YouTube o las fotografías que cualquier internauta remite por email ostentan dimensiones y pesos que exigen un amplio margen de ancho de banda al ser transferidos.
Panorama
Para dar una idea de la cantidad de material fílmico y fotográfico que se genera y vuelca a la red en estos tiempos, vale decir que en 2006 y a escala mundial, las imágenes capturadas por cámaras digitales excedieron los 150 mil millones de registros.

Al mismo tiempo, las imágenes obtenidas mediante teléfonos celulares alcanzaron la cantidad de 100 mil millones de archivos. IDC pronostica que los registros visuales por medio de estas tecnologías alcanzarán globalmente la cifra de 500 mil millones de imágenes para el año 2010.

El panorama abruma por las cifras, y de ahí que resulte complejo imaginar una estructura capaz de soportar, por ejemplo, 1.600 millones de direcciones de correo electrónico. Y que esa cuentas de email hayan remitido una tasa tres veces mayor a las personas que utilizan el sistema de correspondencia vía web.

Los interrogantes surgen solos si a este material con peso específico se le adiciona, también, el volumen de mensajes que pueden remitirse mediante dispositivos como celulares. Empresas de la talla de Vodafone estiman que para 2010 el 80% del tráfico de datos se realizará por redes móviles.

A este pronóstico hay que agregarle que la misma operadora calcula que para ese año el 54% de los usuarios de móviles entrarán con este dispositivo a internet.

“Esta masa de información cada vez mayor está poniendo una tensión considerable sobre las infraestructuras de IT que tenemos hoy en día. Este crecimiento explosivo cambiará la manera en que las organizaciones y profesionales de IT hacen su trabajo y la manera en que los consumidores utilizan la información”, declaró Mark Lewis, Vicepresidente ejecutivo y Jefe de Desarrollo de EMC.

“Dado que el 85% de la información creada y copiada será responsabilidad de las organizaciones, debemos tomar medidas como industria para asegurarnos de desarrollar infraestructuras de información flexibles, confiables y seguras para manejar la avalancha”, completó.
Respuestas
En búsqueda de sumar respuestas al interrogante sobre un probable “Big Bang” de internet, infobaeprofesional.com dialogó con Juan Pablo Núñez, arquitecto de Soluciones para Latinoamérica de Hitachi Data Systems, compañía que desarrolla soluciones para almacenamiento y administración de datos, quien explicó que la probabilidad de un colapso de la red “viene anticipándose desde 1996 aproximadamente”.

Bob Metcalfe (considerado un gurú en aspectos vinculados a internet) fue el primero en señalar la probable catástrofe de internet por exceso en el tráfico de datos”, comentó. Según el ejecutivo, también en 2001 se dio por sentada la extinción de la red de redes. Pero lo cierto es que nada de eso ocurrió.

Nuñez reconoció como preocupación para el sector informático la necesidad de desarrollar –de manera constante– nuevas soluciones de almacenamiento que permitan guardar un flujo de datos en constante expansión.

“Uno de los desafíos es guardar y mantener una información de tipo inalterable. Además, otra de las exigencias pasa por permitir un acceso instantáneo a esos contenidos”, explicó. Y agregó que para resolver parte de estos dilemas, las empresas suelen implementar sistemas de almacenamiento que permiten ordenar los datos acumulados según un orden de importancia.
Consultado sobre cuál es el sistema de resguardo de información implementado por gigantes del correo electrónico como Yahoo! y Gmail, que en sus cuentas de email ofrecen capacidades prácticamente ilimitadas, Núñez hizo referencia a un recurso conocido como “Aprovisionamiento dinámico”.

¿En qué consiste el concepto? “Básicamente, el usuario no dispone fielmente de los, por ejemplo, 2 GB que dice la cuenta para un uso completo. En realidad, el cliente sólo usa algunos megas de su cuenta para enviar o almacenar información. Lo que hace el proveedor es, mediante un software, agregar capacidad según lo requiera el usuario”, detalló el ejecutivo.

Desde EMC Marconi coincidió con este argumento y agregó: “Si todos quisieran usar la capacidad que dice el correo en un mismo momento, el sistema colapsaría. Nadie tiene realmente ese espacio, sino que éste crece de acuerdo a la necesidad”.

¿Final o no?
Tanto Núñez como Marconi esbozaron posturas parecidas en cuanto al futuro de la red y el incremento constante de datos volcados a dicha tecnología. Y explicitaron sus puntos de vistas sobre el preanunciado final de la internet que conocemos.

Precisamente, y al ser consultado respecto de los pronósticos más apocalípticos, Núñez no dudó en destacar la evolución permanente de la tecnología y la continua creación de soluciones técnicas que, según su posición, ayudan a prevenir el colapso de la web.

El crecimiento constante de las capacidades de almacenamiento de datos, hasta el momento, nos ha puesto lejos del final”, razonó. Para luego ampliar: “Cada dos años se duplica el tamaño de los discos que se utilizan para guardar la información; todo el tiempo se expanden los parámetros de almacenamiento. Si todo sigue como hasta ahora, no hay límite a la vista”.

En un tono similar, Marconi dio por sentado “que la tecnología dará respuestas a cada obstáculo que se presente”. Y anticipó un futuro “de grandes plantas de procesamiento de la información, con redes que nos permitirán tener cualquier dato de un modo más cercano”.

Como bien pudo apreciarse hasta esta instancia, la estructura de la red de redes parece estar lejos del crujido que algunos vienen anunciando casi desde el nacimiento de internet. Pero el surgimiento de usuarios móviles, las nuevas formas de interacción con la red, y el constante desarrollo de contenidos cada vez más complejos por parte de las empresas abre un interrogante sobre lo que puede llegar a ocurrir con el ciberespacio en la década siguiente.

Patricio Eleisegui
peleisegui@infobae.com
© Infobaeprofesional.com

2007/08/27

CD Recovery Toolbox

El programa CD Recovery Tool esta hecho para recuperar archivos dañados o corompidos de CDs, DVDs e inclusive unidades opticas de ultima generacion como HD-DVD y Blu-Ray.

Se puede utilizar para restaurar informacion perdida como resultado de algunos daños por causas mecanica, el programa puede recuperar datos que son considerados perdidos, aunque algunos tipos de daños son ya muy dificiles de analizar.

Puede recuperar archivos que superen los 4 GB de capacidad. La version Free (gratis, gratuita) tiene un asistente amigable y entendible.

Descargalo y pruebalo.

Para descargar (download) haz click en el siguiente enlace: CD Recovery Toolbox.

2007/08/22

Roban los datos personales de miles de usuarios del portal de empleo Monster

Fuente: 20minutos.
  • El servidor saqueado acumulaba 1,6 millones de datos con información personal de miles de candidatos.
  • Esos datos se utilizaron para lanzar un gran ataque de phising.
  • Los correos falsos pretendían que los usuarios se instalasen un programa malicioso.

El web Monster.com, uno de los portales de búsqueda de empleo más populares de internet, ha sufrido un ataque que ha concluido con el robo de millones de datos de sus clientes.

La alerta, tal y como informan en BBC News, fue dada por la firma de seguridad Symantec, que asegura que los piratas informáticos se infiltraron como empleados de Monster utilizando contraseñas que habían obtenido previamente mediante un troyano.

"Este servidor remoto acumulaba 1,6 millones de datos con información personal que pertenecía a varios cientos de miles de candidatos, casi todos de Estados Unidos, quienes habían enviado su currículo a Monster.com", dice el informe de Symantec.

Esto permitió a los intrusos obtener direcciones de correo eletrónico, nombres completos, números de teléfono y otros datos personales con los que lanzaron un efectivo ataque de phising, esto es, enviaron millones de emails falsos que aparentaban ser de Monster y que tenían una gran credibilidad debido a la cantidad de datos reales que incluían.

En algunos de esos correos se pedía a los usuarios que descargasen la herramienta "Monster Job Seeker", que supuestamente sirve para agilizar la búsqueda de empleo, pero que en realidad es un programa malicioso que supone un doble perjuicio por el usuario.

Por un lado, es capaz de memorizar las claves bancarias que se utilizan en las operaciones por internet y, por otro, encripta los archivos del ordenador y pide una recompensa para liberarlos.

Los responsables de Monster.com aseguran que el incidente no tiene nada que ver con problemas de seguridad de la web e indican que los datos robados no son diferentes que los que se pueden encontrar en cualquier listín telefónico.

2007/05/15

The Pirate Bay dice que la base de datos robada está a salvo

El responsable de The Pirate Bay ha asegurado a sus usuarios que la brecha de seguridad abierta por lo hackers y que dejó al descubierto a más de un millón y medio de usuarios ha sido sellada y los datos robados no han sido desvelados.

El cofundador de este tracker de ficheros BitTorrent, Peter Sunde, explicó ayer a The INQ que los criminales que accedieron al software el jueves pudieron echar un rápido vistazo, pero que al darse cuenta de que habían sido descubiertos se deshicieron de lo datos.

“Había un estúpido error en el código y ellos encontraron el agujero para acceder al software del blog, que explotaron a través de una inyección SQL”, explicó Sund, aunque aseguró que iba a denunciarles.

“En el momento en el que entraron en la red, les llamé y les registré haciéndoles saber que sabíamos quién lo había hecho. Nos dijeron que tenían una copia de los nombres de los usuarios y las contraseñas encriptadas pero que no habían podido descifrarlas", aseguró.

“Se dieron cuenta de que habían cometido una estupidez y entregaron la información”. En opinión de Sund, se trataba de un grupo de jóvenes tratando de llamar la atención, pero con miedo a ser contraatacados por grupos más “mayores”.

Al principio, la prensa sueca dijo que podía tratarse del grupo conocido como Arga Unga Hackare (AUH), que se hicieron famosos en 2005 por entrar en la organización anti-piratería más grande de Suecia.

Pero Sunde niega esta información, diciendo que “hay muchos hackers en Suecia que buscan llamar la atención".

Fuente: the INQUIRER.