Fuente: Tecnologia.
El número de personas que se conectan a diario a Red supera los 1.100 millones. Y el material volcado en Internet equivale a 3 millones de veces la cantidad total de libros escritos en la historia del hombre. Dadas estas cifras, ¿está preparada la Red para soportar tanto volumen de datos?
Más de 1.100 millones personas alrededor del planeta se conectan diariamente a internet. En 2006 la cantidad de direcciones de correo electrónico activas en todo el mundo superó las 1.600 millones de cuentas. My Space, un sitio de intercambio para comunidades de amigos tiene 197 millones de usuarios y, por día, incorpora 250.000 nuevos.
Asimismo, el número de blogs se multiplica por dos cada seis meses, y en la actualidad hay más de 60 millones. El portal de videos YouTube suma 65.000 filmaciones nuevas por día.
La explosión de paradigmas como la Web 2.0, que incentiva a los usuarios comunes para que aporten contenidos propios y, al mismo tiempo, enriquezcan el material publicado por otros emisores, derivó en que el año pasado, y de acuerdo a un estudio divulgado por la compañía EMC, el universo digital alcanzara un tamaño total de 161.000 millones de gigabytes.
Para ilustrar de un mejor modo esta cifra, el material volcado en internet equivale aproximadamente a 3 millones de veces la cantidad total de libros escritos en la historia de la humanidad o el equivalente a 12 pilas de libros, cada una extendiéndose a 93 millones de millas desde la Tierra al Sol.
Dado este volumen de datos, y el hecho de que, según analistas del sector, de 1997 a esta parte la cantidad de información que circula por la web crece a un ritmo del 70% anual, la pregunta surge inevitable: ¿puede colapsar internet? ¿Está preparada la red para soportar tamaño bombardeo de datos?
Las dudas son amplias: el estudio divulgado por EMC –confeccionado por la consultora IDC– proyecta un crecimiento de hasta seis veces en la cantidad de información creada y copiada desde la actualidad hasta el 2010.
“Hoy el 95% de la información nace de manera digital y eso es un problema. Hoy los datos surgen de un procesador de texto, de dispositivos de video, sea por tecnología IP u otro mecanismo, pero lo cierto es que no es en versión analógica como antes”, explicó, a infobaeprofesional.com, Carlos Marconi, consultor de EMC.
Según el ejecutivo, otro punto a tomar en cuenta es la fuerte réplica que hoy tiene la información a raíz de la mencionada Web 2.0. En otras palabras, actualmente es común que cualquier usuario tome un video o un archivo de audio de cualquier portal y traslade el mismo contenido a una bitácora personal, una red social, u otro tipo de página virtual.
Esta posibilidad de replicar incrementa la cantidad de información que circula por internet y, además, exige mayor capacidad de almacenamiento. “Hoy todo es de un usuario a otro, y sobre un dato surgen muchos más contenidos. Todo eso consume mucho ancho de banda”, señaló Marconi.
A eso debe adicionarse que, en comparación con la década anterior, por estos días la complejidad de los contenidos en circulación consumen muchos recursos de la red. Así, los videos que normalmente se cuelgan en YouTube o las fotografías que cualquier internauta remite por email ostentan dimensiones y pesos que exigen un amplio margen de ancho de banda al ser transferidos.
Panorama
Para dar una idea de la cantidad de material fílmico y fotográfico que se genera y vuelca a la red en estos tiempos, vale decir que en 2006 y a escala mundial, las imágenes capturadas por cámaras digitales excedieron los 150 mil millones de registros.
Al mismo tiempo, las imágenes obtenidas mediante teléfonos celulares alcanzaron la cantidad de 100 mil millones de archivos. IDC pronostica que los registros visuales por medio de estas tecnologías alcanzarán globalmente la cifra de 500 mil millones de imágenes para el año 2010.
El panorama abruma por las cifras, y de ahí que resulte complejo imaginar una estructura capaz de soportar, por ejemplo, 1.600 millones de direcciones de correo electrónico. Y que esa cuentas de email hayan remitido una tasa tres veces mayor a las personas que utilizan el sistema de correspondencia vía web.
Los interrogantes surgen solos si a este material con peso específico se le adiciona, también, el volumen de mensajes que pueden remitirse mediante dispositivos como celulares. Empresas de la talla de Vodafone estiman que para 2010 el 80% del tráfico de datos se realizará por redes móviles.
A este pronóstico hay que agregarle que la misma operadora calcula que para ese año el 54% de los usuarios de móviles entrarán con este dispositivo a internet.
“Esta masa de información cada vez mayor está poniendo una tensión considerable sobre las infraestructuras de IT que tenemos hoy en día. Este crecimiento explosivo cambiará la manera en que las organizaciones y profesionales de IT hacen su trabajo y la manera en que los consumidores utilizan la información”, declaró Mark Lewis, Vicepresidente ejecutivo y Jefe de Desarrollo de EMC.
“Dado que el 85% de la información creada y copiada será responsabilidad de las organizaciones, debemos tomar medidas como industria para asegurarnos de desarrollar infraestructuras de información flexibles, confiables y seguras para manejar la avalancha”, completó.
Respuestas
En búsqueda de sumar respuestas al interrogante sobre un probable “Big Bang” de internet, infobaeprofesional.com dialogó con Juan Pablo Núñez, arquitecto de Soluciones para Latinoamérica de Hitachi Data Systems, compañía que desarrolla soluciones para almacenamiento y administración de datos, quien explicó que la probabilidad de un colapso de la red “viene anticipándose desde 1996 aproximadamente”.
“Bob Metcalfe (considerado un gurú en aspectos vinculados a internet) fue el primero en señalar la probable catástrofe de internet por exceso en el tráfico de datos”, comentó. Según el ejecutivo, también en 2001 se dio por sentada la extinción de la red de redes. Pero lo cierto es que nada de eso ocurrió.
Nuñez reconoció como preocupación para el sector informático la necesidad de desarrollar –de manera constante– nuevas soluciones de almacenamiento que permitan guardar un flujo de datos en constante expansión.
“Uno de los desafíos es guardar y mantener una información de tipo inalterable. Además, otra de las exigencias pasa por permitir un acceso instantáneo a esos contenidos”, explicó. Y agregó que para resolver parte de estos dilemas, las empresas suelen implementar sistemas de almacenamiento que permiten ordenar los datos acumulados según un orden de importancia.
Consultado sobre cuál es el sistema de resguardo de información implementado por gigantes del correo electrónico como Yahoo! y Gmail, que en sus cuentas de email ofrecen capacidades prácticamente ilimitadas, Núñez hizo referencia a un recurso conocido como “Aprovisionamiento dinámico”.
¿En qué consiste el concepto? “Básicamente, el usuario no dispone fielmente de los, por ejemplo, 2 GB que dice la cuenta para un uso completo. En realidad, el cliente sólo usa algunos megas de su cuenta para enviar o almacenar información. Lo que hace el proveedor es, mediante un software, agregar capacidad según lo requiera el usuario”, detalló el ejecutivo.
Desde EMC Marconi coincidió con este argumento y agregó: “Si todos quisieran usar la capacidad que dice el correo en un mismo momento, el sistema colapsaría. Nadie tiene realmente ese espacio, sino que éste crece de acuerdo a la necesidad”.
¿Final o no?
Tanto Núñez como Marconi esbozaron posturas parecidas en cuanto al futuro de la red y el incremento constante de datos volcados a dicha tecnología. Y explicitaron sus puntos de vistas sobre el preanunciado final de la internet que conocemos.
Precisamente, y al ser consultado respecto de los pronósticos más apocalípticos, Núñez no dudó en destacar la evolución permanente de la tecnología y la continua creación de soluciones técnicas que, según su posición, ayudan a prevenir el colapso de la web.
“El crecimiento constante de las capacidades de almacenamiento de datos, hasta el momento, nos ha puesto lejos del final”, razonó. Para luego ampliar: “Cada dos años se duplica el tamaño de los discos que se utilizan para guardar la información; todo el tiempo se expanden los parámetros de almacenamiento. Si todo sigue como hasta ahora, no hay límite a la vista”.
En un tono similar, Marconi dio por sentado “que la tecnología dará respuestas a cada obstáculo que se presente”. Y anticipó un futuro “de grandes plantas de procesamiento de la información, con redes que nos permitirán tener cualquier dato de un modo más cercano”.
Como bien pudo apreciarse hasta esta instancia, la estructura de la red de redes parece estar lejos del crujido que algunos vienen anunciando casi desde el nacimiento de internet. Pero el surgimiento de usuarios móviles, las nuevas formas de interacción con la red, y el constante desarrollo de contenidos cada vez más complejos por parte de las empresas abre un interrogante sobre lo que puede llegar a ocurrir con el ciberespacio en la década siguiente.
Patricio Eleisegui
peleisegui@infobae.com
© Infobaeprofesional.com
1 comentario:
lo que hara colapsar la red es la cantidad de idioteces que se escriben a diario en los blogs...que no es tu caso :)
Publicar un comentario