Internet ha multiplicado de manera increible tanto su velocidad como su ancho de banda a lo largo de su corta vida. El aumento exponencial del número de usuarios y la gran demanda de ambas que requieren desde las nuevas páginas web, los portales de 'streaming' de vídeo o los videojuegos en línea han permitido un despliegue de tecnología de telecomunicaciones como nunca había visto la historia.
Ahora, un laboratorio del MIT ha propuesto unos cambios que podrían permitir un Internet 100 veces más rápido.
La Red de redes es un organismo extremadamente complejo. A pesar de su gran descentralización, lo cierto es que entre nuestro ordenador personal y el resto de nodos de Internet hay un camino mucho más largo y jerarquizado de lo que imaginamos.
Simplificando, Internet se subdivide en pequeñas internets conocidas como Sistemas Autónomos (AS) interconectados unos con otros. Normalmente cada ISP (proveedor de Internet) cuenta con uno o varios. Cuando te conectas a Internet, lo haces realmente a tu AS, que se encarga de anunciar al resto de la Red que tú estás ahí, y a dirigir de la manera más eficaz posible tus conexiones.
Estos AS se interconectan entre sí a través de enormes cables de fibra óptica y routers BGP. Entre estas máquinas y cables existe Internet tal y como lo conocemos, con sus videoconferencias a tiempo real, su 'streaming' de vídeo y poder leer o escribir blogs sin importarnos en qué parte del mundo se guardan esos datos.
Proponen, por lo tanto, con un método al que llaman 'flow switching', establecer canales dedicados entre nodos que se envían grandes volúmenes de información de tal manera que sólo puedan recibir de un único nodo y enviar a otro. Al no tener varias fuentes de entrada no puede haber una saturación del canal y, por lo tanto, no haría falta convertir a señal eléctrica, ni almacenar. El ahorro en tiempo y en gasto energético sería considerable.
Además esto podría hacerse sólo para unas determinadas longitudes de onda, dotando de cierta flexibilidad a un sistema que, según sus propios modelos informáticos, los creadores estiman que podría llegar a multiplicar por 100 la velocidad de la Red. No es probable que lo veamos en el corto plazo porque implantarlo supondría una inversión multimillonaria y cambiar gran parte de las infraestructuras de esa gran Internet que ocurre entre Sistemas Autónomos.
¿Significaría esto aumentar 100 veces la velocidad de nuestras conexiones desde casa o el trabajo? En principio no, porque el cambio no ocurriría a ese nivel, aunque sí dotaría a la Red de la capacidad necesaria para que así fuera. Realmente, desde nuestras conexiones ADSL no habría mucha diferencia. Como máximo, al haber menos congestión en la Red, sí notaríamos que nuestra vida digital transcurre más fluida.
Ahora, un laboratorio del MIT ha propuesto unos cambios que podrían permitir un Internet 100 veces más rápido.
La Red de redes es un organismo extremadamente complejo. A pesar de su gran descentralización, lo cierto es que entre nuestro ordenador personal y el resto de nodos de Internet hay un camino mucho más largo y jerarquizado de lo que imaginamos.
Simplificando, Internet se subdivide en pequeñas internets conocidas como Sistemas Autónomos (AS) interconectados unos con otros. Normalmente cada ISP (proveedor de Internet) cuenta con uno o varios. Cuando te conectas a Internet, lo haces realmente a tu AS, que se encarga de anunciar al resto de la Red que tú estás ahí, y a dirigir de la manera más eficaz posible tus conexiones.
Estos AS se interconectan entre sí a través de enormes cables de fibra óptica y routers BGP. Entre estas máquinas y cables existe Internet tal y como lo conocemos, con sus videoconferencias a tiempo real, su 'streaming' de vídeo y poder leer o escribir blogs sin importarnos en qué parte del mundo se guardan esos datos.
El cambio propuesto por el MIT
Las ingentes cantidades de datos que pasan a través de los routers BGP llegan en forma de señal óptica, se convierten a señal eléctrica para poder almacenarse temporalmente, se vuelven a convertir en señal óptica y se envían al próximo nodo, hacia su destino. El almacenamiento temporal sirve para no interrumpir el servicio en caso de que se sature el canal. Según estos investigadores del MIT en el proceso de conversión a señal eléctrica y posterior almacenamiento temporal se pierden tanto tiempo como energía, y, por lo tanto, eficiencia.Proponen, por lo tanto, con un método al que llaman 'flow switching', establecer canales dedicados entre nodos que se envían grandes volúmenes de información de tal manera que sólo puedan recibir de un único nodo y enviar a otro. Al no tener varias fuentes de entrada no puede haber una saturación del canal y, por lo tanto, no haría falta convertir a señal eléctrica, ni almacenar. El ahorro en tiempo y en gasto energético sería considerable.
Además esto podría hacerse sólo para unas determinadas longitudes de onda, dotando de cierta flexibilidad a un sistema que, según sus propios modelos informáticos, los creadores estiman que podría llegar a multiplicar por 100 la velocidad de la Red. No es probable que lo veamos en el corto plazo porque implantarlo supondría una inversión multimillonaria y cambiar gran parte de las infraestructuras de esa gran Internet que ocurre entre Sistemas Autónomos.
¿Significaría esto aumentar 100 veces la velocidad de nuestras conexiones desde casa o el trabajo? En principio no, porque el cambio no ocurriría a ese nivel, aunque sí dotaría a la Red de la capacidad necesaria para que así fuera. Realmente, desde nuestras conexiones ADSL no habría mucha diferencia. Como máximo, al haber menos congestión en la Red, sí notaríamos que nuestra vida digital transcurre más fluida.
No hay comentarios:
Publicar un comentario