Buscar

Mostrando entradas con la etiqueta velocidad. Mostrar todas las entradas
Mostrando entradas con la etiqueta velocidad. Mostrar todas las entradas

2010/04/20

Thomson Reuters lanza una red propia mundial de alta velocidad

Fuente: El Mundo.

El grupo de medios e información Thomson Reuters lanzó una red mundial de alta velocidad para que firmas financieras accedan a datos en tiempo real, y para que compartan información entre ellos directamente.
La nueva red de la empresa, llamada Elektron, incluye centros de datos en Nueva York, Chicago, Londres, Fráncfort, Tokio y Singapur, y a finales de este año se abrirán otros en Hong Kong, la India y Brasil. Todos estarán conectados por un anillo de fibra óptica.
Thomson Reuters está operando el sistema en sociedad con la empresa de centros de datos Savvis.
A medida que los ordenadores son quienes cada vez más deciden las transacciones, la dificultad ha sido ejecutar las ideas a la alta velocidad que requiere operar en múltiples mercados, dijo Jon Robson, presidente del brazo Enterprise de Thomson Reuters. "Esto proporciona la infraestructura, la tecnología y las conexiones para diferentes mercados para que las operaciones puedan hacerse rápidamente", dijo.
Elektron entregará a cualquier cliente de Thomson Reuters, de cualquier tamaño, igual acceso a los mercados de alta frecuencia, dijo Robson.
La red también cumplirá las funciones de plataforma de distribución neutral para que los participantes intercambien investigaciones, precios, ideas de negocios o transacciones, dijo.
Thomson Reuters planea, con el tiempo, trasladar todos sus contenidos a Elektron, así como usar su mayor ancho de banda para añadir niveles de información de mercado de mayor profundidad, dijo Robson.
En un mercado en el que la competencia está enfocada en la información a alta velocidad y baja latencia, este es un movimiento lógico para Thomson Reuters, dijo Sang Lee, socio gerente especializado en estructura de mercado de la consultoría Aite Group.
La red tiene el potencial de crear una sensación de comunidad en el largo plazo, con clientes que intercambian ideas para operar y oportunidades de negocios, dijo Lee. "Todo se trata de construir confianza. Este es un concepto interesante" añadió.

2010/04/13

Google dará prioridad en los resultados a las páginas que se carguen más rápido

Fuente: La Vanguardia.

Google tendrá en cuenta a partir de ahora en el momento de clasificar los resultados de una búsqueda no sólo la relevancia de las páginas web, como hasta ahora, sino también la rapidez con la que se carga la página.
"Habréis oído que en Google estamos obsesionados con la velocidad, en nuestros productos y en la web. Como parte de este empeño, hemos incluido una nueva variable en nuestros algoritmos de búsqueda: la velocidad del sitio", aseguran Matt Cutts y Amit Singhal en un post colgado en el blog oficial de Google.

En este sentido, Google afirma que la medida está justificada porque, de acuerdo a sus propios estudios, cuando una página web es lenta, los visitantes están menos tiempo en ella. Además, señala que una página que se carga rápido también reduce los costes.

Sin embargo, matiza que la nueva variable no va a tener tanto peso como el número de citas o las palabras claves a la hora de colocar una página en una posición más alta o más baja tras realizar un búsqueda. De hecho, asegura que menos del 1 por ciento de las búsquedas se verán afectadas por esta nueva variable.

Por último, Google ha puesto a disposición de los diseñadores de páginas web una serie de herramientas para que comprueben la velocidad a la que se carga su página web y les anima a mejorarla, no sólo para mejorar su posición en los resultados de la búsqueda sino también para "mejorar la experiencia de todo el mundo en Internet".

2008/06/04

¿Para qué sirven 100 megas?

Fuente: El Pais.

La calidad del acceso a Internet es un parámetro geográfico. En España se considera banda ancha las conexiones a la Red con velocidades a partir de 1 megabit por segundo (Mbps). Pleno pleistoceno para los abonados de la Hong Kong Broadband Network, que disfrutan desde hace tres años de una oferta de conexión de un giga por poco más de 100 euros.

En cualquier caso, la creciente demanda de servicios a través de la Red ha propiciado que las compañías telefónicas se preparen para la carrera del Internet ultrarrápido. En cabeza están países como Japón, Singapur, Corea, Francia, Suecia, Finlandia, Italia, Dinamarca y Holanda, todos ellos con ofertas comerciales de 100 Mbps. España está en el pelotón de cola, ya que el 94% de los 8,5 millones de internautas navega con velocidades menores a 10 Mbps.

La causa de este retraso es que la mayor parte de los accesos usan la línea convencional del par de hilos de cobre, que heredó Telefónica y que adaptó para la conexión a Internet gracias a la tecnología ADSL (línea de abonado digital asimétrica). Pero el ADSL y su evolución, el VDSL2, permiten, como mucho, velocidades de 50 megas. Para conexiones mejores es necesaria fibra óptica o FTTH (fibra hasta el hogar), comúnmente conocido como cable.

Pero, ¿para qué sirven 100 megas? Desde luego, si usted sólo usa el correo electrónico, consulta las webs de los periódicos o el saldo de su cuenta corriente, un mega es más que suficiente. Si es habitual de los servicios de la llamada web 2.0 (MySpace, Facebook, Flickr, etcétera), será conveniente subir al menos a tres megas, al igual que para consultar webs con alto contenido multimedia.

Las descargas de vídeos y la televisión por Internet (IPTV) con un mínimo de calidad precisan de seis megas, aunque para las videoconferencias sin sensación de cámara lenta ni retardos se aconsejan 10 Mbps, una velocidad óptima también para comenzar a subir fotos y vídeos a la Red. La televisión de alta definición precisa de 25 megas.

Con 100 megas se puede hacer todo lo anterior en mucho menos tiempo. Por ejemplo, los aficionados al porno tardarán menos de un segundo en visualizar todas las fotos de una página. Si se quiere descargar un vídeo de YouTube, nos ahorramos hasta medio minuto de tortura mientras se carga. En menos de un segundo estaremos viendo las imágenes.

En cuanto al intercambio de archivos mediante los programas p2p (eMule, bitTorrent, Ares, etcétera), que significan el 75% del tráfico actual por la Red, teóricamente se puede descargar una película con un peso de entre 700 megabytes y un giga en menos de dos minutos y una canción mp3 en un segundo. Ahora bien, en la práctica, las descargas no sólo dependen del acceso sino de otros factores, como el número de fuente o la disponibilidad de las partes en que se divide el archivo.

Con 100 megas se puede, además, ver varios canales de televisión a la vez, videoconferencia con sensación de 3D y HD con calidad máxima.

Hasta ahora, la máxima velocidad comercial para clientes residenciales en España son los 25 megas que da Ono. Jazztel, Ya.com, Orange y Tele2 tienen ofertas de hasta 20 megas, y Telefónica dispone de una de 10 megas. Adamo ofrece 100 megas en algunos pueblos asturianos por 29 euros al mes, gracias a un proyecto de la UE. Pero que nadie espere esos precios en su ciudad. Los 100 megas rondarán los 100 euros.

Ono quiere romper la dinámica y ha iniciado una prueba piloto en Valladolid de conexión a 100 Mbps que ofrecerá comercialmente en el último trimestre del año a sus abonados de Madrid, Valencia y Barcelona. En cuanto a Telefónica, los 30 megas están en piloto y de los 100 ni hablar hasta 2009. Los 3,7 millones de abonados que navegan a tres Mbps deberán conformarse con ver duplicada su velocidad gratis este verano. El retraso en los hogares se compensa en los laboratorios. La Universidad Politécnica de Valencia logró un récord mundial al alcanzar 1.000 gigabits por segundo por kilómetro de fibra. Marca que será superada cuando nazca The Grid, la red en la que trabajan los científicos del CERN, que multiplicará por 10.000 las actuales velocidades.

2008/01/15

Apple lanza la Mac más rápida de la historia

Fuente: El Nacional.

Apple hace el lanzamiento de la nueva Mac Pro con ocho núcleos de procesador y una nueva arquitectura de sistema que ofrece hasta el doble de rendimiento que su antecesor.

Según una nota de prensa, la nueva Mac Pro combina dos de los nuevos procesadores Intel Quad-Core Xeon de 45 nanómetros operando a una velocidad de hasta 3.2 GHz, con nuevas tarjetas gráficas más potentes y hasta 4 Terabytes de almacenamiento interno, para ofrecer el sistema ideal para profesionales creativos, creadores de contenido digital 3D y científicos.

"La nueva Mac Pro es la Mac más rápida que hemos creado hasta ahora", dijo Philip Schiller, Vicepresidente Senior de Mercadeo de Producto Mundial de Apple. "Con potencia de procesamiento Xeon de 8 núcleos a 3.2 GHz, bus frontal a 1.600 MHz y memoria a 800 MHz, la nueva Mac Pro utiliza la arquitectura Intel Xeon más rápida del mercado".

La nueva Mac Pro incorpora los últimos procesadores Intel Xeon 5400 Quad-Core basados en la microarquitectura de vanguardia Intel Core de 45 nm a velocidades de hasta 3.2 GHz; cada uno de ellos con 12 MB de memoria caché L2 por procesador para proporcionar un rendimiento y eficiencia en consumo de energía revolucionarios. Con una nueva arquitectura hardware de gran ancho de banda, doble bus frontal independiente de 1,600 MHz cada uno y hasta 32 GB de memoria DDR2 ECC FB-DIMM a 800 MHz, la nueva Mac Pro ofrece una mejora del 61 por ciento en rendimiento de memoria.

Todas las nuevas Mac Pro vienen de fábrica de manera estándar con la tarjeta gráfica ATI Radeon HD 2600 XT con 256 MB de memoria de video. La Mac Pro incluye una nueva ranura PCI Express 2.0 para gráficos que proporciona hasta el doble de ancho de banda con respecto a la generación anterior y soporta la última generación de tarjetas gráficas de NVIDIA, como la NVIDIA GeForce 8800 GT con 512 MB de memoria de video, o la NVIDIA Quadro FX 5600 con 1.5 GB de memoria de video y un puerto 3-D estéreo para aplicaciones de tipo "stereo-in-a-window". Capaz de trabajar con hasta cuatro tarjetas gráficas, la nueva Mac Pro puede controlar hasta ocho monitores de 30 pulgadas simultáneamente para responder a las más exigentes necesidades de visualización y operar grandes paneles de visualización.

La Mac Pro es la Mac más escalable fabricada hasta ahora por Apple, con cuatro bahías para discos duros internos de conexión directa, sin cables, que permiten instalar cuatro discos duros Serial ATA de 1 TB, totalizando 4 TB de almacenamiento interno; además de soporte para dos unidades ópticas SuperDrive. Con la ayuda de unidades de disco SAS -opcionales- de 15,000 rpm que pueden ofrecer hasta 250 MB/s de rendimiento de disco E/S en modo RAID 5, el Mac Pro es ideal para editores de cine y video. Combinada con unidades SATA o SAS, el uso de tarjeta Mac Pro RAID ofrece lo más avanzado en protección de datos y rendimiento de E/S en disco disponible sobre Mac Pro.

La Mac Pro se caracteriza por un práctico y accesible diseño tanto del panel frontal como posterior, de modo que los usuarios pueden conectar cómodamente dispositivos externos a sus cinco conectores USB 2.0, dos FireWire 400, dos FireWire 800, entrada y salida de audio de tipo óptico y analógico, doble puerto Gigabit Ethernet y jack para auriculares.

Las nuevas Mac Pro incluyen Leopard, la sexta gran versión del sistema operativo más avanzado del mundo. Leopard incluye más de 300 nuevas capacidades y estrena un nuevo escritorio con Stacks que brindan una nueva forma de acceder fácilmente a los ficheros en el Dock; un Finder rediseñado que permite a los usuarios explorar rápidamente y compartir archivos entre múltiples Macs; Quick Look, una nueva forma de ver al instante el contenido de los archivos sin necesidad de abrir ninguna aplicación; Spaces, una nueva e intuitiva forma de crear grupos de aplicaciones y conmutar entre ellos instantáneamente, y Time Machine, la manera más sencilla de realizar de manera automática copia de seguridad de todo lo que hay en el Mac. Caracterizado también por la incorporación de otras tecnologías multi-núcleo, Leopard es el complemento perfecto del Mac Pro, haciendo que las aplicaciones sean más rápidas y ayudando a los desarrolladores de aplicaciones a aprovechar los sistemas multi-núcleo.

El nuevo y ultradelgado teclado de aluminio Apple Keyboard viene ahora incluido con todas las Mac Pro; y la conectividad Bluetooth 2.0 incorporada permite minimizar el número de cables usando el teclado inalámbrico Apple Wireless Keyboard y el ratón inalámbrico Apple Wireless Mouse, ambos opcionales.

Precio y disponibilidad

La nueva Mac Pro estará disponible a través de los distribuidores autorizados de Apple a partir de febrero. La Mac Pro 8-core en configuración estándar, con un precio recomendado de $2.799 dólares**, incluye:
• Dos procesadores Intel Xeon Quad-Core a 2.8 GHz, con dos buses frontales independientes a 1,600 MHz.
• 2 GB de memoria DDR2 ECC fully-buffered a 800 MHz, ampliable hasta 32 GB.
• Tarjeta gráfica ATI Radeon HD 2600 XT con 256 MB de memoria GDDR3.
• Disco duro de 320 GB, de tipo Serial ATA 3 Gb/s, a 7,200 rpm.
• SuperDrive 16x con soporte de doble capa (DVD±R DL/DVD±RW/CD-RW).
• Dos slots PCI Express 2.0 y dos slots PCI Express.
• Bluetooth 2.0+EDR, y
• Teclado Apple Keyboard y ratón Apple Mighty Mouse.

2008/01/04

Las tecnológicas desarrollan fórmulas para combatir la ralentización en 2008

Fuente: CincoDias.com.

El pasado mes de noviembre, Gartner advirtió a los responsables de tecnología de las empresas que preparasen dos presupuestos: uno que reflejase la tendencia de crecimiento de los últimos años y otro preparado para hacer frente a un necesario recorte de costes con el que afrontar una ralentización de la economía. Desde entonces, las advertencias sobre una posible crisis para el sector han ido en aumento.

Así, IDC situó el crecimiento del gasto mundial en tecnologías de la información (TI) en un rango entre el 5,5% y el 6% frente al 6,9%alcanzado en 2007. La consultora culpa a EE UU donde dicha magnitud pasará del 6,6% el pasado año a un entorno de entre el 3%y el 4%. También Forrester apuntó que la inversión en TI pasará de crecer un 5,3% en 2007 a subir sólo un 4,8% en 2008, si bien estos expertos habían previsto anteriormente un aumento de esta magnitud del 8% en este ejercicio. Forrester ha apuntado que las áreas más afectadas serán los equipos informáticos y de telecomunicaciones así como los servicios de TI. También Morgan Stanley aseguró que es probable una menor tasa de expansión del sector en 2008 que en 2007. Sin duda, parece haber consenso.

En este marco, las empresas están buscando estrategias y negocios para combatir este posible cambio de ciclo. Por ejemplo, según IDC, IBMyMicrosoft lanzarán más aplicaciones online, Cisco buscará reforzarse en la videoconferencia, mientras que Google intentará crecer en el segmento de la publicidad en la pyme. Gartner apuesta porque el gigante de internet entre en el mundo de los CRM (software de gestión de clientes). Eso sí, Google también deberá encarar la llegada de competidores en sus negocios clásicos. El próximo será Wikia, elmotor de búsqueda en internet creado por Jim Wales, fundador deWikipedia, que verá la luz la próxima semana.

El sector también está pendiente de la llegada de nuevos dispositivos de acceso a internet creados por firmas como Asus, Apple oMicrosoft, así como del desarrollo de tecnologías inalámbricas como Wimax, por la que suspiran firmas como Alcatel Lucent o Motorola. Donde también hay coincidencia entre muchos expertos es en el desarrollo de las tecnologías verdes y en la aparición durante 2008 de más equipos y aplicaciones de menor consumo de energía. De igual forma, las compañías van a tratar de fortalecer su posición en losmercados emergentes. Sin ir más lejos, el gasto en TI en los países BRIC (Brasil, Rusia, India y China) podría aumentar un 16% en 2008 hasta superar los 78.200 millones de euros.

Las redes sociales crean una avalancha de información digital

En sus previsiones para 2008, Frank Gens, analista de IDC, asegura que la expansión de las redes sociales provocará una auténtica avalancha de datos en la red. Este experto sitúa la información digital al término de 2008 en 400.000 millones de gigabytes (o 400 exabytes), un 56% más que en 2007. En 2010 se alcanzarán los 1.000 exabytes o un zettabyte.

En 2008 crecerá lo que“hemos bautizado como Eureka 2.0” en el ámbito del software y los servicios, que combina el análisis de textos, la extracción de sentimientos y las tecnologías relativas (incluidas las búsquedas semánticas), dice Gens que apuesta por la explosión de las soluciones online orientadas a empresas como el software como servicio (SaaS). IDC también cree que firmas como Google, Yahoo, Ebay o Apple orientarán sus ofertas a las pymes.

En el ámbito de las telecos, IDC cree que en países como EE UU, las operadoras lanzarán más servicios de voz por internet (VoIP), en un intento de frenar la pérdida de clientes en telefonía fija ante las empresas de cable.

Entre de las posibles adquisiciones, Gens cita como candidatas a ser compradas a las brasileñas TOTVS y Datasul, la rusa Kaspersky, las chinas Kingdee y Ufida, o las indias Tally y Ramco. También apuesta por un proceso de consolidación de fabricantes de equipos de localización GPS tras la integración de Tele Atlas y TomTom o la compra de Navteq por Nokia.

Google influirá en todos los proveedores de TI

En un reciente informe, Gartner señala que Google tendrá gran influencia en el resto de proveedores de tecnologías de la información (TI).

Tom Austin, analista de la consultora, dice que Google ha forzado a Microsoft a rediseñar sus estrategias además de obligar a los departamentos de TI de las empresas a replantearse como quieren trabajar con los proveedores de servicios. Gartner indica que Google está obligando a sus rivales a pasar de un modelo basado en el PC a otro donde el servicio tiene que llegar donde el consumidor está situado.

En otros campos como los servidores, la firma cree que Linux seguirá su avance mientras que Unix proseguirá su caída. Gartner prevé que el mercado de virtualización crecerá un 100% hasta 2010, año en el que las empresas chinas estarán entre los 10 primeros vendedores mundiales de servidores. Y recuerda que Huawei y ZTE van a entrar en este mundo.

Windows Vista debería consolidar su presencia

El inicio de la consolidación de Windows Vista en el mundo empresarial es una de las apuestas de Forrester para 2008. En un reciente informe, Benjamin Gray, analista de esta consultora, indica que, a mediados de este ejercicio, un tercio de las grandes corporaciones habrá iniciado la implantación de este sistema operativo, que se verá apoyado también por la certificación de nuevas aplicaciones y con la llegada al mercado de hardware en el que Vista estará preinstalado.

En términos generales, Forrester indica que las ventas de equipos de tecnologías de la información aumentarán en Asia cerca de un 15% durante el ejercicio en curso, muy por encima del rango de entre el 5% y el 7% donde dicha magnitud se moverá en zonas como EE UU, Canadá, Latinoamérica y Europa.

2007/10/03

Internet será diez veces más veloz

Fuente: Publico.es.

Varios operadores están ensayando dos tecnologías que multiplicarán entre cinco y diez veces la velocidad actual de conexión a Internet. Los nuevos sistemas permitirán ofrecer servicios como televisión de alta definición o videoconferencia, y algunos de estos productos estarán disponibles antes de que acabe el año.

Pero las redes de nueva generación no llegarán de forma masiva hasta que la entidad reguladora, la Comisión del Mercado de las Telecomunicaciones (CMT), aclare el panorama legal.

Telefónica es la compañía que más pruebas está realizando. Unos 500 hogares de la Comunidad de Madrid están probando el VDSL2, una tecnología que es capaz de ofrecer velocidades cercanas a los 50 megabits por segundo (Mbps). El actual ADSL, o su versión mejorada, el ADSL2+, rinde a 16 Mbps en el mejor de los casos.

Desde Telefónica aseguran que los primeros resultados son buenos. De hecho, han solicitado a la Comisión del Mercado de las Telecomunicaciones (CMT) la autorización para extender los ensayos a Barcelona; en concreto, a varias centrales de Sant Cugat del Vallés, que se unirán a los que ya se hacen en ciudades como Alcorcón, Getafe, Móstoles y Tres Cantos, todas en Madrid, junto a la propia capital.

El VDSL2 tiene un defecto frente al ADSL: sólo va bien en las distancias cortas. La velocidad teórica del VDSL2 puede llegar a los 100 Mbps. Pero eso sólo ocurre en los laboratorios, con los mejores equipos y cableado.

En escenarios reales, para poder ofrecer velocidades superiores a los 30 Mbps, la distancia de la línea entre abonado y central debe ser inferior a los 300 metros. A partir de aquí, a mayor distancia, menor velocidad.

Lo que está haciendo Telefónica con estos ensayos es colocar nodos, una especie de minicentrales entre la central telefónica y el usuario, para reducir la longitud de la línea. De los 50 repetidores (armarios de 2x2 metros), unos se han colocado dentro del mismo edificio y otros, en un radio de 600 metros. El enlace entre ambos extremos sigue siendo el cable de cobre del teléfono, que sirve de soporte físico a la tecnología VDSL2. Por su parte, la conexión entre el nodo y la central, y de ahí a Internet, es mediante fibra óptica.

Jazztel también está realizando pruebas de laboratorio con el VDSL2. Su apuesta, a la espera de lo que decida la CMT, será ofrecer conexiones mediante esta tecnología pero sin necesidad de instalar nodos. Los datos irán desde la central hasta el hogar con VDSL2. El problema aquí es que sólo los que vivan a menos de 600 metros de una central notará la mejora en la velocidad.

GPON y fibra óptica

La otra tecnología que está probando algunas operadoras es el GPON. Telefónica lo está haciendo en varias centrales de Madrid. En este caso, los datos viajan por fibra óptica y no sobre el cable de cobre telefónico, como hace el ADSL.

La fibra es aún más rápida. Puede alcanzar los 100 Mbs simétricos, es decir, la misma velocidad tanto en sentido ascendente como descendente. Otra de sus ventajas es que no se ve afectada por la distancia entre la central y el hogar del usuario.

El punto débil de la fibra es el precio. Llevarla hasta el hogar puede superar los 1.000 euros por usuario, frente a los 300 que supone darle una conexión ADSL nueva. De ahí que tanto Telefónica como la competencia insistan en la necesidad de una nueva legislación, que de estabilidad a las nuevas inversiones.

Esa es la posición de Jazztel, Orange, Yacom y Ono pero también de Telefónica.La operadora de cable Ono, que ya ofrece 25 Mbs con su red actual, lleva tres meses realizando una serie de pruebas con GPON. Unos 2.000 vecinos de Alcalá de Henares, en Madrid, han visto sustituida su conexión de cable por la fibra óptica.

Orange, por su parte, asegura estar preparada para instalar el FTTH pero no ha querido revelar si está realizando alguna prueba.

2007/08/27

Navegar a bajas velocidades de conexión

Fuente: Consumer.es.

Hay una serie de trucos útiles para poder navegar y trabajar online cuando se tiene una conexión limitada o de mala calidad

El verano es una época propicia a los desplazamientos, ya que los usuarios pasan temporadas más o menos largas fuera de sus lugares de residencia y lejos de sus puntos de conexión a la Red. La expansión de los portátiles a precios asequibles y los diversos accesos inalámbricos, sobre todo con los módem HSDPA, permiten al internauta mantenerse conectado a Internet en casi cualquier lugar. Ahora bien, la velocidad de conexión nunca alcanza el óptimo de un ADSL doméstico, y cuando se excede un determinado volumen de tráfico de datos (que cada compañía fija según contrato) el flujo de la conexión decae abruptamente a valores que hacen difícil que el navegador cargue páginas de periódicos (repletas de imágenes) o de sitios como Flickr o Youtube, con lo que la Red pierde una parte importante de su funcionalidad.

Los consejos y trucos que a continuación se dan, son útiles tanto para no superar en pocos días el límite de tráfico pactado con la compañía que provee el servicio HSDPA, como para optimizar la navegación cuando se esté a tasas sumamente bajas de velocidad de conexión, por los motivos que sea.

  • Desactivar en el navegador la carga directa de imágenes: Las imágenes son el elemento que más pesa de una página web. Por defecto, el navegador las carga y se las muestra al usuario, consumiendo gran volumen de datos (las imágenes digitales son mapas de bits) y enlenteciendo la carga y la navegación. Desactivar la carga de imágenes permite ver las portadas de los periódicos, por ejemplo, con mucha más soltura y rapidez de carga.

    La operación para desactivar la carga en el navegador es sumamente sencilla. En Internet Explorer hay que ir a la barra superior del navegador y hacer clic en 'Heramientas> Opciones de Internet> Avanzado'. Una vez allí, hay que desactivar los campos de 'Mostrar imágenes', ' Mostrar vídeos' ' Mostrar sonidos en páginas web' e incluso 'Mostrar imágenes animadas'.

    Si se utiliza el navegador Firefox, hay que hacer clic en 'Herramientas> Opciones> Contenido' y desactivar la muestra de imágenes. Adicionalmente, se puede instalar desde la página de Firefox la extensión Flashblock, que descativa los anuncios, vídeos y otros componentes en flash de la página.

  • No ver vídeos en flash: Además de desactivar la opción de mostrar vídeos en la página o instarse el Flashblock, también es interesante procurar no pinchar en los sitios que muestran los vídeos. Los vídeos en flash en realidad se descargan temporalmente al escritorio del usuario, con lo que suponen un volumen de carga apreciable que acabará pasando factura.

  • No escuchar canciones en streaming: Por otro lado, radios online como Lastfm.com son estupendas cuando se tiene una tarifa plana y un ancho de banda generoso, pero en las circunstancias aquí descritas no sólo se oyen con mala calidad y con interrupciones, sino que también pueden fundir los límites de tráfico del módem HSDPA en unas pocas horas de navegación. Es mejor no activar ningún streaming, ya que al igual que el flash, se produce un tráfico temporal de datos hacia el ordenador.

  • Desconectar los clientes de mensajería: Suele ser habitual que el usuario tenga instalados varios mensajeros instantáneos a la vez, principalmente MSN Messenger, Yahoo! Messenger y Google Talk, además de Skype. Estos programas mantienen una interacción con la Red, de modo que indican a los demás usuarios que se está conectado. Aunque el volumen de carga que generan así es poco, aumenta si se mantienen conversaciones, por lo que es mejor tenerlos apagados en caso de que la velocidad de conexión sea muy limitada; algo ayudará.

  • Desconectar los programas de compartición de archivos: Programas como Emule y BitTorrent consumen mucho ancho de banda si están activos. Aunque no se esté bajando ningún archivo, otros usuarios pueden estar descargando archivos del disco duro propio. Es fundamental asegurarse de que están desconectados e inactivos cuando se desea limitar el tráfico de datos.

    Otros programas como Pando o FolderShare, que permanecen encendidos en el arranque, también deben ser inactivados. Esto se hace desde el menú de la barra inferior derecha del escritorio.

  • Usar gestores de descarga, si es que hay que bajar algún programa: Un gestor de descargas es un programa diseñado para bajar archivos de Internet de manera que se optimice la velocidad de descarga y el consumo de ancho de banda. Los gestores permiten pausar y reanudar las descargas de archivos muy grandes, de modo que éstas se realicen cuando el usuario no esté navegando y no estorbe así su navegación.

    También permiten, entre otras funciones, buscar los servidores de la Red ('espejos') más próximos al usuario, de modo que la descarga sea más rápida y cómoda. Aunque actualmente, con la extensión del ADSL han perdido popularidad, pueden ser interesantes en casos de bajas velocidades de conexión. Algunos de los más populares son Free Download Manager y Quickdownloader, aunque hay muchos más.

  • Desconectar el gestor de actualizaciones del XP: A veces, cuando se está navegando con baja velocidad de conexión, ésta desciende todavía más hasta impedir la navegación. Esto se produce porque salta una actualización automática del sistema operativo, si es Windows XP, con lo que la descarga de la actualización consume todo el ancho de banda.

    Para evitar que esto ocurra, su puede desactivar temporalmente el actualizador de Windows desde 'Panel de control> Centro de Seguridad> Descativar actualizaciones automáticas'. Es importante acordarse de activarlo de nuevo cuando se establece una navegación normal.

  • Dejar para más tarde las actualizaciones del antivirus: En el caso de los antivirus, normalmente el programa pregunta al usuario antes de descargar una actualización. Es mejor dejarlas para una ocasión más propicia, tal como suelen proponer estos sistemas. Sobre todo, es muy importante no tratar de desactivar las actualizaciones manualmente en el antivirus si no se conoce muy bien el programa.

2007/08/16

Comenzó la construcción de la computadora más rápida del planeta

Fuente: urgente24.

IBM se encuentra desarrollando la computadora de uso público más rápida del planeta: con un costo de US$ 208 millones y una capacidad de mil trillones de cálculos por segundo, la Blue Water estará terminada en el 2011.

Parece que IBM busca desafiar los límites, siempre y como sea. Cómo ya siente que su ordenador Blue Gene/L ya no es lo suficientemente rápido, ha decidido crear un nuevo equipo, de nombre Blue Water, que superará el rendimiento de petaflop de la versión anterior.

La Universidad de Illinois será la afortunada que podrá albergar a la computadora más grande y rápida del mundo, la Blue Water. Esta supercomputadora será contruida por IBM en poco tiempo y su desarrollo costará unos US$ 208 millones.

Al parecer este monstruoso equipo tendrá un poder de procesamiento de un petaflop, algo así como mil trillones de operaciones por segundo, con lo cual desbancaría a su hermana menor, la Blue Gene/L que posee un tercio de capacidad de proceso.

En cuanto a su utilización, la Universidad ya tiene en vista sus posibles finalidades. Una es destinada a operaciones que realiza la agencia de proyectos e investigaciones avanzadas de Defensa. Aunque también se la utilizará para el modelado del clima, biofísica, bioquímica y proyectos de ingeniería informática.

Según los planes, el proyecto debería estar terminado para el año 2011, siempre y cuando se solucionen los problemas de espacio y el edificio para comenzar su construcción. La razón por la cual tardarán todo ese tiempo es que los técnicos y encargados del proyecto deberán encontrar la manera de abastecer a este gigante pues su alimentación requiere grandes dosis de electricidad. Ni hablar de los problemas de ubicación de este enorme equipo.

Al parecer, el Blue Water se utilizará en distintas operaciones que realiza la Agencia de Proyectos e Investigaciones avanzadas de Defensa aunque también hay noticias de que recurrirían a él para el modelado del clima, biofísica, bioquímica y proyectos de informática.

2007/06/19

¿Puede viajar la materia a la velocidad de la luz?

A no ser que alguien demuestre que los principios básicos del universo descubiertos por Einstein son falsos, lo cual es algo que difícilmente algún físico espera que suceda, la respuesta rápida es “no”.

Pero los astrofísicos han descubierto recientemente en dos distantes estrellas explosionadas, a ciertas masas de gas y polvo moviéndose al 99.9997% de la velocidad de la luz – es decir a solo 3.220 km/h de alcanzar el objetivo.

Cuando una estrella super-masiva explota, formando algo que se conoce como hipernova, esta dispara chorros de gas y polvo al espacio con una energía asombrosa, lo cual en efecto, eclipsa a la mayoría de los objetos ubicados en sus cercanías. En las últimas explosiones descubiertas, se descubrió que una masa de polvo y gas estelar equivalente a 200 Tierras, fue propulsada a una velocidad muy cercana al límite lumínico durante unos breves momentos.

Fuente: Maikelnai's blog.