- 1 ¡LEER ANTES DE EDITAR ESTA PÁGINA!
- 2 Ayúdanos a encontrarle un orden a esta página
- 3 Dónde encontrar programas
- 4 AbulEdu
- 5 Addpsx
- 6 Adept
- 7 Alumni-OnLine
- 8 Arithmos
- 9 Asigna
- 10 AstroWidget
- 11 Audacity
- 12 AxPoint
- 13 BKchem
- 14 Calc
- 15 CBT Combo
- 16 Celestia
- 17 CensorNet
- 18 Chart
- 19 ChildsPlay
- 20 Claroline
- 21 ClassWeb
- 22 Compjugador
- 23 Compo
- 24 DFBPoint
- 25 Dict www interface
- 26 Dov Grobgeld
- 27 drawboard
- 28 Dr Genius
- 29 Dr.Geo
- 30 Duck
- 31 EasyMaths
- 32 Edubuntu
- 33 Educanix
- 34 Education Center
- 35 Edventure
- 36 El Editor de Calificaciones
- 37 EFMC
- 38 El juego de memoria Linux
- 39 EText
- 40 Escritor Jean-Yves Chasle
- 41 Euler
- 42 eXtrans
- 43 Fábula
- 44 FAI
- 45 FlashCard
- 46 Fle3 - Learning Environment
- 47 Floatator
- 48 Gambas
- 49 GAP
- 50 Gcompris
- 51 GDIS
- 52 Ghemical
- 53 Gidic
- 54 GnomeRSVP
- 55 GNU bc
- 56 GNUplot
- 57 GOL
- 58 Gonvert
- 59 GPL Sociograma
- 60 GPeriodic
- 61 Gradebook
- 62 Gtypist
- 63 Gutenmber Index Listing Tool
- 64 Hanzi Quiz
- 65 Harvest
- 66 Hitchhiker 2000
- 67 HorizonLive
- 68 Idled
- 69 Iguana
- 70 ILIAS
- 71 Inkscape
- 72 Inspector de Palabras
- 73 Internet School System
- 74 InternetSchool
- 75 JAdvisor
- 76 jDictionary
- 77 JGloss
- 78 Jmol
- 79 Kalamaris
- 80 Kalzium
- 81 Kana Test
- 82 Kanjidrill
- 83 Kaspaliste
- 84 KBRUCH
- 85 Kdict
- 86 Keduca
- 87 Kenigma
- 88 Kgeo
- 89 Khangman
- 90 Klogo-Turtle
- 91 KMatPlot
- 92 KMessedWords
- 93 knowde
- 94 Koha
- 95 Kpercentage
- 96 Kronophobia
- 97 Kstars
- 98 Ktouch
- 99 KUnit
- 100 KVerbos
- 101 Kura
- 102 Lafontaine
- 103 Lavengro
- 104 Learn Words
- 105 Leibnitz
- 106 Lexter
- 107 Light Speed!
- 108 LingoTeach
- 109 Linguaphile
- 110 Logidee-tools
- 111 LON-Capa
- 112 Macaulay 2.
- 113 MajorTech
- 114 Manhattan Virtual Classroom
- 115 Marc2Opac
- 116 MathPlanner
- 117 MathPlanner
- 118 MathWar
- 119 Mecanica
- 120 Mifit
- 121 MimerDesk
- 122 Mklesson
- 123 mojoQuiz
- 124 Montessori Bells
- 125 Moodle
- 126 MstbIRC
- 127 NoteEdit
- 128 MSWLogo
- 129 OLA
- 130 Online Lunch Menu
- 131 OpenBiblio
- 132 OpenGrade
- 133 OpenRatings
- 134 OSDLS
- 135 Papyrus
- 136 Per Quantum Entanglement
- 137 phpCBS
- 138 PHPGESCEN
- 139 phpTest
- 140 PHP Track Meet Registration
- 141 PhpAlum
- 142 Planets
- 143 PresTiMeL
- 144 Proyecto Leviathan
- 145 Proyecto R
- 146 Proyecto Simulación de Marte
- 147 Proyecto VP7 Way Cool
- 148 qastrocam
- 149 QuikDic
- 150 RainWords
- 151 Rapla
- 152 RasMol
- 153 ReadlingList
- 154 RefDB
- 155 Revolution
- 156 RLab
- 157 RoboCup
- 158 Runtime Revolution
- 159 SAGU
- 160 Saxogram
- 161 Schoolmation
- 162 Schooltool
- 163 Scribus
- 164 Serveur
- 165 Sodipodi
- 166 Solfege
- 167 Solseek
- 168 Squeak
- 169 StarLogo
- 170 StarPlot
- 171 StatistX
- 172 Stickers Book
- 173 SurveyMagic
- 174 Tablix
- 175 Talen Vocab Trainer
- 176 Testatos
- 177 Thebes
- 178 Tickletux Hangman
- 179 tkbabel/tclbabel
- 180 Tkgeomap
- 181 Traduki
- 182 TuxPaint
- 183 TuxTyping
- 184 TypeFast
- 185 Typespeed
- 186 UCBLogo
- 187 VPython
- 188 VocTrain
- 189 Weather Plotter
- 190 Web Teacher Evaluations
- 191 WeBWorK
- 192 viewONE
- 193 WinSCP
- 194 Wordtrans
- 195 Xdrae
- 196 XDrawChem
- 197 XEphem
- 198 XLogo
- 199 xremote
- 200 Yacas
Buscar
2007/10/10
Software Libre educativo en el wiki de Gleducar
PS3 de 40GB sin retrocompatibilidad
A través de un comunicado oficial por parte de Sony se confirma de forma definitiva la inminente puesta a la venta en nuestro territorio de un nuevo modelo de PS3 con 40GB de disco duro por el precio de 399 euros. La fecha ya la conocéis: el próximo miércoles 10 de octubre.
Ahora bien, si en un principio esto parece una buena noticia es necesario agrandar la letra pequeña. Porque la hay y es posible que a muchos de los que os estáis frotando las manos no os guste del todo.
Para empezar el número de puertos USB se ha reducido de 4 a 2. ¿Es algo demasiado problemático? Pues no creo. Yo en mi caso dudo que tuviera que usar los 4 a la vez. Si realmente hacen falta también se puede uno hacer con un hub, que valen nada y menos, y tan contentos. Pero sí, por pequeño que sea, esto es un recorte.
Actualización: como muchos apuntáis en los comentarios el Starter Pack (PS3 con HD de 60GB, dos SIXAXIS, dos juegos, etc.), que bajará hasta los 499 euros, dejará de comercializarse cuando se agoten las existencias. De esta forma el modelo que quedará será el de 40GB, con sus recortes y su falta de retrocompatibilidad. Un aplauso, por favor.
Este nuevo modelo tampoco cuenta con lector multitarjeta. Si nos están vendiendo la consola como la solución multimedia para todos nuestros males, esto recorta de nuevo las posibilidades que ofrecía PS3 hasta ahora. Tampoco creo que sea algo excesivamente importante y de hecho creo que es algo que a la mayoría de jugadores le va a importar bien poco, pero hay que dejarlo claro.
El último hachazo, el que a mí me parece realmente importante, es que este modelo no ofrece retrocompatibilidad. Sony dice en su comunicado que esta decisión viene dada por dos factores: el descenso de la demanda de esta funcionalidad por parte de los compradores y la existencia de 65 títulos de PS3 de todo tipo de géneros disponibles para navidades.
Yo tengo una PS2 con un buen montonazo de juegos. Si me compro una PS3 es posible que me interese deshacerme de ella por cuestiones de espacio, pero no de sus juegos. Si me quitan la retrocompatibilidad tengo que andar con las dos. Y en el caso de alguien que no posea la PS2 se va a perder excelentes títulos. Teniendo una PS3 alguien podría pensar en hacerse con joyas como Shadow of the Colossus, God of War, etc., pero si no hay retrocompatibilidad…
Por otro lado tenemos que el Starter Pack existente (disco duro de 60BG, dos SIXAXIS y dos juegos) baja hasta los 499 euros. Este es el tipo de rebaja que queremos, pero yo aquí lo que haría sería eliminar los dos juegos del pack para conseguir un precio más ajustado y el poder de elegir en qué títulos queremos invertir nuestro dinero. O sea, que tengamos alternativas reales, no supuestas bajadas de precio que en realidad se traducen en pérdida de funcionalidades o en la justificación del gasto debido a añadidos que pueden no interesarnos. Un Starter Pack con juegos y otro sin. A elegir.
Alargan la vida de las baterías con software
La idea consiste en aplicar a los vídeos que se están reproduciendo en un dispositivo portátil un algoritmo generador de errores.
Los reproductores multimedia que se comercializan en la actualidad ofrecen una autonomía suficiente en cuanto a reproducción de música, pero no sucede lo mismo cuando se trata de visualización de vídeo. En este caso, la duración de la batería suele reducirse más de la mitad.
Un grupo de investigadores de la Universidad de Maryland (EEUU) trabajan para desarrollar técnicas que permitan ampliar esa duración a través de software, y han presentado el sistema y sus conclusiones. La idea básica consiste en aplicar a los vídeos que se están reproduciendo un algoritmo generador de errores que apenas son detectables por el ser humano.
La teoría puede concretarse en que, mediante aplicaciones, se puede reducir el número de cuadros del vídeo, o eliminar algunas de las escenas más complejas. Lo que a simple vista puede parecer un sistema no demasiado depurado, ya ha ofrecido buenos resultados en las simulaciones realizadas, logrando un ahorro de dos tercios de energía.
La codificación de vídeo es otra de las áreas en la que los investigadores trabajan. Según ellos, un ser humano no podría detectar la eliminación de varios cuadros por segundo y, si no existe diferencia en la percepción de quien lo ve, los investigadores mantienen que tampoco tiene sentido que la máquina que lo va a reproducir lo descodifique. En consecuencia, si el reproductor multimedia tiene menos trabajo que realizar en la reproducción, gastará menos batería.
A corto plazo no parece haber planes para comercializar este sistema, aunque algunas compañías ya han demostrado interés en el proyecto.
GPhone no es un teléfono
Comienzan a hacerse públicos los detalles del sistema operativo que Google prepara para los móviles y que le permitirá trasladar a estos apartos los servicios que ya presta en la web.
Después de dos años trabajando en un secreto y ambicioso programa sobre telefonía móvil, los primeros detalles acerca de él comienzan a salir de las oficinas de Google. El GPhone, el presunto teléfono móvil de Google, ha llenado en este tiempo las páginas de los periódicos de rumores acerca de sus funciones, su apariencia e incluso su precio.
Pero como suele suceder, la realidad parece superar con mucho la imaginación de quienes crearon los bulos. Una información publicada hoy en el diario The New York Times confirma las últimas sospechas sobre el GPHone: no se trata de un teléfono, sino de un sistema operativo que irá instalado en los dispositivos convencionales.
Si se cumplen las expectativas de la compañía, no habrá por tanto un único GPhone, sino centenares de miles de ellos, y de múltiples marcas.
La incógnita principal se mantendrá al menos hasta finales de año, pero ya parece seguro que lo que Google ha estado desarrollando todo este tiempo es una plataforma con la que trasladar su principal negocio, el de la publicidad en Internet, al mundo de la telefonía móvil.
Para ello, según el diario estadounidense, Google ha creado su propio sistema operativo basado en Linux para dispositivos móviles, que hará la competencia a productos como el Windows Mobile de Microsoft pero, sobre todo, permitirá al buscador crear un largo listado de programas que se irán solapando con servicios que ya da en la web (mapas, y búsquedas al comienzo, aplicaciones de red como Docs y Hojas de Cálculo más tarde).
Objetivo: la publicidad, como siempre
Algunos analistas señalan el zarpazo que eso supone para Microsoft en un segmento en pleno crecimiento. Otros recuerdan que permitirá a Google, que la próxima primavera pujará por su propia licencia de operadora de telecomunicaciones en Estados Unidos, en la banda de los 700 MHz, alejar de las grandes telecos el control sobre los servicios a los que tienen acceso sus clientes.
Por fin, y al margen de los análisis anteriores, la opinión generalizada es que con su propio set de software para móviles adaptado específicamente a servicios en los que Google ya es líder, el buscador podrá mantener y ampliar su negocio de publicidad: anuncios junto a las búsquedas, junto a los mapas... anuncios junto a las páginas web y por todas partes.
Como recuerda el diario, las grandes operadoras de telefonía de Estados Unidos están preparando una fría bienvenida a este nuevo actor en el mercado.
Estos gigantes de las telecomunicaciones han gastado miles de millones en los últimos años para ampliar el ancho de banda de sus redes, y para abaratar el precio de los dispositivos que permiten sacar más partido a Internet desde el móvil. Y no quieren que un recién llegado les arrebate el negocio justo cuando éste va a despegar.
Cine digital y 3D, el futuro del séptimo arte
Por Pablo Pereyra ppereyra@losandes.com.ar
Avatar”, la última cinta de ciencia ficción del realizador canadiense de 53 años James Cameron, se ha convertido en el centro de discusión de Hollywood desde que se anunció que el film se estrenará completamente en formato 3D, convirtiéndose en el proyecto que lleva hasta las últimas consecuencias lo que muchos consideran la plataforma del cine del futuro.
Esta superproducción, con un presupuesto de 250 millones de dólares, sería la puerta de entrada a una nueva era, si consideramos que el estreno de “Avatar”, agendado para el 22 mayo de 2009, obligaría a las salas a dar el salto definitivo hacia la exhibición del formato 3D, por ahora disponible en pocos cines.
Luego de una década y todavía dueño del récord de taquilla mundial con “Titanic” (1.845 millones de recaudación), Cameron encara este nuevo desafío con la misma consigna: superarse a sí mismo en cada proyecto, tal como hizo con otras películas como “Terminator” y “El Abismo”. Coneste film, el director vuelve a su género favorito, en lo que sería una trilogía compuesta hasta ahora por “Avatar”, “Battle Angel” y una tercera todavía sin título.
El proyecto está protagonizado por Sigourney Weaver (la heroína de “Aliens”, también de Cameron), en un papel pequeño, acompañada de Michelle Rodríguez (“Lost”), Giovanni Ribisi (“Perdidos en Tokio”) Zoe Saldaña (“Piratas del Caribe 3”) y tal como Cameron hizo con Leonardo Di Caprio, eligió a un principiante, el australiano Sam Worthington, para el rol principal. El relato transcurre en un futuro distante cuando los humanos han comenzado a colonizar otros planetas y se encuentran con razas alienígenas. La historia gira en torno de Jake (Worthington), un veterano de guerra parapléjico que llega al planeta Pandora, habitado por los Na'vi, una raza humanoide, en el momento en que comienza una guerra.
“Créase o no, la filmación es una pequeña parte del todo”, dijo Cameron en un sitio web. “Es un gran proyecto donde el rodaje ocupa un mes y medio, no mucho más. Habrá mucho de imagen generada por computadora y los efectos especiales son un componente importante”.
Para el plan de filmación que empezó en marzo con locaciones en Los Ángeles y finalizará este mes en Nueva Zelanda en los estudios Weta Digital propiedad de Peter Jackson, Cameron usa una mezcla de acción real con fotografía 3D basada en técnicas de captura de movimiento y un sistema virtual de cámara en tiempo real. Lo que vale decir: tecnología de última generación. “Weta tiene la tecnología suficiente como para que el público no pueda cuestionar la realidad de lo que está viendo, y eso es precisamente lo que busca Cameron: el fotorrealismo visual”, afirmó Jon Landau, coproductor del filme.
“El mundo que él ha creado es sobrecogedor y la acción es vertiginosa. Tardaremos dos años más, pero en el verano de 2009, ‘Avatar’ supondrá un cambio sustancial en lo que hasta ahora significa ir al cine para el gran público”, afirmó Tom Rothman, directivo de los Estudios Fox, financiadores del film.
¿El futuro ya está aquí?
Más allá de las experimentaciones tecnológicas para un film en particular, lo que realmente importa es que si estas dos técnicas, el cine digital y el 3D, estén obligados a dar buenos resultados económicos lo suficientemente poderosos para que tanto cineastas como exhibidores decidan apostar por ellos.
En 2003, Cameron fue un adelantado en utilizar cámaras digitales, que estaba empezando a sustituir la película tradicional, y la adaptó al 3D. Filmó el corto documental “Ghost of the abyss”, sobre el Titanic, y lo exhibió con gran éxito en las salas Imax (ver despiece).
Filmar con tecnología digital abarata costos, aunque el 3D los aumenta entre un 5% y un 10%, pero parece claro que eso se recupera en taquilla.
En 2004 “El Expreso Polar”, el filme de animación digital de Robert Zemeckis, se mostró en su versión en 2D en 3.550 salas y en 3D en 62, y sin embargo, los beneficios de la exhibición en 3D sumaron el 25% del total, lo que demostró que el público estaba dispuesto a pagar hasta cinco dólares más por la experiencia tridimensional, y las cifras no han dejado de confirmarlo.
Otros largometrajes como “Chicken Little” (2005) y “Meet the Robinsons”(2007), de los que también se han hecho versiones tradicionales y tridimensionales, la exhibición en 3D ha demostrado ser la predilecta por el público, pese a mostrarse en menos salas. A esto hay que sumar varios tanques de ésta y la temporada pasada como “Superman returns”,“Batman inicia” y las tres últimas entregas de Harry Potter, largometrajes que han ofrecido también la posibilidad de ver al menos 30 minutos de película en 3D, y el público ha respondido con cines llenos.
Lo más cerca de la experiencia en nuestro país es la sala Imax en Showcenter Norte, en Capital Federal, el segundo de América Latina - el primero está en Ecuador - inaugurado en octubre de 2005, con 350 butacas.
¿Las salas cambiarán?
Hasta ahora muchos complejos de cines alrededor del mundo se han resistido a invertir los 100 mil dólares que cuesta abandonar los proyectores tradicionales y adoptar la tecnología digital, la que se quiere imponer en la industria desde hace cuatro años.
Los empresarios son conscientes de que los precios de exhibición bajarían notablemente, puesto que las copias digitales no cuestan nada en comparación con las de celuloide.
El sistema de la proyección digital apunta a que en el momento de estreno de un film, las copias se envíen simultáneamente por satélite a las antenas de los complejos multisala sin intermediarios. El cambio sólo afectaría un eslabón de la cadena de la industria, la distribución análoga, tal como se la conoce hasta la fecha.
Actualmente sólo 2.700 salas estadounidenses cuentan con tecnología de exhibición digital y apenas un millar de ellas tienen además proyectores de 3D (el sistema se llama Real-D), que cuestan otros 25 mil dólares.
El estreno de una superproducción puede llegar a ocupar hasta 3.500 salas en un solo fin de semana, y no poder exhibir, por falta de tecnología, lo nuevo de James Cameron -un rompe taquilla garantizado- es un lujo que los exhibidores difícilmente podrán permitirse.
“La pantalla ha sido siempre una barrera emocional para las audiencias, pero el 3D de calidad consigue que la pantalla desaparezca y que tú te asomes a una ventana que mira hacia el mundo”, afirmó en The New York Times el mencionado Jon Landau, productor de “Avatar”.
El 3D recargado
Cuando se lanzó el cine en 3D en la década del ’50, y su posterior reactivación en los ’80 con títulos como “Tiburón 3” (1983), o la más reciente “Mini espías 3” (2003), ver un film en este formato provocaba al menos una migraña.
Sin embargo, el 3D con el que experimenta Cameron es la llamada proyección polarizada, que alterna imágenes en dos sentidos a 144 fotogramas por segundo. Un auténtico avance si consideramos que el actual se proyecta a 24 cuadros por segundo.
Unas gafas polarizadas de diseño negras que, según Jeffrey Katzenberg, co-propietario de los estudios Dreamworks, en pocos años “todo espectador llevará en el bolso”, permiten experimentar la profundidad y realismo de las tres dimensiones sin los efectos secundarios de antaño. Eso hace suponer que el 3D es, potencialmente, el formato del futuro.
Becas, un trampolín hacia la empresa
Las ayudas que ofrecen las empresas a los recién titulados para entrar en contacto con el mundo laboral son un buen trampolín para obtener el primer contrato.
La empresa tiene en la Universidad un gran aliado cuando se trata de reclutar futuros profesionales. De hecho, muchas organizaciones firman acuerdos con distintos centros que les permiten abrir las puertas del mercado laboral a los recién titulados. Es el caso de la firma Ernst & Young Abogados y de la consultora Deloitte.
Paloma Arango, licenciada en Psicología y máster en recursos humanos, acaba de firmar su primer contrato de trabajo con Deloitte. Obtuvo una beca de un año para trabajar en el departamento de recursos humanos a través de la bolsa de empleo de la escuela de negocios donde cursó el máster: "Ha sido un año de aprendizaje. Cuando trabajas como becaria, la mejor forma de aprender es a través de la experiencia de tus compañeros. Durante el año de la beca vas asumiendo cada vez más responsabilidades", afirma.
Luis López, director del área de recursos humanos de Deloitte, explica que, a lo largo del año, entre 280 y 300 becarios realizan prácticas remuneradas en la firma en programas que pueden durar entre tres meses y un año. Afirma que la compañía siempre ha incorporado becarios: "No es sólo por la falta actual de profesionales y la denominada guerra por el talento".
Entre el 75% y el 80% se incorpora a la compañía una vez concluido el periodo de prácticas; un 90% de las personas que entran a trabajar a Deloitte son recién titulados sin experiencia. "Estamos muy cerca de la Universidad y hemos firmado varios acuerdos. Además tenemos un programa internacional en el que el becario puede elegir cualquiera de nuestras oficinas en el mundo para trabajar durante dos meses", afirma López.
Beneficio mutuo
José Luis Risco, responsable de recursos humanos de Ernst & Young Abogados, señala que "las becas son una forma de ver cómo trabaja y evoluciona el futuro profesional con el fin de que continúe después en la firma, y a los becarios les permite conocer a fondo la organización; el beneficio es mutuo".
Luis Martínez, que obtuvo una beca de tres meses y tiene contrato desde septiembre, afirma que fue "una experiencia gratificante porque trabajaba con las dos socias de la práctica de capital humano, de quienes aprendí mucho".
A esta firma de abogados se incorporan entre 25 y 30 recién titulados a lo largo del año, de los que un 35% se queda en la firma. Además de la política del despacho de acudir a foros de empleo en busca de nuevo talento, la compañía ha firmado un acuerdo con la facultad de Derecho de la Universidad Autónoma de Madrid para que los alumnos de los dos últimos cursos puedan realizar prácticas. Las becas de Ernst & Young Abogados están remuneradas con 1.000 euros para los recién licenciados y 600 euros para los que aún están cursando sus estudios.
Telefónica lanza un ADSL portátil con cobertura en todo el planeta
Telefónica ha presentado hoy un sistema de comunicación de banda ancha por satélite que garantiza la conexión telefónica o el acceso a Internet en cualquier lugar del planeta, excepto en los polos, a precios semejantes a los de una llamada de roaming internacional.
El sistema usa una antena portátil que establece un enlace con el sistema de satélites de Inmarsat. La antena tiene un tamaño menor que un folio y se conecta al PC o al teléfono por medio de un cable, o de forma inalámbrica, con wi-fi o bluetooh.
La antena se puede conectar a la red o funcionar autónomamente con una batería que l nuevo servicio permite mantener una conversación telefónica o conectarse a Internet a una velocidad de 492 kbites por segundo, más lento que un ADSL pero más que suficiente para enviar ficheros, consultar el correo electrónico, navegar por Internet o, incluso, establecer un enlace de televisión en directo desde cualquier punto del planeta. De hecho, es el sistema que ha estado usando la cadena americana CNN para establecer conexiones en directo desde el Líbano.
El precio de cada llamada de voz es de 60 céntimos de euro por minuto, es decir, tres veces más barato que los sistemas de comunicación por satélite que existían hasta ahora, como Iridium, Thuraya o Globalstar mientras que cada mega de datos que se transmite cuesta 4,5 euros.
Telefónica comercializa directamente este servicio, denominado BGAN (Broadband Global Area Network) en las zonas en las que tiene presencia directa –seis países de Europa y quince de Latinoamérica– mientras que en el resto del mundo también lo vende, pero a través de distribuidores locales. Existen otros catorce distribuidores globales, entre los que se encuentran las principales operadoras históricas de Europa, como France Télecom, Deustche Telekom, BT o Telenor.
La compañía española, que hasta ahora lo venía operando en fase de pruebas ha logrado ya ocho clientes, entre ellos el ministerio de defensa, gas natural, el servicio 112 de la Rioja o la televisión gallega, pero espera llegar a 1.000 clientes en 2008 y a 3.000 en 2010. Los clientes típicos son instituciones como defensa o seguridad, ONGs, o grupos que tienen instalaciones remotas como empresas de minería, energía, ingeniería, constructoras, medios de comunicación o aseguradoras. Para usar el servicio hace falta adquirir la antena, de la que se fabrican tres modelos, que cuestan entre 2.000 y 4.500 euros.
Adobe Share, el disco duro virtual de Adobe para compartir nuestros archivos
Desde Adobe nos llega Adobe Share, una nueva herramienta online que nos permite compartir, organizar y gestionar nuestros documentos desde internet, para lo que nos ofrece 1 GB de espacio de almacenamiento. Para usar esta herramienta, lo único que debemos de tener es una cuenta Adobe ID, que podemos crear al instante.
Una vez que entremos en la aplicación, que por cierto está completamente desarrollada en Flash, accederemos a la pantalla principal, donde tan sólo tenemos que realizar tres sencillos pasos para compartir nuestros archivos personales: seleccionar los archivos a subir, opcionalmente indicaremos las direcciones de correo electrónico a quienes deseamos compartirlas, e indicaremos su nivel de acceso, permitiéndonos seleccionar el acceso completo para quienes conozcan la url de los archivos que estamos compartiendo, o bien de acceso limitado sólo a aquellas personas, o destinatarios, a quienes nosotros indiquemos.
Luego, tenemos otra pestaña que nos da acceso a nuestra librería, donde nos da acceso a nuestros documentos subidos e incluso a los documentos que hemos recibido. Desde el área principal podemos acceder a nuestros documentos a través de dos modos de vista. Además, podemos realizar búsquedas a través del campo de búsquedas habilitado para ello. Una vez nos posicionamos en un documento en concreto con el cursor, nos aparecerá unos iconos que nos permitirán la descarga del mismo, compartirlo por correo y obtener la url o el código para incorporarlo en otra web. También, si presionamos dos veces al mismo documento, se nos aparece en la misma pantalla un mininavegador que nos permite acceder a su contenido, permitiéndonos navegar por él de forma sencilla.
Por ejemplo, en un documento pdf de varias páginas nos permite acceder a cada una de ellas a través de unos cursores del mininavegador, aunque también nos podemos posicionar con el cursor en los vértices externos del documento, permitiéndonos pasar las páginas. Desde el mininavegador también podemos descargarnos el documento, acceder a su url o al código, ver con quienes lo tenemos compartido, e incluso eliminar el propio documento.
Personalmente, me gusta Adobe Share. Los motivos son varios: primero porque es fácil y ligero, y segundo porque añade otra forma de compartir archivos a los métidos que ya conocemos de otros discos duros virtuales, generando de esta manera nuestra lista de contactos.
15 años del portatil
El 5 de octubre de 1992, IBM presentó el primer modelo de la gama ThinkPad.
Este mes se celebra el 15 aniversario del lanzamiento del ordenador portátil que definió esta categoría de producto, con un formato que se ha mantenido hasta nuestros días. Se trataba del primer ordenador de la familia ThinkPad -en la actualidad fabricada y comercializada por Lenovo-, que IBM presentó el 5 de octubre de 1992.
Aunque con anterioridad existían algunos modelos denominados “transportables”, que en algunos casos alcanzaban los 15 kilos de peso, el ThinkPad 700C presentado en 1992 fue el primero en incorporar una pantalla de cristal líquido a color de 10,4 pulgadas, además de integrar un teclado estándar y un revolucionario sistema de ratón en un equipo de menos de 3 kilos.
Este arcaico modelo, padre de los portátiles actuales, contaba con un procesador a 25 MHz, 4MB de memoria, disco duro de 120MB y disquetera incorporada.
El ThinkPad fue concebido por un grupo de 10 ingenieros y diseñadores de distintas partes del mundo que unieron sus esfuerzos para afrontar el reto de crear un ordenador realmente móvil, fácil de llevar y utilizar. Desde entonces, se han vendido más de 30 millones de ordenadoes ThinkPad en más de 160 países, siendo el portátil más vendido de la historia.
En la actualidad hay más de 350 millones de portátiles en el mundo, y en España las ventas ya han superado a las de ordenadores de sobremesa.
Si comparamos los primeros portátiles de 1992 con los modelos actuales, es evidente que existen enormes diferencias en cuanto a su diseño, peso y prestaciones. Hoy tenemos modelos de un kilo de peso, con avanzadas prestaciones multimedia y de conectividad, hasta 10.000 veces más rápidos que los primeros equipos, con una memoria 5.000 veces mayor y una capacidad de almacenamiento equivalente a la de 2.000 portátiles de aquella época.
La virtualización de los servidores será la tecnología dominante en tres años
La virtualización de servidores, que permite correr de forma simultánea múltiples sistemas operativos y aplicaciones en un mismo servidor, proporcionando una mayor flexibilidad y reduciendo los gastos operativos y el consumo de energía, se terminará de imponer en los próximos tres años, según un informe de la consultora Butler. Los autores del informe aseguran que esta tendencia requiere un cambio de cultura empresarial, tanto en los departamentos de TI, como en la forma de contemplar el negocio. Por otro lado, Intel augura que la virtualización llegará a los PC en 2008. Por Raúl Morales.
La virtualización de infraestructura será la tecnología dominante en los centros de datos durante los próximos años tres años, según un informe de la firma de análisis Butler Group.
La virtualización se define como la práctica de correr un nivel de software sobre un servidor que, como resultado, puede soportar múltiples entornos y sistemas operativos sobre un mismo hardware como si funcionaran en servidores físicos diferentes.
De esta forma, los recursos informáticos de la empresa se utilicen más eficientemente. Al mismo tiempo, ofrece una mucha mayor flexibilidad en la gestión de los recursos informáticos.
Esta tendencia se verá propiciada por la convergencia de tres factores en la economía mundial. En primer lugar, la necesidad de las empresas de reducir el consumo de energía y las emisiones de carbono.
En segundo lugar estaría la exigencia de responder con mayor agilidad a las oportunidades de mercado (que cada vez surgen y desaparecen más rápidamente). Finalmente, la tendencia a la automatización como medio de reducir costes operacionales.
El informe de Butler, titulado “Infraestructura de Virtualización”, asegura que la virtualización traerá mejoras en esas tres áreas, pero advierte que, para que sea efectiva, exige un cambio cultural importante dentro de las organizaciones, tanto desde la perspectiva de las Tecnologías de la Información como de la de negocio.
Cambio de cultura
Básicamente, las empresas, tendrán que cambiar su estructura actual, en la las distintas unidades de negocio actúan por separado, adoptando una arquitectura organizativa virtual dirigida por los procesos de negocios.
“Esta tendencia debe ser reconocida como una tecnología que se ha desarrollado en el momento justo debido a la convergencia de una serie de factores”, comenta Roy Illsey, investigador senior de Butler Group, en un comunicado difundido por la empresa. “Esto ayudará a las organizaciones a enfrentarse a la competencia que impera hoy en la economía global”, puntualiza.
La virtualización como tecnología es un paso adelante en el rediseño de cómo las Tecnologías de la Información son utilizadas por los clientes. Según este informe, la transformación de las organizaciones hacia negocios virtuales se apoya, sin duda, en la adopción de la infraestructura de virtualización.
Más flexibilidad
El principal beneficio de la virtualización para Butler es que los departamentos de TI de las empresas son más flexibles y pueden localizar mejor sus recursos. Asimismo, reduce los gastos operativos y mejora el retorno financiero de las inversiones hechas en TI.
Además, reduce el consumo energético al aprovechar mejor los recursos, lo que permite reducir las emisiones de carbono.
Estos ahorros pueden ser significativos. Butler estima que combinando estas tecnologías las empresas no sólo reducirán sus costes, sino que el negocio tendrá más herramientas para alcanzar sus objetivos.
Y pone el siguiente ejemplo: una organización que corra 250 servidores de doble núcleo podrá conseguir ahorros de dos millones de libras, o sea casi tres millones de euros en tres años, y eso teniendo en cuenta sólo los derivados de la consolidación de servidores.
Respecto al recorte de consumo eléctrico, puede facilitar ahorros de en torno a 78.000 libras (111.000 euros) anuales por cada 1000 PC si se migra de una infraestructura PC basada en sobremesa a una solución de virtualización de entorno desktop hospedada en un servidor. Además, existen otras reducciones de costes adicionales relacionadas con la gestión más centralizada y flexible que la virtualización permite.
En el PC en 2008
La virtualización seguirá el mismo camino que otras muchas tecnologías, que empezaron en un ámbito empresarial para luego imponerse en otros ámbitos.
Dintel está trabajando ya es una nueva tecnología, que será común para portátiles, sobremesa y servidores. En esta tecnología, cada uno de estos núcleos se comporta como dos procesadores, con lo que, según la empresa, a partir del segundo semestre de 2008 se podrán encontrar PC con hasta 16 CPU, por lo que la virtualización en los PC parece más cercana.
Como indica Butler, por el momento esta tendencia es preponderante en el ámbito del servidor, pero Intel está convencida de que la nueva era en la virtualización pasa por que llegue hasta el PC. La firma norteamericana cree que muchos usuarios encontrarán interesante el poder trabajar con dos sistemas operativos a la vez.
Nueva versión de Google Desktop: controlando nuestro PC desde una página web
Los gadgets de Google son pequeñas aplicaciones que podemos crear siguiendo unos procedimientos proporcionados por Google y que 'hablan' con servicios externos de Internet o con nuestro PC. Hasta la fecha, podíamos instalarlos, por una parte, en nuestro 'iGoogle' (página de inicio personalizada) o cualquier otra página web o, por otra, en el 'Google Desktop', sin poder de interactuar entre ambos entornos.
Desde hace unas horas, y con la nueva versión '5.5 beta' de 'Google Desktop' (solo MS Windows), es posible crear gadgets para páginas web que 'hablen' con nuestro PC, y gestionar datos de éste (reproducir canciones, chequear la recepción de señales WiFi, ...) desde, por ejemplo, nuestro iGoogle personal. Según aseguran en este post oficial, debemos navegar por el directorio oficial de gadgets para web y localizar aquellos que interactúen con 'Google Desktop'. El que permite reproducir canciones es este y el que permite comprobar el estado de las conexiones WiFi es este.
Con este paso, Google intenta integrar más aún los entornos de gestión de la información personal, para que no existan apenas diferencias entre las páginas web (iGoogle) y el escritorio (Google Desktop). Sin embargo, se va a encontrar con la persistente cuestión de la privacidad, y es que no es poca la información personal que puede quedar al descubierto si alguien logra encontrar una vulnerabilidad en estos gadgets que se conectan con los datos de nuestro Disco Duro.
En febrero de 2006, con la versión 3 de 'Google Desktop' hubo un fuerte debate sobre su privacidad, puesto que permitía realizar búsquedas del Disco Duro entre diversos PCs conectados a Internet, con el riesgo que esto suponía. Para tomar el control de esta funcionalidad (que, por cierto, nunca más se ha sabido de ella) era necesario gestionar la cuenta personal de Google y, con la cantidad de vulnerabilidades que frecuentemente aparecen, las posibilidades de que alguien acceda a nuestro PC aumentaban. Y lo mismo puede ocurrir ahora si cualquier atacante se hace con nuestra cuenta y accede a iGoogle.
Además, tampoco han faltado las vulnerabilidades dentro del propio 'Google Desktop' y en los propios Google Gadgets, lo que multiplica la precaución que los usuarios deben mantener a la hora de instalar estas pequeñas aplicaciones que se comunican con nuestro PC.
Descarga "Build Your Own Ruby on Rails Web Applications"
Hasta el momento de la publicacion de este post, restaban unas 52 horas al menos para que expire esta oferta.
McDonalds ofrecerá Wi-Fi gratuito en Reino Unido
LONDRES (Reuters) - La cadena de comida rápida McDonalds anunció el sábado que ofrecerá acceso gratuito a Internet por Wi-Fi en sus 1.200 hamburgueserías en Reino Unido, convirtiendo al país en el mayor proveedor de acceso gratuito de banda ancha sin cables.
La iniciativa refleja la creciente competencia que vive el mercado de la banda ancha británica, dominada por servicios de contrato o de prepago, donde el punto de acceso medio suele costar cerca de 5 libras (unos 7,2 euros) por hora de conexión.
El jueves, el grupo BT, principal poseedor de líneas fijas en el país, dijo que se había unido al cruzado de la tecnología Wi-Fi FON para facilitar a más de tres millones de usuarios británicos de banda ancha usar cientos de miles de puntos de acceso gratuito a Internet.
Hay unas 11.447 redes de Wi-Fi en Reino Unido, y entre los principales proveedores del servicio se encuentran The Cloud, BT y T-Mobile, filial de Deutsche Telecom.
El servicio de McDonalds supondrá en torno al 10 por ciento del total de puntos Wi-Fi.