De cierta forma, Ted Hoff salvó su propia vida.
En lo profundo del cuerpo de este hombre de 73 años de edad hay un microprocesador: una diminuta computadora que controla su marcapasos y, éste, a su vez, su corazón.Él está consciente de esta curiosa coincidencia.
"Se siente bien", dice.
Los microprocesadores fueron inventados por un reducido grupo de visionarios dirigidos por Hoff en una startup del Silicon Valley llamada Intel.
Memoria
En 1967, Marcian Edward Hoff decidió dejar el mundo académico, tras haber completado su PhD en ingeniería eléctrica.Un empleo temporal de verano, desarrollando sistemas de señalización para trenes, lo había introducido en el mundo laboral y le había gustado.
Llegó entonces la llamada telefónica que le cambiaría la vida.
"Había visto al tipo sólo una vez antes. Su nombre era Bob Noyce. Me dijo que estaba reclutando empleados para una compañía y me preguntó si yo consideraría trabajar con él", cuenta Hoff.
Seis años antes, Robert Noyce, el fundador de Fairchild Semiconductor, había patentado el chip de silicio.
Ahora su ambición era otra, y estaba buscando los integrantes de un equipo que pudiera hacerla realidad.
"La entrevista fue en su casa y él no me dijo a que se dedicaría su nueva compañía", recuerda Hoff.
"Sin embargo, me preguntó su yo tenía alguna idea de cuál sería el próximo paso para los circuitos integrados, y le contesté: 'Memoria'".
En el clavo
Lo había adivinado. El plan de Noyce era hacer chips de memoria para grandes computadoras.Contrató a Hoff, quien se convirtió en el empleado número 12 de Intel.
En 1969, Busicom, una empresa de productos electrónicos japonesa, los contactó, pues estaba en pos de nuevos chips.
Quería algo que hiciera funcionar a una nueva línea de calculadoras y requería un sistema que usara 12 circuitos integrados distintos.
Hoff le apostó a mejorar la idea acomodando la mayoría de las funciones en una sola unidad procesadora central.
El resultado fue un sistema de cuatro chips, basado en el microprocesador 4004 de Intel.
Escépticos
El trabajo de Intel fue recibido inicialmente con escepticismo, señala Hoff.
El consenso favorecía el uso de muchos circuitos integrados simples en chips separados. Aquéllos podían ser producidos en masa y organizados en configuraciones distintas de acuerdo a las necesidades de los fabricantes de computadoras.
Y el sistema entero ofrecía las economías de escala.
Los microprocesadores, en contraste, eran considerados como altamente especializados, diseñados a un alto costo para que los usaran unos pocos manufactureros en un puñado de máquinas.
El tiempo demostró que los escépticos estaban 100% errados.
Así la producción masiva hiciera que bajara el precio de los microprocesadores al punto que fueran más baratos que sus rivales de chips múltiples, en todo caso no eran igual de potentes.
Es posible que los primeros consumidores de computadoras sacrificaran rendimiento para ahorrarse algo de dinero, pero no era precisamente de los procesadores que dependía el precio.
"La memoria todavía era cara", subraya Hoff.
"Una página de texto puede tener 3.000 caracteres. Eso costaba unos US$300".
"Si uno va a poner unos miles de dólares de memoria (en una computadora), ¿no es más sensato gastar US$500 en un procesador hecho en pequeña o mediana escala y tener 100 más rendimiento?".
"En esa época, no tenía sentido hablar de computadoras personales", dice.
Eventualmente, el precio de la memoria empezó a bajar y la capacidad de almacenamiento a subir.
El consenso favorecía el uso de muchos circuitos integrados simples en chips separados. Aquéllos podían ser producidos en masa y organizados en configuraciones distintas de acuerdo a las necesidades de los fabricantes de computadoras.
Y el sistema entero ofrecía las economías de escala.
Los microprocesadores, en contraste, eran considerados como altamente especializados, diseñados a un alto costo para que los usaran unos pocos manufactureros en un puñado de máquinas.
El tiempo demostró que los escépticos estaban 100% errados.
El precio de los caracteres
Intel enfrentaba otro problema.Así la producción masiva hiciera que bajara el precio de los microprocesadores al punto que fueran más baratos que sus rivales de chips múltiples, en todo caso no eran igual de potentes.
Es posible que los primeros consumidores de computadoras sacrificaran rendimiento para ahorrarse algo de dinero, pero no era precisamente de los procesadores que dependía el precio.
"La memoria todavía era cara", subraya Hoff.
"Una página de texto puede tener 3.000 caracteres. Eso costaba unos US$300".
"Si uno va a poner unos miles de dólares de memoria (en una computadora), ¿no es más sensato gastar US$500 en un procesador hecho en pequeña o mediana escala y tener 100 más rendimiento?".
"En esa época, no tenía sentido hablar de computadoras personales", dice.
Eventualmente, el precio de la memoria empezó a bajar y la capacidad de almacenamiento a subir.
La ley de Moore
Los productos de Intel empezaron a ser más y más atractivos, aunque tomó otros tres años y cuatro generaciones de chips antes de que uno de sus procesadores llegara a una computadora personal disponible comercialmente.
Pero Intel sabía que su sistema ganaría la partida al final.
Podía incluso predecir cuándo llegarían los microprocesadores a romper la barrera del precio/rendimiento.
En 1965, Gordon Moore, quien más tarde cofundaría Intel con Robert Noyce, hizo una audaz predicción.
"La complejidad de los circuitos integrados se duplicaría cada año con una reducción de costo conmensurable".
Y, como consecuencia, los precios bajan al mismo tiempo que las suben prestaciones.
La teoría, que eventualmente llegó a ser conocida como La Ley de Moore, fue más tarde revisada y refinada.
Hoy en día, declara que el número de transistores de un circuito integrado se duplicará apróximadamente cada dos años.
"Gordon siempre presentó su idea como una observación más que una ley", apunta Hoff.
Incluso en los primeros años, dice, Intel estaba superando las predicciones de Moore.
Los microprocesadores son ahora ubicuos.
No obstante, Hoff piensa que su versatilidad no ha sido aún plenamente apreciada.
"Una de las cosas que le critico a los medios de comunicación es que cuando hablan de microprocesadores se refieren a una computadora de escritorio o a una portátil.
"No se acuerdan de los automóviles, las cámaras digitales o los celulares que también usan cómputo", apunta.
Y se lanza a analizar el poder de procesamiento de las cámaras digitales, y cuánto poder de cómputo tienen hoy en día.
Como un verdadero experto en tecnología, lo que a él le interesa reside en la frontera más lejana de la ingeniería electrónica.
Los intentos por obligarlo a elevar sus logros personales o a evaluar su lugar en la historia terminan sólo en chistes.
Él prefiere hablar de sus proyectos actuales.
"Tengo un montón de computadoras aquí en casa y me la paso jugando con microcontroles. Me gusta programarlas y hacer que me resuelvan mis problemas técnicos".
Pero si Hoff se rehusa a reconocer su propio estatus, otros están ansiosos por hacerlo.
Quizás el honor más alto llegó en 2010, cuando el presidente de Estados Unidos, Barack Obama, le otorgó la Medalla Nacional de Tecnología e Innovación.
Su nombre está ahora al lado de otros galardonados, que incluyen a Gordon Moore, Robert Noyce, Steve Jobs, Bill Gates y Ray Dolby.
Como ellos, Hoff ayudó a moldear el mundo en el que vivimos hoy.
BBC Mundo
Pero Intel sabía que su sistema ganaría la partida al final.
Podía incluso predecir cuándo llegarían los microprocesadores a romper la barrera del precio/rendimiento.
En 1965, Gordon Moore, quien más tarde cofundaría Intel con Robert Noyce, hizo una audaz predicción.
"La complejidad de los circuitos integrados se duplicaría cada año con una reducción de costo conmensurable".
Y, como consecuencia, los precios bajan al mismo tiempo que las suben prestaciones.
La teoría, que eventualmente llegó a ser conocida como La Ley de Moore, fue más tarde revisada y refinada.
Hoy en día, declara que el número de transistores de un circuito integrado se duplicará apróximadamente cada dos años.
"Gordon siempre presentó su idea como una observación más que una ley", apunta Hoff.
Incluso en los primeros años, dice, Intel estaba superando las predicciones de Moore.
Chips omnipresentes
Con el paso de los años, la revolución de computadora personal echó raíces.Los microprocesadores son ahora ubicuos.
No obstante, Hoff piensa que su versatilidad no ha sido aún plenamente apreciada.
"Una de las cosas que le critico a los medios de comunicación es que cuando hablan de microprocesadores se refieren a una computadora de escritorio o a una portátil.
"No se acuerdan de los automóviles, las cámaras digitales o los celulares que también usan cómputo", apunta.
Y se lanza a analizar el poder de procesamiento de las cámaras digitales, y cuánto poder de cómputo tienen hoy en día.
Como un verdadero experto en tecnología, lo que a él le interesa reside en la frontera más lejana de la ingeniería electrónica.
Los intentos por obligarlo a elevar sus logros personales o a evaluar su lugar en la historia terminan sólo en chistes.
Él prefiere hablar de sus proyectos actuales.
"Tengo un montón de computadoras aquí en casa y me la paso jugando con microcontroles. Me gusta programarlas y hacer que me resuelvan mis problemas técnicos".
Pero si Hoff se rehusa a reconocer su propio estatus, otros están ansiosos por hacerlo.
Quizás el honor más alto llegó en 2010, cuando el presidente de Estados Unidos, Barack Obama, le otorgó la Medalla Nacional de Tecnología e Innovación.
Su nombre está ahora al lado de otros galardonados, que incluyen a Gordon Moore, Robert Noyce, Steve Jobs, Bill Gates y Ray Dolby.
Como ellos, Hoff ayudó a moldear el mundo en el que vivimos hoy.
BBC Mundo
No hay comentarios:
Publicar un comentario