TU NO ESTAS SOLO O SOLA EN ESTE MUNDO si te gustó un artículo, compártelo , envialo a las Redes sociales , FACEBOOK, TWITTER

lunes, 23 de mayo de 2011

TECCHILE: El hombre que inventó el microprocesador

El hombre que inventó el microprocesador

Última actualización: Domingo, 22 de mayo de 2011
Ted Hoff

Marcian Edward "Ted" Hoff es una de las personas que ayudó a crear el mundo en el que vivimos.

De cierta forma, Ted Hoff salvó su propia vida.

En lo profundo del cuerpo de este hombre de 73 años de edad hay un microprocesador: una diminuta computadora que controla su marcapasos y, éste, a su vez, su corazón.

Él está consciente de esta curiosa coincidencia.

"Se siente bien", dice.

Los microprocesadores fueron inventados por un reducido grupo de visionarios dirigidos por Hoff en una startup del Silicon Valley llamada Intel.

Memoria

En 1967, Marcian Edward Hoff decidió dejar el mundo académico, tras haber completado su PhD en ingeniería eléctrica.

Robert Noyce

Para cuando se conocieron, Noyce ya había patentado el chip de silicio.

Un empleo temporal de verano, desarrollando sistemas de señalización para trenes, lo había introducido en el mundo laboral y le había gustado.

Llegó entonces la llamada telefónica que le cambiaría la vida.

"Había visto al tipo sólo una vez antes. Su nombre era Bob Noyce. Me dijo que estaba reclutando empleados para una compañía y me preguntó si yo consideraría trabajar con él", cuenta Hoff.

Seis años antes, Robert Noyce, el fundador de Fairchild Semiconductor, había patentado el chip de silicio.

Ahora su ambición era otra, y estaba buscando los integrantes de un equipo que pudiera hacerla realidad.

"La entrevista fue en su casa y él no me dijo a que se dedicaría su nueva compañía", recuerda Hoff.

"Sin embargo, me preguntó su yo tenía alguna idea de cuál sería el próximo paso para los circuitos integrados, y le contesté: 'Memoria'".

En el clavo

Lo había adivinado. El plan de Noyce era hacer chips de memoria para grandes computadoras.

microprocesador.

1. m. Fís. Circuito constituido por millares de transistores integrados en un chip, que realiza alguna determinada función de los computadores electrónicos digitales.

Real Academía Española

Contrató a Hoff, quien se convirtió en el empleado número 12 de Intel.

En 1969, Busicom, una empresa de productos electrónicos japonesa, los contactó, pues estaba en pos de nuevos chips.

Quería algo que hiciera funcionar a una nueva línea de calculadoras y requería un sistema que usara 12 circuitos integrados distintos.

Hoff le apostó a mejorar la idea acomodando la mayoría de las funciones en una sola unidad procesadora central.

El resultado fue un sistema de cuatro chips, basado en el microprocesador 4004 de Intel.

Escépticos

Microprocesador 4004

Muchos desestimaron el valor de los microprocesadores, y se equivocaron.

El trabajo de Intel fue recibido inicialmente con escepticismo, señala Hoff.

El consenso favorecía el uso de muchos circuitos integrados simples en chips separados. Aquéllos podían ser producidos en masa y organizados en configuraciones distintas de acuerdo a las necesidades de los fabricantes de computadoras.

Y el sistema entero ofrecía las economías de escala.

Los microprocesadores, en contraste, eran considerados como altamente especializados, diseñados a un alto costo para que los usaran unos pocos manufactureros en un puñado de máquinas.

El tiempo demostró que los escépticos estaban 100% errados.

El precio de los caracteres

Intel enfrentaba otro problema.

Así la producción masiva hiciera que bajara el precio de los microprocesadores al punto que fueran más baratos que sus rivales de chips múltiples, en todo caso no eran igual de potentes.

Es posible que los primeros consumidores de computadoras sacrificaran rendimiento para ahorrarse algo de dinero, pero no era precisamente de los procesadores que dependía el precio.

"La memoria todavía era cara", subraya Hoff.

"Una página de texto puede tener 3.000 caracteres. Eso costaba unos US$300".

"Si uno va a poner unos miles de dólares de memoria (en una computadora), ¿no es más sensato gastar US$500 en un procesador hecho en pequeña o mediana escala y tener 100 más rendimiento?".

"En esa época, no tenía sentido hablar de computadoras personales", dice.

Eventualmente, el precio de la memoria empezó a bajar y la capacidad de almacenamiento a subir.

La ley de Moore

Gordon Moore

Moore nunca declaró que su observación fuera ley.

Los productos de Intel empezaron a ser más y más atractivos, aunque tomó otros tres años y cuatro generaciones de chips antes de que uno de sus procesadores llegara a una computadora personal disponible comercialmente.

Pero Intel sabía que su sistema ganaría la partida al final.

Podía incluso predecir cuándo llegarían los microprocesadores a romper la barrera del precio/rendimiento.

En 1965, Gordon Moore, quien más tarde cofundaría Intel con Robert Noyce, hizo una audaz predicción.

"La complejidad de los circuitos integrados se duplicaría cada año con una reducción de costo conmensurable".

Y, como consecuencia, los precios bajan al mismo tiempo que las suben prestaciones.

La teoría, que eventualmente llegó a ser conocida como La Ley de Moore, fue más tarde revisada y refinada.

Hoy en día, declara que el número de transistores de un circuito integrado se duplicará apróximadamente cada dos años.

"Gordon siempre presentó su idea como una observación más que una ley", apunta Hoff.

Incluso en los primeros años, dice, Intel estaba superando las predicciones de Moore.

Chips omnipresentes

Con el paso de los años, la revolución de computadora personal echó raíces.

Los microprocesadores son ahora ubicuos.

Ted Hoff recibiendo la medalla en 2010

Aunque a Hoff no parece interesarle el reconocimiento, muchos lo aplauden por su logro.

No obstante, Hoff piensa que su versatilidad no ha sido aún plenamente apreciada.

"Una de las cosas que le critico a los medios de comunicación es que cuando hablan de microprocesadores se refieren a una computadora de escritorio o a una portátil.

"No se acuerdan de los automóviles, las cámaras digitales o los celulares que también usan cómputo", apunta.

Y se lanza a analizar el poder de procesamiento de las cámaras digitales, y cuánto poder de cómputo tienen hoy en día.

Como un verdadero experto en tecnología, lo que a él le interesa reside en la frontera más lejana de la ingeniería electrónica.

Los intentos por obligarlo a elevar sus logros personales o a evaluar su lugar en la historia terminan sólo en chistes.

Él prefiere hablar de sus proyectos actuales.

"Tengo un montón de computadoras aquí en casa y me la paso jugando con microcontroles. Me gusta programarlas y hacer que me resuelvan mis problemas técnicos".

Pero si Hoff se rehusa a reconocer su propio estatus, otros están ansiosos por hacerlo.

Quizás el honor más alto llegó en 2010, cuando el presidente de Estados Unidos, Barack Obama, le otorgó la Medalla Nacional de Tecnología e Innovación.

Su nombre está ahora al lado de otros galardonados, que incluyen a Gordon Moore, Robert Noyce, Steve Jobs, Bill Gates y Ray Dolby.

Como ellos, Hoff ayudó a moldear el mundo en el que vivimos hoy.


Fuente:

CONSULTEN, OPINEN , ESCRIBAN .
Saludos
Rodrigo González Fernández
Diplomado en "Responsabilidad Social Empresarial" de la ONU
Diplomado en "Gestión del Conocimiento" de la ONU
Diplomado en Gerencia en Administracion Publica ONU
 
  • PUEDES LEERNOS EN FACEBOOK
 
 
 CEL: 93934521
Santiago- Chile
Soliciten nuestros cursos de capacitación  y consultoría en GERENCIA ADMINISTRACION PUBLICA -LIDERAZGO -  GESTION DEL CONOCIMIENTO - RESPONSABILIDAD SOCIAL EMPRESARIAL – LOBBY – COACHING EMPRESARIAL-ENERGIAS RENOVABLES   ,  asesorías a nivel nacional e  internacional y están disponibles  para OTEC Y OTIC en Chile

No hay comentarios: