¿Qué es un microprocesador?

En la ilustración, la oblea de silicio en manos de un trabajador de una fábrica de Intel

El chip es el cerebro de la computadora

Es el corazón de nuestras computadoras, algo cuya velocidad todo el mundo tiene claro que hay que mirar cuando se compra un nuevo equipo. ¿Pero en qué consiste realmente un procesador?

Un microprocesador, también conocido como procesador, micro, chip o microchip, es un circuito lógico que responde y procesa las operaciones lógicas y aritméticas que hacen funcionar a nuestras computadoras. En definitiva, es su cerebro.

Pero un procesador no actúa por propia iniciativa, recibe constantemente órdenes de múltiples procedencias. Cuando encendemos nuestra computadora, lo primero que hace el micro es cumplir con las instrucciones de la BIOS (basic input/output system), que forma parte de la memoria de la computadora. Una vez funcionando, además de la BIOS, será el sistema operativo y los programas instalados los que seguirán haciéndose obedecer por el microprocesador.

Pese a que los microprocesadores siempre nos hacen pensar en ordenadores, lo cierto es que están disponibles en multitud de 'cacharros' que nos rodean habitualmente, como cámaras de fotografía o vídeo, coches, teléfonos móviles… No obstante, es cierto que aquellos que se emplean en las computadoras son los más potentes y complejos.

Cómo se crea un procesador

Con mucha dificultad. Para traer al mundo micros en cantidades industriales es necesario levantar factorías que suponen una inversión multimillonaria. Por ejemplo, una factoría que levantó hace no mucho Advanced Micro Devices (AMD) en Dresde, Alemania, costó unos 3.000 millones de euros.

La principal característica de estas fábricas es que son inmaculadamente limpias, ya que una simple mota de polvo podría echar a perder millares de microprocesadores. Para evitarlo cuentan con sistemas de filtración que renuevan el aire diez veces por minuto. Es decir, son 10.000 veces más limpias que un quirófano. Sus trabajadores van completamente forrados con un traje estéril que una persona poco familiarizada tardaría más de media hora en ponerse.

Traer al mundo un procesador es sumamente complejo, pero resumiéndolo mucho podríamos decir que se elaboran de la siguiente manera:

  1. Exposición. Se expone un capa de dióxido de silicio al calor y a determinados gases para lograr que crezca y obtener una lámina u oblea de silicio tan fina que es imperceptible al ojo humano.
  2. Fotolitografía. Se aplica luz ultravioleta sobre la oblea a través de una plantilla. El dibujo de dióxido de silicio resultante se fija con productos químicos. Un procesador consta de varias de estas capas, cada una con una plantilla distinta y cada una más fina que la anterior.
  3. Implantación de iones. La oblea es bombardeada con iones para alterar la forma en la que el silicio conduce la electricidad en esas zonas.
  4. División. En cada oblea se han creado miles de micros. Una vez el trazado de su circuito ha sido comprobado, se cortan individualmente con una sierra de diamante.
  5. Empaquetado. La parte más fácil. Cada micro se inserta en el paquete protector que le da la apariencia que todos conocemos y que le permitirá ser conectado a otros dispositivos.

El nacimiento de un procesador, paso a paso

Antes de que naciera el primer procesador, tuvo que crearse el transistor: unos diminutos interruptores electrónicos que permiten descomponer toda instrucción informática en los famosos ceros y unos. El primer transistor nació en 1947 en los laboratorios Bell y, además de conseguir un premio Nóbel para sus creadores, dio la puntilla a las computadoras basadas en interruptores mecánicos y tubos de silicio. Auténticos dinosaurios.

El segundo gran paso fue crear un circuito, que empleaba dos transistores sobre un cristal de silicio. Este segundo avance, en el que participó el que sería cofundador de Intel Robert Noyce, tuvo lugar más de diez años después, en 1958.

El tercer y definitivo avance supuso la creación del primer procesador rudimentario en 1961. Cuatro años más tarde el procesador más complejo apenas contaba con 64 transistores. Pero el crecimiento fue extraordinario: el primer procesador comercial fue distribuido por Intel en 1971 y ya contaba con la friolera de 2.300 transistores. Un prodigio entonces pero que se queda en nada comparado con los cerca de 30 millones que cuenta un Pentium II de andar por casa.

La tecnología de creación de microprocesadores ya está llegando a su tope. Cada vez son más diminutos, más rápidos, más complejos de fabricar… Precisamente por ello se lleva hablando desde hace tiempo de nuevos tipos de micros revolucionarios. Las tecnologías más prometedoras son las que apuestan por la nanotecnología (computadoras moleculares), que parece la más viable, y por la integración de elementos biológicos.

La Ley de Moore


 

Desde hace exactamente cuarenta años está vigente una esta ley, relacionada con el constante aumento de la potencia de los procesadores (aunque hay quien la ha aplicado a otros componentes, como la memoria o el ancho de banda). Su artífice, en 1965, fue Gordon Moore en 1965. Por entonces era director de Fairchild Semiconductor y tres años más tarde fundaría Intel junto con Noyce.

Moore aseguró que el número de transistores por pulgada en circuitos integrados se doblaría anualmente durante las siguientes dos décadas. Algo más tarde modificó su aseveración al afirmar que se doblaría cada 18 meses. Esta progresión de doblar la capacidad de los microprocesadores cada año y medio, es lo que se considera la Ley de Moore. La consecuencia directa es que los precios bajan al mismo tiempo que las prestaciones suben. Algo que todos hemos podido comprobar a lo largo de los últimos años.

Etiquetas: Intel, chip, microprocesador, procesador

Fuente: http://www.consumer.es/web/es/tecnologia/hardware/2005/03/17/140483.php