La historia del chip de silicio

Si bien las primeras computadoras surgieron antes de su invención, el microchip de silicio es el avance que hizo posible la era de la computadora moderna. La capacidad de crear una placa de circuito miniaturizada a partir de este semiconductor fue lo que le dio a las computadoras grandes avances en velocidad y precisión, transformándolas de dispositivos del tamaño de una habitación a máquinas que podían sentarse en un escritorio o en su regazo.

Diseño de circuito temprano

Las primeras computadoras usaban dispositivos llamados tubos de vacío en sus diseños de circuitos, que servían como puertas para encender y apagar las corrientes para dirigir la función de la computadora y almacenar información. Sin embargo, estos eran componentes frágiles y con frecuencia fallaban durante el funcionamiento normal. En 1947, la invención del transistor reemplazó al tubo de vacío en el diseño de computadoras, y estos pequeños componentes requerían un material semiconductor para funcionar. Los primeros transistores contenían germanio, pero finalmente el silicio se convirtió en el semiconductor elegido por los arquitectos informáticos.

Ventajas del silicio

Como semiconductor, el silicio tiene propiedades eléctricas que se encuentran entre los conductores y las resistencias. Los fabricantes pueden alterar químicamente el silicio base para cambiar sus propiedades eléctricas, haciendo que conduzca la electricidad según las necesidades específicas de la unidad. Esto permitió a los diseñadores de computadoras crear muchos de sus componentes con el mismo material, en lugar de requerir cables separados y otros materiales para lograr los mismos resultados.

El Microchip

Desafortunadamente, el complejo circuito requerido para computadoras poderosas todavía significaba que los dispositivos tenían que ser extremadamente grandes. En 1958, sin embargo, a Jack Kilby se le ocurrió la idea de crear el circuito que formaba una computadora en miniatura, utilizando un solo bloque de semiconductor e imprimiendo el circuito en la parte superior en metal en lugar de crear el circuito a partir de cables y componentes separados. Seis meses después, a Robert Noyce se le ocurrió la idea de colocar el metal sobre el semiconductor y luego grabar las partes innecesarias para crear el circuito integrado. Estos avances redujeron en gran medida el tamaño de los circuitos de computadora e hicieron posible producirlos en masa por primera vez.

Fabricación de chips de silicio

Hoy en día, los fabricantes de chips de silicio utilizan luz ultravioleta de alta potencia para grabar sus chips. Después de colocar una película fotosensible en una oblea de silicio, la luz brilla a través de una máscara de circuito y marca la película con la imagen del diseño del circuito. El fabricante corta las áreas desprotegidas y luego coloca otra capa de silicona y repite el proceso. Finalmente, una última capa de película identifica el circuito de metal que tapa el chip, completando el circuito eléctrico. Los chips de silicio modernos pueden contener muchas capas diferentes con diferentes propiedades eléctricas para adaptarse a las necesidades eléctricas del diseño de la computadora.