sábado, 4 de agosto de 2012


El fin de la Ley de Moore

"There is no reason anyone would want a computer in their home." Ken Olson, president, chairman and founder of Digital Equipment Corp..
Según la ley de Moore, y perdón por repetirla, la cantidad de transistores por unidad de superficie se suplica cada 18 meses. La cantidad de transistores es proporcional a la velocidad de procesasmiento por lo que el poder computacional se duplica cada ese período de tiempo.
Esto fue verdad hasta hace unos 4 años. Hace 4 o 5 años la velocidad de los microprocesadores se estancó rondando los 3.5GHz. Entonces, ¿lo exponencial de la tecnología, sobre la que está planteado todo el concepto de la singularidad muere acá? ¿En vez de una curva exponencial no era más que una miserable curva “S”?
Ley de Moore vs. Velocidad de Procesamiento

La verdad es que el límite no lo están poniendo los transistores, el límite a la velocidad lo está poniendo la termodinámica. Nos tenemos que deshacer de la enorme cantidad de calor que generan los circuitos y, con las arquitecturas que usamos ahora, no se puede. Se necesita un salto de tecnología para poder seguir mejorando las velocidades.

Mientras tanto, los productores de microprocesadores estuvieron escondiendo el problema de una manera elegante. Pusieron primero dos, después cuatro, ahora ocho núcleos por pastilla. Pero cada núcleo sigue rondando los 3.5GHz.

Ante este problema surgen dos horizontes posibles: la computación cuántica y la computación reversible. La primera, para los que estamos en el tema, se torna algo místico. Pretende usar las propiedades cuánticas de los fotones dejando de usar bits normales para usar qbits, que en vez de calóricos pulsos eléctricos usa rápidos pulsos lumínicos que, aprovechando su capacidad de polarización puede procesarse una cantidad de información nunca antes vista.

Hace una década (si no más) que los principales laboratorios se devanan los sesos pensando cómo implementarla. La arquitectura es realmente diferente y se encuentran cosas “extrañas” como la capacidad de solapamiento de los bits. Un qbit puede ser 0, 1 o una mezcla de ambos. Esto permitiría con una máquina de 16 qbits, por ejemplo, probar todas las combinaciones posibles en un sólo ciclo de reloj. O sea, rompeería una clave de 16 bits en 1/3.500.000.000 segundos (algo así como un 3 en la décima posición después de la coma decimal).

Otra opción que se baraja, aunque a mi criterio como solución intermedia hasta llegar a la otra, es la computación reversible. Agregando un poco de circuitería y mucho de imaginación se pueden hacer operaciones reversibles a nivel electrónico. Haciendo las cuentas para atrás, una vez hechas para adelante, se entregaría energía de nuevo al sistema manteniendo un poco más controlada la termodinámica general del cálculo. Es decir, al devolver energía “deshaciendo” las cuentas, enfriaríamos el sistema con una pequeña perdida total.

La computación reversible también requiere un rediseño profundo de la lógica aritmética de los procesadores actuales, que ningún fabricante parece estar dispuesto a pagar. Aplicando esto se iría algún paso para atrás para dar dos para adelante, según indican estudios que se vienen haciendo desde la década del 70.

Necesitamos computadoras más rápidas. Cinco años de estancamiento son siglos medidos en la velocidad actual del mundo. Veremos quién se anima y quién gana en la carrera por los ciclos de procesador.

1 comentario: