COMPUTACIÓN CUÁNTICA

La computación cuántica es un paradigma
de computación distinto al de la computación clásica. Se
basa en el uso de qubits en lugar de bits,
y da lugar a nuevas puertas lógicas que hacen posible
nuevos algoritmos.
Una misma tarea puede tener diferente complejidad
en computación clásica y en computación cuántica, lo que ha dado lugar a una
gran expectación, ya que algunos problemas intratables pasan a ser tratables.
Mientras que un computador clásico equivale a una máquina de Turing,1
un computador cuántico equivale a una máquina de Turing
cuántica.
Origen de la
computación cuántica
A medida que evoluciona la tecnología, aumenta la
escala de integración y caben más transistores en el mismo espacio; así se
fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es,
mayor velocidad de proceso alcanza el chip. Sin embargo, no podemos hacer los
chips infinitamente pequeños. Hay un límite en el cual dejan de funcionar
correctamente. Cuando se llega a la escala de nanómetros, los
electrones se escapan de los canales por donde deben circular. A esto se le
llama efecto túnel.
Una partícula clásica, si se encuentra con un
obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que
son partículas cuánticas y se comportan como ondas, existe la
posibilidad de que una parte de ellos pueda atravesar las paredes si son
demasiado finas; de esta manera la señal puede pasar por canales donde no
debería circular. Por ello, el chip deja de funcionar correctamente.
En consecuencia, la computación digital
tradicional no tardaría en llegar a su límite, puesto que ya se ha llegado a
escalas de sólo algunas decenas de nanómetros. Surge entonces la necesidad de
descubrir nuevas tecnologías y es ahí donde la computación cuántica entra en
escena.
La idea de computación cuántica surge en 1981,
cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el
entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos,
se trabaja a nivel de cuánto. En la computación digital,
un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación
cuántica, intervienen las leyes de la mecánica cuántica,
y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede
ser 0 y 1 a la vez (dos estados ortogonales de una partícula
subatómica). Eso permite que se puedan realizar varias operaciones a la vez,
según el número de qubits.
El número de qubits indica la cantidad de bits
que pueden estar en superposición. Con los bits convencionales, si teníamos un
registro de tres bits, había ocho valores posibles y el registro sólo podía
tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la
partícula puede tomar ocho valores distintos a la vez gracias a la
superposición cuántica. Así, un vector de tres qubits permitiría un total de
ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial
con respecto al número de qubits.
Para hacerse una idea del gran avance, un
computador cuántico de 30 qubits equivaldría a un procesador convencional de 10
teraflops (10 millones de millones de operaciones en coma
flotante por segundo), cuando actualmente las computadoras trabajan en el orden
de gigaflops (miles de millones de operaciones).
Problemas de la
computación cuántica
Uno de los obstáculos principales para la
computación cuántica es el problema de la decoherencia cuántica,
que causa la pérdida del carácter unitario (y, más específicamente, la
reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de
decoherencia para los sistemas candidatos, en particular el tiempo de
relajación transversal (en la terminología usada en la tecnología de resonancia
magnética nuclear e imaginería por resonancia magnética) está típicamente entre
nanosegundos y segundos, a temperaturas bajas. Las tasas de error son
típicamente proporcionales a la razón entre tiempo de operación frente a tiempo
de decoherencia, de forma que cualquier operación debe ser completada en un
tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo
bastante baja, es posible usar eficazmente la corrección de errores
cuántica, con lo cual sí serían posibles tiempos de cálculo más largos
que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita
con frecuencia una tasa de error límite de 10-4, por debajo de la
cual se supone que sería posible la aplicación eficaz de la corrección de
errores cuánticos.
Otro de los problemas principales es la
escalabilidad, especialmente teniendo en cuenta el considerable incremento en
qubits necesarios para cualquier cálculo que implica la corrección de errores.
Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz
de manejar un número lo bastante alto de qubits para resolver problemas
computacionalmente interesantes hoy en día.
Hardware para
computación cuántica
Aún no se ha resuelto
el problema de qué hardware sería el ideal para la computación cuántica. Se ha
definido una serie de condiciones que debe cumplir, conocida como la lista
de Di Vincenzo, y hay varios candidatos actualmente.
Condiciones a cumplir
- El
sistema ha de poder inicializarse, esto es, llevarse a un estado de
partida conocido y controlado.
- Ha
de ser posible hacer manipulaciones a los qubits de forma controlada, con
un conjunto de operaciones que forme un conjunto universal de puertas
lógicas (para poder reproducir cualquier otra puerta lógica posible).
- El
sistema ha de mantener su coherencia cuántica a lo largo del experimento.
- Ha
de poder leerse el estado final del sistema, tras el cálculo.
- El
sistema ha de ser escalable: tiene que haber una forma definida de
aumentar el número de qubits, para tratar con problemas de mayor coste
computacional.
Candidatos
- Espines
nucleares de moléculas en disolución, en un aparato de RMN.
- Flujo
eléctrico en SQUIDs.
- Iones
suspendidos en vacío .
- Puntos
cuánticos en superficies sólidas.
- Imanes
moleculares en micro-SQUIDs.
- Computadora
cuántica de Kane.
- Computación
adiabática, basada en el teorema adiabático.
No hay comentarios:
Publicar un comentario