COMPUTACIÓN CUÁNTICA
Enviado por rikdark • 23 de Febrero de 2015 • 4.221 Palabras (17 Páginas) • 228 Visitas
INTRODUCCIÓN
La computación cuántica es lo que se obtiene de la convergencia de dos teorías tan fascinantes
como la cuántica y la computación. Los mismos conceptos que hacen que la primera haya sido
tan discutida en sus inicios parece que abren un nuevo horizonte a la segunda. Seguidamente,
voy a ofrecer una visión lo más simple y concisa posible y a la vez completa, a nivel de
licenciado, sobre este campo.
A mediados de la década de los 40 toma impulso la ciencia de la información, pronto parece
claro que el concepto propio de información contiene un significado mucho más profundo. De
repente, se hace importante conocer cómo la naturaleza previene o permite que la
información se exprese o sea manipulada. ¿Cuánto ocupa un bit? ¿Cuántos recursos (energía,
masa,...) son necesarios para transmitir un cierto tamaño de información dado? Y qué hay del
‘ruido’, ¿es posible enviar satisfactoriamente información a través de un canal ‘ruidoso’
(entiéndase ruido como interferencia)?
En esos años, Shannon, Golay y Hamming presentan las bases de la codificación y la corrección
de errores en la información. Simultáneamente, y no por casualidad, nace la computación. A
mediados de los años 30 Alan Turing presenta la ‘maquina universal de Turing’(1)
, basada en el
trabajo de Charles Babbage en el siglo XIX.
Más allá de los usos iniciales en decriptación-encriptación y otros usos militares, la
computación se hizo cada vez importante en el ámbito científico. Al principio se centró en la
resolución de algunas proposiciones matemáticas, como por ejemplo la conjetura ‘fuerte’ de
Goldbach (cualquier número entero par mayor que 2 puede descomponer como suma de 2
números primos) pero pronto se extendió y hoy en día es un recurso valoradísimo en todos los
aspectos cotidianos. Los avances posteriores representaron un avance enorme en cuanto a
tamaño y velocidad, pero no variaron sustancialmente el concepto esencial de lo que era una
computadora. La computación cuántica, en cambio, sí que transforma el ‘núcleo’ conceptual
de la computación.
En los años siguientes, se pone de manifiesto las importantes correlaciones entre sistemas
cuánticos separados que han interaccionado en (y sólo en) el pasado. El grado de correlación
en estos sistemas es mayor que el que podría ser previsto en base a cualquier ley física que
describa interacciones locales.
El desarrollo de todas estas teorías llevó primeramente a la criptografía cuántica, justo cuando
la computación cuántica aun se encontraba en estado ‘fetal’.
El desarrollo teórico del ‘qubit’ por Benjamin Schumacher (5), y el trabajo de Deutsch en 1985 (6)
(presentando las ‘puertas cuánticas’, los análogos a las puertas lógicas de la computación
clásica) junto con el desarrollo de los primeros algoritmos para la computación cuántica y el
desarrollo de un sistema para corregir errores en la transmisión de información de forma
cuántica (mediados de los 90) decidieron a la comunidad científica a apostar por esta
disciplina.Más allá de la teoría, los esfuerzos actuales también incluyen el diseño de dispositivos físicos
capaces de llevar a cabo la llamada computación cuántica. En los siguientes capítulos voy a
adentrarme en los principales aspectos apuntados en esta breve introducción.
TEORÍA CLÁSICA DE LA INFORMACIÓN (TCI)
De la misma forma que en determinadas circunstancias, aproximamos algunas leyes cuánticas
a sus hermanas clásicas, es necesario conocer las bases de la computación clásica y la teoría
clásica de la información, antes de definir sus análogos cuánticos.
Existen tres ideas centrales en la teoría clásica de la información que deben ser transportadas
al contexto cuántico:
-El problema más básico en esta teoría es obtener una medida elemental de información:
La máxima cantidad de información que puede ser almacenada por una variable que puede
tomar N valores diferentes es log2(N). De esta forma, una variable doble-evaluada contiene
una unidad de información. Una unidad de información se llama bit. Los dos valores que puede
tomar un bit son 0 y 1.
-Por otro lado, debemos poder codificar secuencias enteras de información mediante fuentes
idénticas e independientes, en este caso bits, de forma que cualquier secuencia de bits va a
transportar un cierto tamaño de información (coherente o no, dependiendo del mensaje).
-No es necesario que el codificado sea totalmente exento de error, es suficiente que la
fidelidad del mensaje sea cercana a 1:
Se define fidelidad (F) como la probabilidad de que el mensaje decodificado sea idéntico al
mensaje anterior a la codificación. De esta forma, la probabilidad de error será: 1-F
Si podemos enviar a través del canal más bits de los estrictamente necesarios, la fidelidad se
podrá hacer arbitrariamente cercana a 1. Si no podemos usar suficientes bits de información,
la fidelidad será cercana a 0. Este hecho es muy común en lo cotidiano, si alguien no es capaz
de escuchar lo que digo, se lo voy a repetir tantas veces sea necesario para que el mensaje sea
correctamente transmitido y por lo tanto, tenga fidelidad 1. Este teorema es particularmente
interesante ya que a priori podemos compensar cualquier ‘ruido’ en el canal mediante una
secuencia suficientemente larga de bits.
TEORÍA CLÁSICA DE LA COMPUTACIÓN (TCC)
En este momento, nos conciernen cuestiones como: ¿qué es computable? ¿Cuántos recursos
son necesarios? La segunda pregunta la puede resolver cualquier usuario de ordenador:
memoria y procesador. De forma general, la computación será difícil e inefectiva si los recursos
necesarios crecen exponencialmente con el tamaño del input (cantidad de información
necesaria para especificar el problema), partiendo de esta máxima, se diseñan los ordenadores a partir del uso del sistema binario, descartando el sistema unitario (1 variable) o el decimal
(10 variables). Esta elección simplifica mucho el diseño de un ordenador y su sistema de
análisis. Para manipular los bits, se definen las puertas lógicas de forma que:
-Cualquier transformación de n bits puede ser llevada a cabo mediante sucesivas
transformaciones de 1 o 2 bits.
-Se definen un total de 16 puertas lógicas capaces
...