Computacion Cuantica
Enviado por CodeGustavo • 2 de Mayo de 2013 • 2.406 Palabras (10 Páginas) • 355 Visitas
LComputación cuántica
Yuri Rubo y Julia Tagüeña
La creación de una computadora cuántica promete revolucionar la ciencia y la tecnología. Sin embargo, hay muchos obstáculos que vencer para realizar este sueño.
Las computadoras se han vuelto parte de nuestra vida cotidiana. Están presentes no sólo en las universidades, oficinas y escuelas, sino en las casas de muchas personas. Las computadoras modernas almacenan nuestros datos, nos comunican con los amigos, sacan fotos y sirven para escuchar música. Sin embargo, no hay que olvidar su propósito original: hacer cálculos. Ha habido recientemente un enorme avance en la computación numérica. Cada año aparecen procesadores más rápidos y debemos tirar a la basura las computadoras que orgullosamente compramos hace poco tiempo. ¿Qué nos depara el futuro?
El aumento en la velocidad y la potencia de las computadoras en los últimos años y los efectos de esta tecnología son tan espectaculares, que uno podría pensar que no tienen límites. Y ni siquiera hace falta tomar en cuenta los cambios que las computadoras han producido en el comercio y la economía. Basta considerar el efecto de las computadoras en la ciencia para darse cuenta de que han cambiado nuestra manera de estudiar la naturaleza. Hoy en día las computadoras nos permiten simular, por ejemplo, colisiones de galaxias y la formación de las primeras estrellas. Así podemos estudiar y entender estos sucesos sin necesidad de que ocurran ante nuestros ojos. Podemos decir que los científicos cuentan con una nueva herramienta, además de las tradicionales (la teoría y la experimentación): la ciencia computacional.
El lenguaje natural de las computadoras
Básicamente, no hay diferencia entre las primeras computadoras y las modernas. Todas usan el sistema de numeración binario para codificar y manipular información. En la escuela aprendemos a contar con el sistema decimal. En este sistema, los números se construyen con 10 símbolos fundamentales (0, 1, 2, 3, 4, 5, 6, 7, 8, 9) que, ubicados en distintas posiciones en el número, cuantifican las unidades, decenas, centenas… que contenga la cantidad en cuestión. Seguramente es el más común porque tenemos diez dedos. El sistema binario, en cambio, tiene sólo dos símbolos, el 0 y el 1, y es el más sencillo posible. En el sistema binario las posiciones no indican unidades, decenas, centenas, etecétera (que son las potencias de 10: 10 0 , 10 1 , 10 2 …), sino potencias de 2: 2 0 , 2 1 , 2 2, 2 3 …. Por ejemplo, en notación binaria los números 0, 1, 2, 3, 4 se escriben así: 0,1,10,11,100. Para hacer operaciones aritméticas en binario basta recordar que en esa notación 1 más 1 es igual a 10 y que 1 multiplicado por 1 es 1. En el sistema decimal, en cambio, tenemos que memorizar muchas sumas y multiplicaciones.
El elemento fundamental de todas las computadoras es una celda de memoria llamada bit (contracción de binary digit, o “dígito binario” en inglés), que puede existir en dos estados, normalmente denotados por 0 y 1. Técnicamente estos bits se relacionan con unos dispositivos electrónicos (transistores) que representan los estados 0 y 1 interrumpiendo o dejando pasar una corriente eléctrica. La notación binaria es el lenguaje natural de las computadoras. Pero tiene un problema: que los números, salvo los más pequeños, son muy largos (por ejemplo, el número 40 en binario se escribe 101000). Para manipular la información con más facilidad se define el byte, un grupo de ocho bits.
El proceso de computación en general consiste en aplicar una secuencia de operaciones a ciertos bits. La regla que dice qué bits intervienen y en qué orden se llama algoritmo. Cada cálculo particular tiene un algoritmo, definido por el programador usando un lenguaje computacional. Las computadoras que funcionan aplicando algoritmos a información codificada en bits se llaman computadoras clásicas. Las computadoras clásicas (todas las que existen hoy, por rápidas o complejas que sean) son equivalentes a una máquina de Turing, modelo teórico de computadora descrito por Alan Turing en 1936 y perfeccionado por John von Neumann en 1940.
Límites de las computadoras clásicas
La máquina de Turing, y por lo tanto todas las computadoras de hoy, funcionan de acuerdo con las leyes de la llamada física clásica. Ésta prescribe que los bits tengan uno de dos valores bien definidos, es decir, que los transistores operen como puertas que se abren o se cierran, dejando pasar o interrumpiendo la corriente, sin ambigüedades. Pero la mecánica cuántica, teoría que describe el comportamiento de la materia en la escala de los átomos y las partículas subatómicas como el electrón, ha demostrado que nuestro mundo es más complicado.
Richard Feynman, uno de los físicos teóricos más brillantes del siglo pasado, reflexionó en 1982 acerca de las limitaciones de las computadoras clásicas. Le interesaba, en particular, el problema de hacer simulaciones del mundo real, que es cuántico a fin de cuentas, por medio de computadoras clásicas. ¿Se puede? Simular un fenómeno por medio de una computadora exige que le proporcionemos a ésta las ecuaciones matemáticas que describen el fenómeno. La descripción matemática de los fenómenos cuánticos es la ecuación de Schrödinger. Se trata de una ecuación diferencial que una computadora clásica puede manipular. En otras palabras, nada impide resolver ecuaciones de movimiento cuántico con una computadora clásica. Pero la dificultad, como indicó Feynman, es que sólo podríamos resolver problemas muy simples y de poco interés, en los que intervienen sólo unas cuantas partículas (en un sistema cuántico de interés hay miles de millones de partículas). Si el número de partículas aumenta, la capacidad de la máquina debe aumentar exponencialmente. Para simular procesos cuánticos no triviales la computadora clásica tendría que ser gigantesca, porque su capacidad aumenta en forma lineal. Además de plantear esta crítica de la física computacional clásica, Richard Feynman Propuso la utilización de sistemas cuánticos sencillos, llamados qubits (de quantum bits), como elementos estructurales básicos de una nueva computadora. Así nace el sueño de una computadora cuántica.
Los números primos y la criptografía
Los números primos son los que sólo se pueden dividir entre 1 y entre sí mismos. No hay algoritmos sencillos para generar números primos, comprobar si un número dado es primo ni descomponer un número en un producto de números primos (o sea, factorizarlo). Las computadoras clásicas usan el método de ensayo y error. La dificultad del cálculo aumenta exponencialmente con el valor de los números por generar
...