Computación Cuántica, óptica y biomolecular
Enviado por MrHJ • 6 de Agosto de 2019 • Documentos de Investigación • 2.971 Palabras (12 Páginas) • 210 Visitas
Índice
Índice I
Índice de Figuras I
Introducción 1
Contenido 2
1. Computación cuántica 2
1.1 Bases de una computadora cuántica 2
1.2 Computadora cuántica IBM Q System One 4
2. Computación óptica 5
2.1 Que es una computadora óptica 5
3. Computación Biomolecular 6
3.1 Propiedades computacionales estructurales del ADN 6
3.2 El ADN como estructura única de datos 6
3.3 El ADN comparado con los componentes de silicio 7
3.4 Ventajas y desventajas de la computación con ADN 8
Conclusión 9
Bibliografía 10
Índice de Figuras
Ilustración 1 What makes it ‘quantum’? 2
Ilustración 2 Construcción de los IBM Q System One en cajas de cristal herméticas. 4
Ilustración 3 Interior del IBM Q System One. 4
Ilustración 4 Leonard Adleman con su computadora basada en ADN. 7
Introducción
Actualmente las computadoras se han vuelto herramientas que forman parte de nuestra vida cotidiana. Ya no solo están presentes en universidades, oficinas y laboratorios, sino que en la mayoría de las casas hay presente una computadora, mas precisamente hoy en día la mayoría trae un teléfono celular en el bolsillo.
Las computadoras modernas nos permiten almacenar nuestros datos, comunicarnos con otras personas, grabar y tomar fotografías, etc., sin embargo, el propósito original de estas es el realizar cálculos; y por el gran avance tecnológico de hoy en día, con el aumento de la velocidad y la potencia de las mismas, se podría pensar que no hay límites, sin embargo, si que estamos alcanzando el punto donde comienzan a verse los limites de este desarrollo exponencial, lo que nos lleva a buscar otras maneras de realizar la computación, en este documento veremos tres de estas propuestas, la computación cuántica, basada en los cuantos, la computación óptica, basada en fotones de la luz, y la computación biomolecular, basada en el ADN.
Contenido
1. Computación cuántica
1.1 Bases de una computadora cuántica
A principios del siglo XX, Planck y Einstein proponen que la luz no es una onda continua, sino que está dividida en pequeños paquetes o cuantos.
“Cuanto: Cantidad indivisible de energía, proporcional a la frecuencia del campo al que se asocia.” (RAE)
Es decir, una cantidad discreta más pequeña de energía que puede ser absorbida, propagada o emitida por la materia.
Pero a lo largo de los años, otros físicos fueron desarrollándola y llegando a conclusiones sorprendentes sobre la materia, de las cuales interesarán dos: la superposición de estados y el entrelazamiento.
Para entender la importancia de estas dos conclusiones debemos comprender el funcionamiento de las computadoras “clásicas”. La unidad básica de información es el bit, que puede tener dos estados posibles (1 o 0) y con los que podemos realizar varias operaciones lógicas. Juntando n bits podemos representar números y operar sobre esos números, pero con limitaciones: sólo podemos representar hasta 2n estados distintos, y si queremos cambiar x bits tenemos que realizar al menos x operaciones sobre ellos, en otras palabras, no hay forma de cambiarlos sin tocarlos.
Por lo tanto, la superposición y el entrelazamiento nos permiten reducir esas limitaciones: con la superposición podemos almacenar muchos más que sólo 2n estados con n bits cuánticos (qubits), y el entrelazamiento mantiene fijas ciertas relaciones entre qubits de tal forma que las operaciones en un qubit afectan forzosamente al resto. [pic 3][pic 4]
Sin embargo, con respecto a la superposición, tal y como demostraba Alexander Holevo en 1973, aunque tengamos muchos más estados que podemos guardar en n qubits, en la práctica sólo podemos leer 2n distintos. En base a la computación cuántica, un qubit no vale sólo 1 o 0 como un bit normal, sino que puede ser un 1 en un 80% y un 0 en un 20%. El problema es que cuando lo leemos sólo podemos obtener 1 o 0, y las probabilidades que tenía cada valor de salir se pierden porque al medirlo lo hemos modificado.
Esa discrepancia entre la información que guardan los qubits y la que podemos leer nosotros llevaba a Benioff y a Feynman a demostrar que un ordenador clásico no sería capaz de simular un sistema cuántico sin una cantidad desproporcionada de recursos, y a proponer modelos para un ordenador cuántico que sí fuese capaz de hacer esa simulación.
Esos ordenadores cuánticos probablemente no serían más que una curiosidad científica sin el segundo concepto, el entrelazamiento, que permite desarrollar dos algoritmos bastante relevantes: el temple cuántico en 1989 y el algoritmo de Shor en 1994. El primero permite encontrar valores mínimos de funciones, el cual tiene aplicaciones en inteligencia artificial y aprendizaje automático. Por ejemplo, si conseguimos codificar la tasa de error de una red neuronal como una función a la que podamos aplicar temple cuántico, ese valor mínimo nos dirá cómo configurar la red neuronal para que sea lo más eficiente posible.
El segundo algoritmo, el algoritmo de Shor, nos sirve para descomponer un número en sus factores primos de manera mucho más eficiente que lo que podamos lograr en un ordenador normal. Esto podría tener poco interés a simple vista, sin embargo, el RSA (Rivest, Shamir y Adleman, desarrollado en 1979), uno de los algoritmos más usados para proteger y cifrar datos en Internet, se basa en factorizar números en factores primos muy grandes, por lo tanto, un ordenador cuántico con suficientes qubits dejaría completamente obsoletos este y muchos sistemas más de cifrado.
...