Introducción a la computación cuántica y a la tecnología blockchain

Fue el mejor de los tiempos, fue el peor de los tiempos

fue la edad de la sabiduría, fue la edad de la necedad,

era la época de la fe, era la época de la incredulidad,

era la temporada de la luz, era la temporada de las tinieblas,

era el manantial de la esperanza, era el invierno de la desesperación.

Charles Dickens

Estamos seguros de que Charles Dickens no previó la computación cuántica o la tecnologia Blockchain. Sin embargo, estas palabras de hace 160 años todavía se aplican a los reflujos y flujos que hemos visto con estas dos tecnologías. La computación cuántica ha existido durante casi un siglo. Por el contrario, Blockchain nació por primera vez en 2008. A diferencia de Blockchain que nos ha golpeado en los últimos años, los principios cuánticos han existido durante varias décadas. La física cuántica ha sido un tema muy debatido y es fundamental para la computación cuántica. Sin embargo, el campo de la informática cuantica ha cobrado impulso en los últimos tiempos. A pesar de las diferencias en la edad de las dos tecnologías, han tenido interesantes historias. Por ejemplo, la mayoría de las personas que entienden Blockchain están de acuerdo en que el marco es robusto. Sin embargo, la tecnología aún está lejos de ser perfecta, y eso
también es cierto para la computación cuántica.

El impulso detrás de la computación cuántica en la última década ha sido en gran parte
debido a los avances en algoritmos e infraestructuras. Sin embargo, también se debe a la era de los datos en la que vivimos y a algunos de los casos de uso de las computadoras son cada vez más claras y relevantes. En este capítulo, se cubrirán las dos historias de estas dos tecnologías que han tenido pasados controvertidos. Su lugar en la moderna sociedad como tecnologías transformadoras es difícil de discutir.

El propósito de estos posts es explorar el sustrato comun entre la computación cuántica
y Blockchain. Las dos tecnologías se basan fundamentalmente en la criptografía. Sin embargo cuando miramos las aplicaciones del mundo real de estas tecnologías, son bastante complementarios entre sí.
En este post, discutiremos conceptos técnicos que son fundamentales para la tecnología informática cuantica y Blockchain. Profundizaremos en la computación cuántica y su historia, y luego tocaremos algunos de los conceptos clave de Blockchain.
Uno de los temas clave que me gustaría establecer en ests posts es que la tecnología es
solo un medio para un fin. Si bien es importante comprenderla y sentirse emocionado por
las posibilidades, una tecnología solo puede ser especial si puede marcar la diferencia para la vida de las personas. Hay mucha publicidad en las redes sociales de que la computación cuántica acabaria con la tecnologia Blockchain. En la era de los datos, ambas tecnologías tienen cabida. La computación cuántica puede mejorar enormemente nuestras habilidades para resolver problemas. En la era de las redes sociales, necesitará estas tecnologías para hacer frente a grandes volúmenes de datos y comprender las interdependencias entre las variables que analizamos. La computación cuántica, cuando
se generaliza, debería abordar esas áreas. En Blockchain la integridad de los datos es esencial. Se mantiene un registro inmutable de cada transacción. Esa es la ventaja fundamental de Blockchain sobre los mecanismos de almacenamiento de datos que hemos utilizado en el pasado.

Vamos a comenzar con los principios de la física cuántica como base del procesamiento de la información cuántica. La física cuántica proporciona los principios fundamentales que explican el comportamiento de partículas como átomos, electrones, fotones y positrones. Una partícula microscópica se define como un pequeño trozo de materia invisible a simple vista. En el proceso de describir la historia de la mecánica cuántica, se van a abordar varios de sus conceptos fundamentales. El descubrimiento y la evolución de la comprensión científica de estos conceptos ha ayudado a dar forma al pensamiento más moderno en torno a la computación cuántica. La relevancia de estos conceptos para la computación cuántica quedará clara a medida que este post se desarrolla. Sin embargo, en esta etapa la atención se centra en cómo este campo complejo ha continuado desconcertando a las grandes mentes durante casi 100 años.

La mecánica cuántica se ocupa de la naturaleza en las escalas más pequeñas; explorando interacciones entre átomos y partículas subatómicas. A lo largo de buena parte del siglo XIX y principios del siglo XX, los científicos intentaban resolver el desconcertante
comportamiento de partículas, materia, luz y color. Un electrón gira alrededor del
núcleo de un átomo, y cuando absorbe un fotón (una partícula de luz), salta a un nivel de energía diferente. Los rayos ultravioleta deberian proporcionar suficiente energía para noquear electrones de un átomo, produciendo una carga eléctrica positiva debido a la eliminación del electrón cargado negativamente.
Los científicos observaron que un electrón absorbe un fotón de unas frecuencias limitadas. Un electrón que absorbe un tipo específico de fotón resulta en colores asociados a gases calentados. Este comportamiento fue explicado en 1913 por el danés científico Niels Bohr. La investigación adicional en este campo condujo al surgimiento de los principios de la mecánica cuántica. Bohr postuló que los electrones solo podían girar en ciertas órbitas, y los colores que absorbían dependían de la diferencia entre las órbitas del atomo. Por este descubrimiento, fue galardonado con el premio Nobel en 1922. Más
Lo que es más importante, esto ayudó a cimentar la idea de que el comportamiento de los electrones y átomos era diferente de la de los objetos que son visibles para el ojo humano (objetos macroscópico). A diferencia de la física clásica, que definió el comportamiento de los objetos macroscópicos, la mecánica cuántica involucró transiciones instantáneas basadas en reglas probabilísticas en lugar de leyes mecanicas exactas.
Esto formó la base de estudios centrados en el comportamiento e interacción de partículas subatómicas como los electrones. A medida que la investigación identifico las diferencias entre la física clásica y la física cuántica, se aceptaron ampliamente que los principios cuánticos podrían usarse para definir las idiosincrasias de la naturaleza (por
ejemplo: agujeros negros). Dos grandes mentes, Albert Einstein y Stephen Hawkins,
han contribuido a este campo a través de su trabajo sobre la relatividad y la gravedad cuántica. Veamos ahora cómo Albert Einstein veía la física cuántica y sus conceptos.

los problemas cuanticos de Einstein

Es posible que tengamos que retroceder algunos años en la historia para comprender cómo Einstein consiguió irrumpir en el mundo de la mecánica cuántica. Para muchos, el espacio es simplemente un vasto vacío, pero cuando se combina con el tiempo, el espacio se convierte en un rompecabezas de cuatro dimensiones que ha demostrado ser un tremendo desafío para los más grandes mentes de los siglos XIX y XX. Había unos principios en la mecánica cuántica con lo que Einstein no estaba de acuerdo, y lo expresó abiertamente.

Uno de los principios clave de la mecánica cuántica fue la Interpretación de Copenhague.
Esta interpretacion explica cómo el estado de una partícula se ve influido por el hecho de que el estado es observado; el observador influye así en el estado de la partícula. Einstein
no estaba de acuerdo con este aspecto indeterminado de la mecánica cuántica que Niels
Postuló Bohr.
En 1927, Einstein inició sus debates con Bohr en la Conferencia Solvay en Bruselas. Creía en la realidad objetiva que existía independientemente de la observación. Según los principios de la teoría cuántica, la elección de los métodos de los experimentadores
afectaban si ciertos parámetros tenían valores definitivos o eran borrosos. Einstein no podía aceptar que la luna no estaba allí cuando nadie la miraba y sentía que los principios de la teoría cuántica estaban incompletos.
Un aspecto interesante de esta naturaleza indeterminista de los objetos es que, desde pequeños tendemos a apreciar mejor estos principios. Niels Bohr creía que no tenía sentido suponer la realidad al universo en ausencia de observación. En ausencia de medición los sistemas existían como una mezcla difusa de todas las propiedades posibles, comúnmente conocidas como estados de superposición. La función matemática que describe los estados que las partículas tomadas se llama función de onda, que colapsa a un estado en el momento de la observación.
Esta batalla filosófica entre los dos científicos (Einstein y Bohr) se intensificó
en 1935 con la aparición de la propiedad del entrelazamiento. Significaba que el estado
de dos partículas entrelazadas dependían entre sí (o tenían una correlación) independientemente de lo lejos que estuvieran el uno del otro.
Como respuesta a los hallazgos de Bohr, el articulo EPR (Einstein, Podolsky, Rosen)
fue escrito en 1935 por Albert Einstein, Boris Podolsky y Nathan Rosen.
El propósito del artículo era argumentar que la mecánica cuántica no proporciona
una descripción completa de la realidad física. Podolsky se encargó de traducir al inglés, y Einstein no estaba contento con la traducción. Aparte de eso, Podolsky también filtró el informe al periódico New York Times, y Einstein estaba tan molesto que nunca volvió a hablar con Podolsky.

La paradoja EPR identificó dos posibles explicaciones para la propiedad del entrelazamiento. El estado de una partícula que afecta a otra podría deberse a propiedades compartidas e incrustadas dentro de ambas partículas, como un gen. Alternativamente, las dos partículas podrían estarse comunicando instantáneamente entre sí sobre sus estados. Se pensó que la segunda explicación era imposible, ya que esta
violaba la teoría de la relatividad especial (si las partículas estuvieran haciendo comunicaciones instantaneas, serian más rápidas que la velocidad de la luz) y el principio de localidad.

El principio de localidad establece que un objeto está influenciado únicamente por su entorno inmediato. La teoría de la relatividad especial establece que las leyes de la física son las mismas para todos los observadores que no aceleran, y Einstein mostró que la velocidad de la luz en el vacío es la misma sin importar la velocidad a la que viaja un observador

Si existiera un entrelazamiento, y si las partículas pudieran influir en el estado de cada una en una gran distancia, entonces también se consideraba que la teoría de la localidad había sido violada. Por lo tanto, el documento EPR desafió la suposición de que las partículas podrían comunicar sus estados instantáneamente y desde una gran distancia.
Por lo tanto, el informe EPR concluyó que las dos partículas entrelazadas tenían variables ocultas incrustadas en las mismas, lo que les dio a los cientificos la información para elegir estados los correlacionados de la particula observada. Albert Einstein continuó desafiando los principios de la mecánica cuántica. Einstein y Bohr no pudieron llegar a un acuerdo. En 1939, Bohr y Wheeler comenzaron a trabajar en la Universidad de Princeton y compartieron un buena relación. Wheeler era una persona agradable y podía hablar alemán. Einstein, que era el profesor en Princeton – se convirtió en vecino de Wheeler y
surgió la posibilidad de que estas grandes mentes se unieran. Wheeler vio méritos
en el punto de vista de Bohr sobre la complementariedad, donde dos partículas podrían entrelazarse. También estuvo de acuerdo con el desafío de Einstein a la teoría de que, cuando vemos partículas, las alteramos inevitablemente. A pesar de varios intentos, John Wheeler no logró idear una teoría que convenciera tanto a Bohr como a Einstein.

la desigualdad de bell

Siguiendo a gente como Einstein y Bohr, John Bell entró en el mundo cuántico en la segunda mitad del siglo XX. Nació en Belfast en 1928 y después de varios años de lidiar con las teorías de la mecánica cuántica, finalmente eligió dar el paso en 1963 cuando consiguio una licencia en la Universidad de Stanford. Bell explica que el entrelazamiento es como el comportamiento de gemelos idénticos que fueron separados en el momento del
nacimiento. Si, después de toda una vida, se reunieran, tendrían cosas en comun. Sin embargo, en 1964, Bell postulo la llamada desigualdad de Bell. A través de un conjunto de experimentos con electrones y pares de positrones y la teoría de la probabilidad, Bell demostró que la conclusión del informe EPR era incorrecta. La suposición de que las partículas tenían que tener propiedades incrustadas para explicar el entrelazamiento no parecía el camino correcto a seguir después de todo. La desigualdad de Bell fue apoyada por varios experimentos. La explicación de la probabilidad a través de los diagramas de Venn de la desiguadad de Bell es simple. Existe un experimento casero simple que puede explicar la espeluznante naturaleza de la mecánica cuántica usando una lente polarizadora utilizada en fotones.


• Observa un fondo blanco a través de una lente polarizada. Se ve gris
lo que indica que se está bloqueando el paso de cierta luz a través de la lente.
• Agregue otra lente polarizada B y observará que entra menos luz
a través de él, indicado por el fondo que se vuelve aún más oscuro.
• Ahora, al agregar otra lente polarizada C encima de A y B,
espere que el fondo blanco se vea aún más oscuro. Pero sorprendentemente, parece
más brillante que con solo A y B.
Los resultados del experimento tal vez puedan explicarse por una posibilidad. ¿Y si
la naturaleza del fotón cambia cuando pasa por un filtro? Esto podría significar que
la forma en que el fotón modifica e interactúa con los filtros posteriores también es diferente.

Explicarémos otro comportamiento extraño de las partículas de luz (fotones) usando el experimento más famoso de la mecánica cuantica más adelante en este post. Actualmente, el comportamiento de las partículas subatómicas se explica más claramente a través de los principios de la mecánica cuántica.

computadores cuanticos

Mientras las teorías que subyacen al comportamiento de las partículas en la naturaleza estaban siendo postuladas, había algunas personas que estaban empezando a pensar en la
posibilidad de simular estos comportamientos usando computadoras clásicas. En 1965, el Premio Nobel de Física fue otorgado conjuntamente a Sin-Itiro Tomonaga, Julian Schwinger, y Richard P. Feynman por su trabajo fundamental en electrodinámica cuántica, con consecuencias profundas para la física de las partículas elementales. Fue en los años 80 que Richard Feynman discutió por primera vez la idea “¿Puede una computadora clásica simular cualquier sistema físico? “. Se considera que ha sentado las bases de la Computación a través de su conferencia titulada “Simulación de la física con computadoras”.
En 1985, el físico británico David Deutsche destacó el hecho de que la version teorica de la maquina de Turing no podría extenderse a la tecnología de la mecanica cuántica. ¿Quizas te preguntes, que es la máquina de Turing?
En 1936, Alan Turing ideó una versión simple de una computadora llamada
Máquina de Turing. Tenía una cinta con varias cajas y bits codificados en cada uno de los
ellos como “0” sy “1” s. Su idea era que la máquina funcionara por encima de la cinta, mirando un cuadrado a la vez. La máquina tenía un libro de códigos que tenía un conjunto de reglas, y, según las reglas, se establecerían los estados (“0” sy “1”) de cada una de estas casillas. Al final del proceso, los estados de cada una de las casillas darían la respuesta al problema que la máquina ha resuelto. Muchos consideran que esto ha sentado las base para las computadoras que usamos hoy.
Sin embargo, David Deutsche destacó que las teorías de Turing se basaban en
física clásica (0 y 1), y una computadora basada en la física cuántica podia ser más potente que una computadora clásica. La idea de Richard Feynman comenzó a cobrar fuerza cuando Peter Shor de Bell Laboratories inventó el algoritmo para factorizar números grandes en la computadora cuántica. Usando este algoritmo, una computadora cuántica podría descifrar incluso las recientes técnicas de criptografía como RSA, ECDSA o AES. En 1996 se ideo el algoritmo de búsqueda de Grover. En una computadora clásica,
cuando un elemento debe buscarse en una lista de N elementos, necesita, en promedio, N / 2 iteraciones para recuperar el elemento. Sin embargo, con el algoritmo de Grover, el número de las iteraciones podrían reducirse a √N. En una búsqueda en una base de datos, esto ofrecia una mejora del rendimiento de la búsqueda. Esto se considera un hito clave en el campo de la computación cuántica.

El algoritmo de Grover y el trabajo posterior en este espacio han acelerado desde entonces el entusiasmo y exageración en torno a la computación cuántica. Más recientemente, los gigantes tecnológicos IBM, Google, Intel, Microsoft y algunos otros han intensificado su trabajo en la computacion cuantica. En el CES2019, IBM mostró su fuerza mediante el lanzamiento de un sistema integrado de computación cuántica para científicos y empresas. IBM también tiene una infraestructura de computación cuántica basada en la nube que los programadores podrían usar. Podriamos ser afortunados si vivimos lo suficiente para ver de primera mano una computadora cuántica totalmente funcional.

Antes de explorar la computación cuántica, sería bueno comprender la
comportamiento de las partículas según lo descrito por la mecánica cuántica. A continuación, se describe un experimento que nos ayuda a comprender la naturaleza contraintuitiva de la teoría cuántica.

El famoso experimento de la doble rendija describe el comportamiento de fotones y partículas y cómo interactúan entre sí y con ellos mismos. Como veremos, esto planteó
un desafío para los físicos que intentaban describir su comportamiento. En el siglo XIX, un científico británico, Thomas Young, postuló que las partículas de luz viajaban en ondas, en lugar de como partículas. Estableció un experimento simple donde cortó dos rendijas en un trozo de metal y lo colocó como bloqueador entre una fuente de luz y una pantalla. Sabía que si la luz viajaba de la misma manera que las partículas, entonces
las partículas que pasaban por las rendijas golpeaban la pantalla. Los que fueron bloqueados por el metal rebotaría en la superficie y no alcanzaría la pantalla.
Efectivamente, si la luz estuviera hecha de partículas, entonces la pantalla debería verse como una spray de pintura en una plantilla. La figura de abajo muestra el experimento.

Experimento de la doble rendija de Young


Sin embargo, se asumió que la luz estaba formada por ondas, que cuando pasaban por la hendidura, interferían entre sí y formaban patrones en la pantalla. Estos patrones se correspondian a los llamados patrones de interferencias que se creaban en las ondas mecánicas.

fotones de einstein

Albert Einstein demostró una vez más ser de gran influencia en el campo de la tecnología mecanica cuántica. Propuso que la luz estaba hecha de fotones, un cuanto discreto de luz que se comportaba como una partícula. Como resultado, el experimento se repitió y
esta vez, los fotones pasaron a través de la rendija uno por uno y los patrones aún aparecieron. Esto solo podría suceder si:
• Los fotones viajaron en formas de onda.
• Todos los caminos posibles de estas formas de onda interfirieron entre sí, incluso
aunque solo uno de estos caminos podría suceder.
Esto apoyaba la teoría de que todas las realidades existen hasta que se observa el resultado, y que las partículas subatómicas pueden existir en superposición. Cuando se colocaron detectores para observar fotones pasando por las rendijas, los patrones desaparecieron. Este acto de observación de partículas colapsa las realidades en una.

dentro de un computador cuantico

La computación cuántica tiene bits cuánticos llamados qubits como unidad fundamental. En el mundo de la informática clásica, los bits toman estados 0 y 1. Los Qubits existen en estos dos estados, pero también en una combinación lineal de ambos estados llamados superposiciones. Las superposiciones pueden resolver algunos problemas más rápido que los algoritmos deterministas y probabilísticos que usamos comúnmente en la actualidad. Una diferencia técnica clave es que si bien las probabilidades deben ser positivas (o cero), los pesos en una superposición pueden ser números positivos, negativos o incluso complejos.

El otro principio importante de la mecánica cuántica que es fundamental para
comprender las computadoras cuánticas es entrelazamiento. Se dice que dos partículas
muestran entrelazamiento si una de las dos partículas entrelazadas se comporta al azar y
informa al observador cómo actuaría la otra partícula si una observación similar realizada a esta última. Esta propiedad solo se puede detectar cuando los dos observadores comparan realidades. La propiedad del entrelazamiento da a las computadoras cuánticas poderes de procesamiento adicionales y les permite funcionar mucho más rápido que las computadoras clásicas. Las computadoras cuánticas tienen similitudes y diferencias en comparación con las tradicionales de transistores que utilizan las computadoras clásicas. La investigación en computadoras cuánticas avanza para encontrar nuevas formas de qubits y algoritmos. Por ejemplo, la óptica cuántica
Los ordenadores que utilizan fotones han experimentado un progreso significativo en el mundo de la investigación desde 2017. Las computadoras cuánticas ópticas que utilizan qubits fotónicos funcionan a temperatura ambiente. Una computadora cuántica debe satisfacer los siguientes requisitos:
• Los Qubits deben superponerse
• Los Qubits deben poder interactuar entre sí
• Los Qubits deben poder almacenar datos y permitir la lectura de los datos.
Las computadoras cuánticas también muestran algunas otras características:
• Suelen funcionar a bajas temperaturas y son muy sensibles al medio ambiente
• Suelen tener una vida útil corta; las razones se explican a continuación.
Codificamos los estados qubit en partículas subatómicas, electrones en el caso de
Computadoras cuánticas semiconductoras. Hay varios métodos para crear qubits y
cada método tiene ventajas y desventajas. El tipo más común y estable de qubits se crea utilizando un bucle superconductor. Un superconductor es diferente de un conductor normal porque no hay disipación de energía (sin resistencia) como cuando la corriente pasa a través del conductor. Los circuitos superconductores operan casi a temperaturas de cero absoluto (es decir, 0 Kelvin, o -273 grados Celsius) para mantener los estados de sus electrones. Otra arquitectura de qubit donde se utilizan circuitos clásicos basados ​​en transistores es la llamada SQUID. SQUID son las siglas de Superconducting Quantum Interference Device. Se utilizan para rastrear y medir señales débiles. Estas señales solo necesitan crear cambios en los niveles de energía hasta 100 mil millones de veces más débiles que la energía necesaria para mover la aguja de una brújula. Están hechos de uniones Josephson. Una de las áreas de aplicación clave de los SQUID es la medición de campos magnéticos para imágenes del cerebro humano.

Los qubits superconductores (en forma de SQUID) tienen pares de electrones llamados
pares de Cooper que se emparejan como portadores de carga. Los circuitos utilizan voltaje para controlar el comportamiento de los electrones. Además, un circuito electrico cuántico
está definido como función de onda. Los SQUID son átomos artificiales, y para cambiar el estado de estos átomos, se utilizan láseres. Como se describió anteriormente en
este post, basado en los principios de la mecánica cuántica, sólo una luz con la frecuencia adecuada puede cambiar el estado de las partículas subatómicas. Por lo tanto, los láseres que cambian el estado de los qubits tendrán que estar sintonizado a la frecuencia de transición de los qubits.
Un qubit superconductor se puede construir a partir de un circuito simple que consta de un condensador, un inductor y una fuente de microondas para colocar el qubit en superposición. Sin embargo, hay varias mejoras de este diseño simple, y la adición de una unión Josephson en lugar de un inductor común es una mejora importante. Las uniones Josephson son inductores no lineales que permiten la selección de los dos niveles de energía más bajos del espectro de energía no igualmente espaciado. Estos dos niveles forman un qubit para el procesamiento de información cuántica. Este es un importante criterio en el diseño de circuitos qubit: la selección de los dos niveles de energía más bajos. Sin la unión de Josephson, los niveles de energía están igualmente espaciados, y eso no es práctico para qubits.
Al igual que el concepto de puerta en las computadoras clásicas, las computadoras cuánticas también tienen puertas. Sin embargo, una puerta cuántica es reversible. Una puerta cuántica común es el Hadamard (H) puerta que actúa sobre un solo qubit y desencadena la transición de su estado base a una superposición de estados.

tipos de qubits y propiedades

Hay varias variaciones de circuitos qubit según sus propiedades. Las propiedades clave que deben considerarse en el diseño de estos circuitos son:

  • Tiempo de pulso: Este es el tiempo tomado para poner un qbit en superposición. Cuanto más bajo el tiempo de pulso, mejor.
  • Tiempo de desfase: Este es el tiempo necesario para desacoplar los qubits del ruido no deseado. Cuanto menor sea el tiempo de desfase, mejor. Los tiempos de desfase más altos conducen a una mayor disipación de información.
  • Error por puerta: Como las puertas se utilizan para crear una transición en estados de qubits cuando hay una puerta defectuosa, el error puede propagarse a qubits que fueron originalmente correctos. Por lo tanto, el error por puerta debe medirse con regularidad.
  • Tiempo de decoherencia: Esta es la duración de tiempo durante la cual el estado del qubit puede ser mantenido. Los qubits iónicos son los mejores tiempos de coherencia altos, ya que son conocido por mantener el estado durante varios minutos.
  • Sensibilidad al entorno: Mientras que los qubits de semiconductores operan en bajas temperaturas, la sensibilidad de las partículas involucradas en la construcción del circuito al medio ambiente es importante. Si el circuito es sensible al entorno, la información almacenada en el qubit se corrompe fácilmente.
Circuitos Qbits

IBM lanzó recientemente la máquina de 50 qubits y también proporciona una infraestructura cuántica que los programadores pueden ingresar y codificar. También hay
varios avances en el lenguaje ensamblador cuántico que actuará como interfaz entre estas máquinas y el código que escriben los desarrolladores. La figura de arriba muestra
diferentes tipos de circuitos de qubit. Ahora hemos cubierto los fundamentos de la computación cuántica, así que pasemos a la otra tecnología en el foco de este post: Blockchain.

blockchain y criptografia

A diferencia de la computación cuántica, Blockchain ha tenido una historia relativamente corta. Varias propiedades de Blockchain tienen sus raíces en la criptografía y es fundamental comprender algunas de las terminologías empleadas para poder entender
el resto del post. Es importante comprender cómo Blockchain depende de la criptografía. Esta nos ayudaría en los posts siguientes a comprender cómo Blockchain y la computación cuantica podría chocar potencialmente en el futuro. Una descripción detallada, pero simplificada de algunos términos clave de Blockchain y criptografía son los siguientes:

hashing

El hash es un proceso en el que se ingresa una colección de datos en una función para obtener una longitud de cadena fija como salida, denominada valor hash. Los usamos todos los días. Cuando usted crea una ID de correo electrónico con una contraseña, la contraseña pasa por una función hash, se crea una cadena única, que se almacena en la base de datos del proveedor de correo electrónico. Cuando intenta iniciar sesión nuevamente, la contraseña ingresada se transfiere al algoritmo de hasheo y la cadena resultante se compara con la cadena almacenada en la base de datos del proveedor de correo electrónico. Si coinciden, puede acceder a su correo electrónico.

El hash de bitcoin

El sistema bitcoin usa una función llamada Hashcash. La prueba de trabajo de Hashcash fue inventada en 1997 por Adam Back. El hash de bitcoin utiliza dos parámetros: un nonce y un contador. El nonce es solo un número aleatorio que es agregado a la colección de datos antes de que ingrese en la función hash. El sistema bitcoin requiere que el valor hash comience con un cierto número de ceros. El desafío de encontrar el valor hash correcto aumenta exponencialmente a medida que el número de ceros aumenta. El parámetro de contador de la función Hashcash se utiliza para registrar incrementos hasta que se llega al valor hash correcto.

minando un bitcoin

Los nodos en una red bitcoin trabajan duro para encontrar el valor hash que tenga el
número de ceros deseados. Usan diferentes nonces para generar hashes, hasta que el hash correcto es generado. Este ejercicio requiere mucha potencia de computación, y cuando el se encuentra el valor hash, el nodo que lo ha logrado será recompensado con bitcoins por
haber identificando el nonce correcto.
Determinar el nonce que, cuando se somete a la función hash, da como resultado un valor hash específico dentro de un nivel de dificultad se llama minería. El nivel de dificultad
aumenta a medida que aumenta el número de ceros. La minería de bitcoins se ha vuelto más difícil a lo largo de los años a medida que se requiere más potencia de cálculo para determinar el nonce. Son solo 21 millones de bitcoins que se producirán, y en el momento de escribir esto, se han extraído alrededor de 18 millones de bitcoins. La recompensa por extraer un bloque es a 12.50 bitcoins, y se extraen alrededor de 144 bloques por día. Hay 65.000 bloques mas que se extraerán antes de que la recompensa minera se reduzca a la mitad nuevamente a 6.25 bitcoins.

un bloque

Un bloque es solo un grupo de transacciones validadas juntas. Si un montón de transacciones no pueden convertirse en un bloque a tiempo, se mueven al siguiente bloque. Los número de bitcoins que se recompensa por extraer un bloque que comenzó en 50 y se reduce a la mitad con cada 210.000 bloques extraídos.

Prueba de trabajo

El término prueba de trabajo fue acuñado por Markus Jakobsson y Ari Juels en un documento publicado en 1999. Se utilizó prueba de trabajo en el sistema bitcoin para garantizar que las transacciones se validan mediante la potencia de computacion. Después de que una cadena de bloques se ha establecido a través de este método, para piratear el bloque se requeriría una inmensa cantidad de potencia de computacion también. Además, en un sistema de prueba de trabajo, la potencia de procesamiento que tiene un nodo decide el control que el nodo tiene sobre la red. Por ejemplo, en la red bitcoin, una CPU equivale a un voto, que se puede ejercer en el momento de la toma de decisiones.

transacciones

Las nuevas transacciones se transmiten a todos los nodos para su validación. Las transacciones son recopiladas en bloques y los nodos están ocupados buscando una prueba de trabajo para sus bloques. Cuando un nodo encuentra la prueba de trabajo, transmite el bloque a todos los nodos que aceptan el bloque solo si todas las transacciones en él son válidas. La aceptación del bloque da como resultado que la red comienze a trabajar en nuevos bloques. Hackear un bloque significa que se necesitaba identificar un nuevo nonce que resolviera el trabajo de no solo un minero, sino también de todos los mineros posteriores. Además, cuando hay varias cadenas de bloques, la cadena de bloques más larga, en términos de la cantidad de cálculo de potencia computacional requerida para crearlos, es aceptada por la red.
Varios de estos conceptos son fundamentales para comprender cómo las redes blockchain funcionan, y ahora debería poder abordar el tema de Blockchain con mayor confianza. Dicho esto, ahora discutiremos otro concepto clave de Blockchain: tokens de utilidad y seguridad.

token de utilidad y token de seguridad

A medida que las soluciones basadas en Blockchain comenzaron a recaudar capital riesgo, estas fueron en clasificadas en dos grupos: tokens de utilidad o tokens de seguridad. Un token de utilidad es como los puntos de fidelidad o cupones digitales necesarios para utilizar una aplicación. Libremente, ellos se utilizan para distribuir beneficios (o dividendos) cuando una empresa gana dinero.
Por otro lado, un token de seguridad deriva su valor de un activo subyacente. Por ejemplo, un fondo de bienes inmobiliarios podría ser tokenizado y el token se puede negociar. El valor del token se deriva del valor del fondo inmobiliario. De la misma manera, las empresas que recaudan capital pueden emitir tokens y los inversores obtendrían una parte del
empresa. Esto equivale efectivamente a poseer capital social en la empresa y se clasifica como token de seguridad.
Si bien parece que los tokens de utilidad y seguridad son mutuamente excluyentes, a menudo no lo son. Por ejemplo, en el caso de Ether (token de Ethereum). Es más un token utilidad que un token de seguridad, ya que el token se usa en todo el ecosistema, en aplicaciones y en gran medida deriva su valor de la demanda de Ether. La SEC desarrolló una metodología simple para identificar un token como seguridad o como utilidad. Se llama prueba de Howey.
La prueba de Howey recibe su nombre de una decisión de la Corte Suprema en 1946: SEC v W.J. Howey Co. Howey Co estaba ofreciendo contratos de servicio para producir, cosechar, comercializar cultivos de naranja en el condado de Lake, Florida. Estos contratos se vendieron a turistas que se hospedaron en un hotel que era propiedad de Howey Co. La compañía vendió contratos de tierras y servicios a estos visitantes. Se preguntó al tribunal si la compra de la tierra más el contrato de servicio derivó en un contrato de inversión. La corte estuvo de acuerdo, y nació la prueba de Howey.
Según la prueba de Howey, una transacción sería un contrato de inversión (y por lo tanto
una garantía) si:

  1. Es una inversión de dinero
  2. Existe una expectativa de ganancias de la inversión.
  3. La inversión de dinero es en una empresa común.
  4. Cualquier beneficio proviene de los esfuerzos de un promotor o un tercero.
    Tomemos como ejemplo la venta colectiva de Ethereum en 2014. Se invirtió dinero
    (aunque en bitcoins), y la inversión fue realizada por al menos unos pocos con el fin de que los tokens aumentarían de valor durante un período y pudieran cobrar con las ganancias. Con la venta colectiva de Ethereum, el capital fue acumulado por inversores, y eso es visto como una empresa común por la SEC. Por lo tanto, el éter debería ser un token de seguridad, según la prueba de Howey.
    La forma en que sucedió la venta colectiva de Ethereum en 2014, es fácil de clasificar como un token de seguridad. Sin embargo, Ethereum es ahora la piedra angular de una gran comunidad de aplicaciones. Como resultado, podemos decir que Ether es un ejemplo de token, que inicialmente recaudó capital como una garantía, pero debido a la forma en que la empresa y la tecnología han evolucionado, hoy es más una utilidad. Ethereum está descentralizado debido a la comunidad que tiene y ya no solo prospera con los fundadores iniciales de la empresa.

Final de post

Hemos discutido los antecedentes de las computadoras cuánticas y hemos abordado
algunos conceptos interesantes de Blockchain también. La idea es utilizar estas ideas básicas como los componentes básicos antes de pasar a aplicaciones del mundo real en todas las industrias. El elemento criptográfico es fundamental para estas dos tecnologías. ¿Eso significa que la computación cuántica hace que Blockchain sea obsoleto?
Abordaremos esa cuestión en posts futuros.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s