DERECHOS INTELECTUALES.
TABLA DE CONTENIDO.

PRÓLOGO
Estamos al umbral de una era en la que las fronteras de lo posible ceden ante una confluencia sorprendente de disciplinas: teología, física cuántica, ingeniería inversa, biología computacional y leyes que se aventuran más allá de sus límites convencionales. Desde una máquina diseñada para manipular neutrinos y distorsionar el tiempo, hasta la audaz propuesta de patentar fórmulas abstractas —tradicionalmente intocables—, este compendio se propone trazar una ruta hacia lo que muchos ya consideran inimaginable.
En estas páginas converge la visión de grandes mentes que, tras siglos de pugna intelectual, replantean nuestras certezas sobre la creación, el infinito y la materia. El entrelazamiento cuántico de neutrinos no es aquí solo una excentricidad teórica, sino un pilar para una máquina que, apoyada en la inteligencia artificial, aspira a viajar por canales cuánticos “infractales”, abriendo paso a comunicaciones en cero tiempo y a la exploración de los confines más recónditos del universo. Paralelamente, el impulso legal y teológico aboga por trascender los límites históricos de la protección intelectual, considerando que las fórmulas abstractas, tan trascendentes como indefinibles, también son piezas inaugurales de la futura revolución tecnológica.
Este encuentro sinérgico de perspectivas —desde la ciencia más rigurosa hasta la inspiración bíblica— demuestra que el ingenio humano no se limita a mejoras graduales: se adentra hacia un punto de quiebre en el que la norma se ve reducida a mero obstáculo, y lo inverosímil se erige en el motor de una nueva creación. Aquí comienza un salto cuántico que supera la velocidad de la luz como frontera, transforma la patente en un hito de reinvención legal y proyecta la audacia humana hacia un futuro radical, donde aquello que antes se calificaba de imposible adquiere la certeza de ser la próxima gesta suprema.
Daniel 12:4
ܘܐܢܬ ܕܐܢܝܐܝܠ ܣܘܪ ܠܡܠܐ ܗܕܐ ܘܩܛܘܡ ܐܦ ܣܪܗܪܐ ܕܟܬܒܐ، ܥܕ ܥܕܢܐ ܕܣܦܐ:
ܣܓܝܐܐ ܢܗܒܝܠܘܢ ܘܬܪܒܐ ܝܕܥܐ
Mateo 19:26
ܐܡܪ ܝܫܘܥ ܠܗܘܢ:
ܥܡ ܒܢܝܢܫܐ ܗܳܕܶܐ ܠܳܐ ܫܳܟܺܝܚܳܐ،
ܐܠܳܐ ܥܡ ܐܠܳܗܳܐ ܟܽܠܗܝܢ ܡܨܐܟܝܚܳܐ ܗܶܢ
INTRODUCCIÓN, GLOSARIO, PUBLICACIÓN ORIGINAL DE FECHA 26 DE JUNIO DEL 2015, EL PROBLEMA , OBJETIVOS DE LA INVESTIGACIÓN, OBJETIVO GENERAL, OBJETIVOS Y SOLUCIONES ESPECÍFICAS, METODOLOGÍA DE LA INVESTIGACIÓN PARA LA INVENCIÓN DE ESTA FÓRMULA, JURISPRUDENCIAS RELACIONADAS CON LA PROTECCIÓN O NO DE LAS FÓRMULAS ABSTRACTAS, DESAFÍOS HACIA EL CAMBIO, DIALÉCTICA, LA MAQUINA DEL TIEMPO, APÉNDICE Y BIBLIOGRAFÍA.
TABLA DE CONTENIDO.
SECCIÓN | CONTENIDO |
---|---|
I. INTRODUCCIÓN | 1. Contexto general de la investigación 2. Motivaciones teológicas y jurídicas 3. Antecedentes históricos y científicos |
II. GLOSARIO | – Algoritmo – Algoritmo Cuántico Modificado – Blockchain – Bucle Temporal – El Príncipe – Enana Blanca – Energía Toroidal – Entrelazamiento Cuántico – Entrelazamiento Cuántico de Neutrinos – Ingeniería Inversa – Inteligencia Artificial (IA) – Fractal – Materia Oscura – Neutrino – Patente – Supernova del Sol – Teoría de los Conjuntos Infinitos 1895 (Cantor) – Toroide |
III. PUBLICACIÓN ORIGINAL (26 DE JUNIO DE 2015) | 1. El Aleph: Significado histórico, matemático y literario 2. Breves notas sobre Cantor y Borges 3. Enjambre de Neutrinos 4. tabla teológica 5. Notas de actualización 2024. |
IV. EL PROBLEMA | 1. Introducción al problema principal 2. Contexto legal: imposibilidad de patentar “fórmulas puras” 3. Necesidad de reinterpretar la ley de patentes ante la evolución tecnológica |
V. OBJETIVOS DE LA INVESTIGACIÓN | 1. Razones para el estudio teológico-jurídico 2. Justificación científica y filosófica |
VI. OBJETIVO GENERAL | 1. Interpretación progresiva de la normativa sobre patentes 2. Propuesta de protección de fórmulas abstractas cuando exista expectativa de utilidad |
VII. OBJETIVOS Y SOLUCIONES ESPECÍFICAS | 1. Incorporación de la noción de invención a fórmulas matemáticas 2. Análisis del impacto industrial y utilidad hipotética 3. Recomendaciones legales y jurisprudenciales |
VIII. METODOLOGÍA DE LA INVESTIGACIÓN | 1. Análisis cualitativo de fuentes teológicas y legislativas 2. Integración de lenguas antiguas (arameo, hebreo) 3. Uso de biografías de matemáticos y físicos relevantes 4. Revelaciones oníricas y proceso cognitivo inconsciente |
IX. JURISPRUDENCIAS RELEVANTES | 1. Alice vs. CLS Bank 2. Bilski vs. Kappos 3. Comentarios al caso Mayo v. Prometheus 4. Análisis comparado con la Unión Europea (OEP) |
X. DESAFÍOS HACIA EL CAMBIO | 1. Argumentos para superar la prohibición de patentes sobre fórmulas abstractas 2. Estrategias de interpretación jurisprudencial “contra legem” 3. Perspectiva evolutiva del derecho 4. Ejemplos de cómo la fórmula trasciende la mera abstracción |
XI. DIALÉCTICA | 1. Confrontación entre la regla legal y la visión progresista 2. Aportes de la IA y la necesidad de su reconocimiento en el ámbito legal |
XII. LA MÁQUINA DEL TIEMPO (MÁQUINA DE NEUTRINOS DE ENERGÍA) | 1. Diseño preliminar del prototipo 2. Relación con avances en inteligencia artificial y entrelazamiento cuántico 3. Referencias a experimentos y detecciones de neutrinos 4. Potenciales aplicaciones (comunicación interestelar, viaje temporal, etc.) |
XIII. APÉNDICE | Limitaciones de la velocidad de la luz y entrelazamiento cuántico La interacción neutrino-materia y canal de información consideraciones para la transmisión de data en el canal cuántico. |
XIV. ECUACIONES Y MODELOS MATEMÁTICOS | 1. Ecuación א∞ = c^c: justificación teórica 2. Integración con teoría de conjuntos (Cantor) 3. Derivaciones posibles y ajustes en teoría de cuerdas o QFT 4.Tokenización Cuántica y ios: modelos de optimización y selección adaptativa de fragmentos |
XV. CONCLUSIONES PRELIMINARES Y FINALES | 1. Resumen global de la investigación 2. Recomendaciones legislativas, científicas y religiosas 3. Viabilidad y expectativas de futura protección de fórmulas abstractas |
XVI.EPÍLOGO XVII RESUMEN EJECUTIVO | 1.Reflexiones sobre los puntos centrales del trabajo. Síntesis de hallazgos en lo legal, científico y teológico. Potencial impacto en la evolución tecnológica y humana. Tabla Socrática Didáctica. |
XVIII. BIBLIOGRAFÍA | 1. Fuentes jurídicas y de propiedad intelectual 2. Referencias científicas (física cuántica, IA, neutrinos) 3. Obras teológicas y literarias (Biblia, Borges, Maquiavelo, etc.) 4. Documentación adicional (enlaces). |
I.- INTRODUCCION.
Desde el principio de los tiempos el UNIVERSO se rige por un conjunto de infinitas reglas que configuran una matriz compuesta por las fórmulas matemáticas y físicas incluso artísticas y filosóficas que se orientan al cabal entendimiento de como este funciona, la sed inagotable del saber de la humanidad no tiene fin, y por la cual el hombre emplea toda clase de artificios para lograr estos descubrimientos para así poder descifrar todos sus misterios determinando el sistema aplicable al cual todos debemos atenernos.
Esta investigación trata de seguir los pasos de un cúmulo de mentes brillantes, en las áreas de las matemáticas, física y también de las artes literarias, cuyo propósito era desentrañar las incertidumbres del infinito, clarificando su verdadera naturaleza y buscando respuestas y plasmarlas en una sola ecuación lo suficientemente amplia pero a la vez simple que lo condense en un todo absoluto, llegando estas mentes sobresalientes incluso al umbral de la incomprensión humana de sus iguales y batallando con las severas críticas destructivas y adversidades de su época.
He pretendido como enseña Niccolò di Bernardo dei Machiavelli (Nicolás Maquiavelo) en su obra Ilustre “El Príncipe”, con prudencia elegir los senderos trazados por algunos notables pensadores, como Georg Ferdinand Ludwig Philipp Cantor, precursor de la teología matemática, Ludwig Eduard Boltzmann dentro de su teoría del caos y las probabilidades, Kurt Gödel, con su teorema de la incompletitud y su visión intuitiva de la matemáticas, Alan Mathison Turing con la determinación de practicidad del anterior teorema y si afán constante de no detenerse en la resolución del problema, y finalmente Jorge Luis Borges, con su Aleph infinito, conjugando en un solo pensamiento tres (3) matemáticos, un físico, un literario, y con la esperanza que mis acciones al menos ofrezcan cierta semejanza con las de ellos.
Esta investigación es de la perspectiva teológica, con el apoyo de expertos lingüísticos en hebreo y arameo antiguo sobre determinados versículos de la Biblia, de forma de mantener fidelidad al sentido materno de las traducciones realizadas y obedeciendo el mandato categórico impartido por matemático George Cantor, que la respuesta a su fórmula absoluta e inconclusa no podía encontrase en las matemáticas sino en la religión.
Igualmente, a los fines de dar cumplimiento a lo exigido por la cátedra de Propiedad Intelectual, se tratan puntos principales respecto a la patente de fórmulas, algoritmos cuánticos, y el impacto de utilidad del invento simulado, y respecto al tema del diseño y demás proceso administrativos, no se abordan a los fines de una síntesis del ensayo.
Es la aspiración que gracias a la evolución del ser humano en diferentes campos de la ciencia y de su relación simbiótica con la inteligencia artificial (IA) se materialice en un corto plazo el proceso irreversible, de generar un tipo de comunicación que recorra las nuevas rutas del cosmos.
Se trae a colación la publicación original en la cual se exponen conceptos matemáticos, físicos, artísticos, literarios, y sobre todo en el ámbito religioso, entrelazándose de una forma indisoluble para demostrar la creación de la simpleza de la Fórmula, y su extracción de la misma de los diversos versículos bíblicos que interactúan como una cadena de bloques (BLOCKCHAIN), siendo muy ilustrativos las correspondientes notas al final de la página, las cuales deben examinarse cuidadosamente.
El objetivo de esta investigación es -a corto plazo– lograr la emisión de la patente del bloque o circuito indisoluble de la invención desde la fórmula, transitando por la IA generativa, impulsada por algoritmos avanzados de aprendizaje automático,y la realización de la máquina de neutrino de energía toroidal. Se persigue en consecuencia lograr una protección jurídica de patentes, la postura es implementar la “excepción de la excepción” y también aspira difundir el uso de IA para predecir/“reconstruir” información antes de recibir todos los bits clásicos, neutrinos como canal de teleportación.
El presente trabajo ha sido en gran parte sintetizado a los fines de su rápida comprensión, obviándose muchas acotaciones, reflexiones, diseños y expresiones en el glosario, y de citas bibliográfica centrándose en el tema de una forma medular preservando el detalle del secreto industrial y destacando que la mayoría de las ilustraciones han sido creadas por la Inteligencia Artificial (I.A).
Se confirió bajo una proyección simulada una utilidad práctica a la fórmula para que la misma no fueran catalogada en un sentido abstracto, y encajara dentro de los supuestos de protección intelectual.
Esperando que sea de su agrado este ensayo y que recorramos juntos el peregrinaje del universo cuántico.
II GLOSARIO.
ALGORITMO: Es un conjunto de comandos que se deben seguir para que una computadora realice cálculos u otras operaciones de resolución de problemas. Según su definición formal, un algoritmo es un conjunto finito de instrucciones ejecutadas en un orden específico para realizar una tarea particular.
ALGORITMO CUANTICO MODIFICADO: Un algoritmo cuántico consiste de la ejecución de una serie de compuertas cuánticas sobre entidades, que pueden ser qubits o quregistros, seguida de una toma de medición, siendo una adaptación de un algoritmo cuántico existente o un nuevo diseño diseñado para aprovechar las propiedades únicas de la computación cuántica para resolver problemas de manera más eficiente o efectiva que los algoritmos clásicos. La modificación con la fórmula א∞ = Cc contempla construcciones infinitas inciden en la toma de decisiones analizando múltiples variables.
ALICE, BOB, EVA …: En la comunidad de criptografía (y, por extensión, en física cuántica y teoría de la información), se usan nombres genéricos para ejemplificar distintos participantes en protocolos de comunicación. Los más frecuentes son:
- Alice y Bob:
Representan a los protagonistas legítimos de la comunicación; quienes desean intercambiar mensajes (o compartir estados cuánticos) de forma segura. - Eve (de “eavesdropper” en inglés, es decir, “espía”):
Es la figura maliciosa o intrusa que intenta interceptar o manipular la comunicación. - Charlie, David, etc.:
Otros agentes neutrales o con funciones específicas, que se añaden cuando el protocolo requiere más participantes (por ejemplo, un mediador o un repartidor de claves).
Estos nombres son un convención en publicaciones científicas, libros de texto y ejemplos de protocolos cripto/cuánticos, usados para ilustrar con claridad qué rol tiene cada “personaje” en el intercambio de información.
BLOCKCHAIN: Es esencialmente una base de datos distribuida de registros o libro de contabilidad público de todas las transacciones o eventos digitales que se han ejecutado y definitivo y sus frutos serán en beneficio del hombre, los datos son cronológicamente consistentes debido a que no es posible eliminar ni modificar la cadena sin el consenso de la red. compartido entre las partes participantes.
BUCLE TEMPORAL: Los bucles temporales son misteriosas anomalías en las que se produce tanto una detención total del tiempo como una fuerte ralentización, disminuyendo su velocidad y a veces los testigos presenciales informan de una actividad repetitiva dentro de esta anomalía.
EL PRÍNCIPE: (En el original en italiano, Il Príncipe) es un tratado político del siglo XVI del diplomático y teórico político italiano Nicolás Maquiavelo.
ENANA BLANCA : El sol terminará su vida como enana blanca . Como enana blanca, es esencialmente una estrella muerta que ha agotado todo el combustible nuclear que es capaz de quemar. Como enana blanca, se enfriará lentamente y se desvanecerá a temperaturas cada vez más bajas. Éste es el estado final de las estrellas de baja masa, incluido nuestro Sol.
ENERGÍA TOROIDAL: El símbolo de Osiris, llamado también la flor de la vida o la ecuación de Dios es la figura que representa un vector en equilibrio que irradia doce líneas de energía iguales. El modelo primario de esta corriente de energía en equilibrio alrededor de esta estructura se conoce con el nombre de toroide.

ENTRELAZAMIENTO CUÁNTICO: Es una propiedad peculiar de la mecánica cuántica mediante la cual las partículas se conectan de tal manera que el estado de una partícula puede depender instantáneamente del estado de otra, sin importar la distancia que las separe.
ENTRELAZAMIENTO CUÁNTICO DE NEUTRINOS: Teóricamente, el entrelazamiento cuántico de pares de neutrinos se puede emplear para el uso de distribución de criptografía a larga distancia en un protocolo similar al BB84.. Si medimos una propiedad de un neutrino, como su espín, la medición instantáneamente determinará la propiedad correspondiente del otro neutrino, incluso si están separados por distancias enormes en el espacio. Este fenómeno desafía nuestra intuición clásica sobre la naturaleza de la realidad y tiene implicaciones profundas en la teoría cuántica y la comunicación cuántica.El entrelazamiento cuántico de neutrinos, podría tener aplicaciones en comunicaciones cuánticas, criptografía cuántica, y posiblemente incluso en tecnologías de detección remota y navegación espacial.
FTL: Se usa para describir cualquier comunicación, objeto o fenómeno que, supuestamente, podría viajar o transmitirse a una velocidad superior a la velocidad de la luz (algo que la relatividad prohíbe en el plano físico real).
En física cuántica (especialmente al hablar de entrelazamiento), a menudo se discute la “apariencia” de comunicación FTL, pero en la práctica aun no se puede enviar información útil más rápido que la luz; de ahí que hablemos de una ilusión o un “engaño” que desaparece cuando se analiza en detalle.
INGENIERÍA INVERSA: Es el proceso llevado a cabo con el objetivo de obtener información o un diseño a partir de un producto u objeto, con el fin de determinar cuáles son sus componentes y de qué manera interactúan entre sí y cuál fue el proceso de fabricación.
INTELIGENCIA ARTIFICIAL (IA):La capacidad de una computadora digital o un robot controlado por computadora para realizar tareas comúnmente asociadas con seres inteligentes.
Automatización: Es la creación y aplicación de tecnologías para producir y entregar bienes y servicios con mínima intervención humana. La implementación de tecnologías, técnicas y procesos de automatización mejoran la eficiencia, confiabilidad y/o velocidad de muchas tareas que antes eran realizadas por humanos.
Sistemas que muestran un comportamiento inteligente al analizar su entorno y tomar medidas con cierto grado de autonomía para lograr fines específicos. Y pueden estar basados en software para acinturar en el mundo virtual o pueden esta integrados en dispositivos de hardware.
FRACTAL::Un fractal es un objeto geométrico en el que se repite el mismo patrón a diferentes escalas y con diferente orientación. La expresión fractal viene del latín fractus, que significa fracturado, roto, irregular. La expresión y el concepto se atribuyen al matemático Benoit B.
MATERIA OSCURA:La materia oscura es un tipo de materia que no emite ni interactúa con la radiación electromagnética, su existencia se infiere a partir de sus efectos gravitacionales sobre la materia visible, como las estrellas y las galaxias, ademas es un tipo de materia que no emite, absorbe ni refleja luz, por lo que no puede ser detectada directamente con instrumentos ópticos. Aunque no podemos verla, los astrónomos saben de su existencia gracias a sus efectos gravitacionales en las galaxias y en el universo en general. Se estima que la materia oscura constituye aproximadamente el 27% del contenido total de materia y energía en el universo, mientras que la materia ordinaria (como la que compone estrellas, planetas y seres vivos) representa solo alrededor del 5%.
Su presencia es crucial para explicar varios fenómenos observados en el universo, como la velocidad de rotación de las galaxias, la distribución de la materia en el cosmos y la formación de estructuras a gran escala.

NEUTRINO: Los neutrinos son partículas fundamentales, sin carga eléctrica y con muy poca masa, por eso no interactúan mucho con la materia normal; de hecho, cerca de 50 billones de neutrinos provenientes del Sol pasan por nuestro cuerpo cada segundo, sin afectarlo., conocidas también como las «partículas fantasma» livianas, porque lo atraviesan todo a casi la velocidad de la luz.
PATENTE: Según la Facultad de Derecho de Cornell , una patente “otorga al titular de la patente el derecho exclusivo de excluir a otros de fabricar, utilizar, importar y vender la innovación patentada durante un período de tiempo limitado.
La Ley de Patentes de los Estados Unidos fue promulgada por el Congreso en virtud de su concesión constitucional de autoridad para garantizar durante un tiempo limitado a los inventores el derecho exclusivo sobre sus descubrimientos.
SUPERNOVA DEL SOL: El estudio calcula que la explosión «Supernova» del sol ocurrirá dentro de cinco mil millones de años. Para esta estimación, se presume que nuestra estrella agotará su suministro de hidrógeno en su núcleo y comenzará a fusionar helio en lugar de hidrógeno.
TEORÍA DE LOS CONJUNTOS INFINITOS 1895: Última obra de George Cantor, allí empezó a equiparar el concepto de INFINITO ABSOLUTO (que no es concebible por la mente humana) con Dios.
TOROIDE: Un Toroide es como la respiración del Universo, es la forma que toma la corriente de energía en cualquier nivel de existencia”.(Nassim Haramein). La Energía Toroidal está basada en un vórtice de energía en forma de dona, en la cual la energía está constantemente empujándose hacia dentro y proyectándose hacia afuera… en un movimiento sin fin. Existe actualmente una gran cantidad de información científica y metafísica disponible que indica que la Energía Toroidal es el mejor modelo que disponemos para intentar comprender la estructura primordial del universo. Lo que estamos realmente viendo es la forma principal de la consciencia misma, un vórtice esférico de energía, una esfera de energía auto-organizada y auto-sostenible, siendo el centro desde luego su Fuente de energía. Cada molécula subatómica, cada cuerpo humano, planeta, sistema solar, galaxia…está sostenida bajo una Energía Toroidal, la cual crea un campo magnético. El Toroide es el modelo que utiliza la naturaleza, está equilibrado y siempre completo. Aparece en el campo magnético que envuelve la tierra, al individuo y al átomo.
III.- PUBLICACIÓN ORIGINAL EN FECHA 26 DE JUNIO DEL 2015.
https://perezcalzadilla.com/el-aleph-la-fisica-cuantica-y-multi-universos-2/ /English Version.
https://perezcalzadilla.com/el-aleph-la-fisica-cuantica-y-multi-universos/
1.EL MENSAJE DEL ALEPH, LA FÍSICA CUÁNTICA Y MULTI-UNIVERSOS.

El Aleph,” א“es la primera consonante del alfabeto hebreo [1], posee diversos significados, simboliza el poder transformador, poder cultural, energía creadora o universal, poder de vida, canal de la creación, también el principio y el fin dada su condición de atemporalidad.
Como Aleph también se conoce al códice Sinaítico, un manuscrito de la Biblia que fue escrito alrededor del siglo IV después de Cristo.
Se registra el origen de la letra ”א”en la Edad de Bronce, unos mil años antes de Cristo, en el alfabeto protocananeo, que es el antecedente más lejano de nuestro alfabeto actual. Inicialmente, Aleph era un jeroglífico que representaba a un buey, y de allí pasó al alfabeto fenicio (Alp), al griego (A), al cirílico (A) y al latino (A).
En la astrología, sería el signo del Zodiaco Taurus (El Buey, Toro o Aleph), siendo su color blanco y amarillo y está ligado al Azufre. El sagrado «ALEPH» adquiere carácter aún más de santidad entre los cabalistas, pues saben que esta letra representa la Trinidad en la unidad por estar compuesta de 2 «YOD», una hacia arriba y otra invertida, con una raya o nexo oblicuo, en esta forma:”א”.
Es una estructura que representa tomar algo como la naturaleza lo creo y transformarlo en un instrumento mejor, perfeccionarlo para estar al servicio de lo superior, es pues una ficción que se extiende en el tiempo es la primera letra del alfabeto hebreo con gran poder místico y una virtud mágica entre quienes la han adoptado y su valor numérico para algunos es «1» para otros su valor real es “0”. [2]
Hecho curioso que esta primera letra del alfabeto hebreo se cuenta como consonante, porque el hebreo no tiene ninguna vocal, pero es una consonante en el entendido que la ausencia de vocal, en la forma primitiva pura de la lengua, invita a los significados múltiples para cada palabra y mantiene así al lector cierto suspenso, esta carencia de vocales es un artefacto de su mismo primitiveness y funciona para mantener cierto significado diferido. El Aleph, desde esta óptica desemejante de la “A” latina o de inglés, o la Alfa del griego, es contemporáneamente una muestra de la vocal que falta y de un rastro o de un símbolo de la escritura pictographic del padre que reemplazó. El Aleph es así una nulidad, una de las primeras muestras de “el cero” en la historia de la civilización. Como el cero, el Aleph es una meta-letra sobre el código del hebreo, ya que como escritura fonética carece de vocales, por lo cual su significado pudiera ser ninguna cosa [3].
El Aleph también nos da una convexidad con la nada, el vacío, el lugar donde no hay cosa alguna, una ambigüedad sistemática entre la ausencia de las cosas y la ausencia de muestras, y el ejemplar de un fenómeno semiótico que señala la importancia lejana, más allá de cualquier sistema [4]; todo ello indujo al matemático Georg Cantor [5] (1845-1918) a su utilización para medir conjuntos infinitos, definiendo la existencia de varios tamaños u órdenes de infinitud, [6] y en la formulación de su teoría de conjuntos, el Aleph representa la cardinalidad de los números infinitos, es decir, para ordenar los números transfinitos y así diferenciar los distintos tamaños de infinito. En este sentido, por ejemplo, א subíndice «0» sería el número cardinal de la serie de los números enteros; es el mayor de los números finitos cardinales y el menor de los números transfinitos cardinales.
También Jorge Luis Borges siguió a Georg Cantor en su búsqueda del infinito absoluto [7],concibiendo al Aleph como un artefacto en el cual fueron reflejadas todas las cosas en el mundo [8], y concluyendo que si el espacio es infinito estamos en cualquier punto del espacio y si el tiempo es infinito estamos en cualquier punto del tiempo. (Libro de Arena de Jorge Luis Borges publicado en el año 1975.). Es de acotar que Borges hizo severas advertencias sobre los peligros que implica la búsqueda del infinito
[9] El sucesor natural de Georg Cantor, el lógico matemático Ludwig Eduard Boltzmann (1844-1906, seguido también por Alan Mathison Turing .
[10], al enfrentarse al Infinito años después de su antecesor, quiso asilar a este en un marco de atemporalidad.
Incluso en esta época contemporánea esta letra inspiró a Paulo Coelho en su obra el “ALEPH” donde narra en ella, que es el punto en el que se concentra toda la energía del Universo, pasado, presente y futuro.
Quizás también esta noción de la nada, sea la razón del porque la letra BETH, sea la primera palabra de la Biblia, del Génesis, el cual no comienza con la letra Aleph (siendo esta la primera letra del alfabeto hebreo), sino con Beth (Berishit), letra de sentido femenino.
Por otra parte, al pronunciar la letra hebrea Aleph tiene un sonido largo de «A» que corresponda con el «HENO sano griego» que es la letra Eta con la marca de respiración áspera «H». La consonante hebrea, pronunciado con una E larga, tiene las «HECES sanas» que corresponda exactamente al mismo sonido de las letras griegas AI (Lamda-Iota). La letra hebrea Yod tiene un sonido del «DESVÍO» que corresponda «AH» al sonido de la letra griega «A» (alfa). El hebreo le pone letras -Vav, pronunciado «HYOU» no tienen ningún sonido correspondiente en griego porque los nombres masculinos están cerrados casi siempre hacia fuera con una consonante, generalmente una S, o menos con frecuencia con un sonido de “N” o de “R”. Estos pasos fonéticos producen la alocución «ELIAS”
[11] conocido ( HLIAS ). En tal virtud la letra Aleph hace alusión o está íntimamente conectada con el profeta hebreo Elías, el cual al igual que Enoch Génesis 5,18-24), (Heb 11, 5), no muere
[12], sino que es llevado al cielo.
Como dice la Biblia, Elías es arrebatado por una carroza de fuego de cuatro caballos de fuego (2 Reyes 2:1). Elías de Tesbe es uno de los personajes más fascinantes de la Biblia, ya que irrumpe inesperadamente en el Libro 1º de Reyes, sin que sus padres sean mencionados y pareciera no haber recuento de su niñez. Pero la importancia de su papel es fundamental: Es el precursor, señalado con toda claridad en el Libro de Malaquías como el profeta que había de preceder al Mesías, tanto en su primera venida como de su advenimiento en el tiempo final.
En el Evangelio de Mateo 11:14, Jesús les revela a sus discípulos que aquel Elías que había de venir, conforme a la profecía de Malaquías, para ese momento ya había llegado, y los discípulos comprendieron que les hablaba del profeta Juan el Bautista. Algunos teólogos utilizan estos pasajes bíblicos como prueba fehaciente de la reencarnación.
Pero a la luz de la ciencia moderna, más que una reencarnación, es un antecedente remoto, de lo que hoy se conoce como la tele transportación cuántica, es de recordar que hoy en día los científicos han logrado tele transportar íntegramente un rayo láser que contenía un mensaje a una distancia de unos 143 kilómetros, siendo que en esta época contemporánea las propiedades de fotones se copian de un rayo láser original que se destruye y se reconstruyen en otro lugar valiéndose de los principios de la física cuántica, aún hay más, un grupo de físicos israelíes acaba de conseguir entrelazar dos (2) fotones que nunca habían coincidido en el tiempo, esto es, que existieron en momentos diferentes. Primero generaron un fotón y midieron su polarización, un procedimiento que destruye la partícula que se quiere medir. Después generaron un segundo fotón, y a pesar de no haber existido al mismo tiempo que el primero, comprobaron que tenía exactamente la polarización opuesta, lo que demuestra que ambos estaban entrelazados.
El entrelazamiento cuántico, en efecto, no es una propiedad que pueda explicarse con las leyes físicas, se trata de un estado en el que dos partículas (por ejemplo, dos fotones) entrelazan sus propiedades de forma tal que cualquier cambio que sufra una de ellas es inmediatamente “sentido” por la otra, que reacciona al instante y sin importar cuál sea la distancia o el tiempo que las separa [
13]. Sería interesante la utilización de fotones de hidrógenos o partículas de neutrinos dada su velocidad cercana a la luz. [14] ya que este es el primer elemento de la creación y el elemento más abundante del universo, por lo cual su entrelazamiento cuántico daría nuevos enfoques a la ciencia.
No es acaso muy similar estos fenómenos científicos, al modo en que fue transportado el profeta Elías, mediante los caballos de fuego (simbolizando los cuatro caballos un alto poder energético), al empleo de los rayos láser entrecruzados o alineados para lograr este fenómeno de la física cuántica, siendo que este fenómeno científico en un futuro cercano servirá de base a la perfección de los ordenadores cuánticos, así como para nuevos sistemas de telecomunicaciones capaces de obtener la transmisión instantánea de datos en cero tiempo y en materia de criptografía cuántica.
Cuando analizamos el versículo 1:3 del génesis, el término de la luz [15], cuya mención literal en el lenguaje hebreo es גוַיֹּאמֶראֱלֹהִיםיְהִיאוֹרוַיְהִי–אוֹר (VAYOMER ELOHIM YEHÍ OR VAYEHÍ-OR),concluimos que el versículo expresa tres (3) momentos de tiempo, es decir:
1.-Yehí futuro,
2.-Vaihí Pasado y fue
3.-EL TERCER TIEMPO NO ESTÁ ESCRITO DE FORMA LITERAL, PERO SE COMPRENDE POR QUÉ EL VERBO SER Y ESTAR, EN LA GRAMÁTICA HEBREA, SON TÁCITOS EN LA CONJUGACIÓN DEL PRESENTE. SIGUIENDO ESTE ORDEN FUTURO, PRESENTE Y PASADO.
El valor numérico de la palabra Luz “OR” es 207, múltiplo de 3, y si a este vocablo le agregamos una Yod entre la segunda y la tercera letra formamos el vocablo AVIR que significa el ETER que delimita el espacio en el cual se sostiene toda la Creación.
Ahora bien, el legado de Georg Cantor, en su continua búsqueda de la ecuación que pudiera contener el infinito siempre se orientó a que las respuestas no se encontraban en las matemáticas sino en las escrituras bíblicas, y que estas eran el camino para resolver las paradojas ya que el infinito no es solo un misterio matemático sino religioso [16] entre la ciencia y la religión, la Biblia en su Salmo 139:16 expresa: «Mi embrión vieron tus ojos, Y en tu libro estaban escritas todas aquellas cosas que fueron luego formadas,Sin faltar una de ellas», nos da la orientación que la búsqueda del todo absoluto, se encuentra en el génesis, en consecuencia si la noción de la conceptualización del Aleph encierra en sí misma el universo [17] y está vinculada con el mismísimo creador podríamos concluir que א=C+C+C+,[18].
Sin lugar a dudas el Aleph nos dará las claves para ampliar los límites de la realidad y del potencial, más allá de toda investigación científica y comprensión humana, para alcanzar ese paralelo universo, al cual algunos denominan el En-Sof [19] o Multiverso [20], [21], [22]. Por PEDRO LUIS PEREZ BURELLI. /perezburelli@perezcalzadilla.com.
2 Breves notas:
[1] En los tiempos del Templo bajo el dominio Romano, el pueblo se comunicaba coloquialmente para sus tareas y labores cotidianas en Arameo, sin embargo, en el Templo hablaban exclusivamente Hebreo y por ello recibe el apelativo de «Lashom Hakodesh» el lenguaje sagrado.
[2] El valor matemático del Aleph es dual, desde la exégesis es binario [0, 1].
[3] El Aleph como letra hebrea, aunque no puede ser articulada, permite articular las demás y, por extrapolación lingüístico literaria, encierra en sí el Universo.
[4]El matemático Kurt Gödel (1906 – 1978), sostiene que cualquiera que sea el sistema en algún sentido la mente es ajena a él porque uno usa la mente para establecer el sistema, pero una vez establecido este, la mente tiene un modo de alcanzar la verdad más allá de la lógica -independientemente de cualquier observación empírica- a través de la intuición matemática. Esto sugiere que en todo sistema —y por consiguiente finito— la mente lo supera y se orienta hacia otro sistema, que a la vez depende de otro, y así ad infinitum.
[5] Georg Cantor fue un matemático puro, quien creara un sistema epistémico transfinito y trabajó en los conceptos abstractos de la teoría y la cardinalidad de los conjuntos, a partir de ahí se descubrió que los infinitos son infinitos en sí mismos. El primero de la «infinitud de infinitos» descubierto por George Cantor es el llamado “Aleph”, que también da nombre al cuento de Jorge Luis Borges, desde allí también se introdujo el llamado “Continuo”.
[6] Georg Cantor en su interpretación del infinito absoluto soportada dentro del marco religioso, utilizó por primera vez la letra del alfabeto hebreo, “Aleph”, seguida del subíndice cero,ℵ0, para denotar el número cardinal del conjunto de los naturales.
Este número tiene propiedades que, desde la lógica habitual, aristotélica, parecen paradójicas:ℵ0 + 1 = ℵ0; ℵ0 + ℵ0 = ℵ0; ℵ02 = ℵ0. Es parecido a la ley de suma de velocidades dentro de la Relatividad Especial, en donde c + c = c (c es la velocidad de la luz). En la teoría de conjuntos, el infinito está relacionado con cardinalidades y tamaños de conjuntos, mientras que en la relatividad, el infinito aparece en el contexto del espacio, el tiempo y la energía del universo, aquí un intento de unificar ambas fórmulas considerando que la misma es más una representación conceptual que una ecuación matemática rigurosa, ya que estamos combinando conceptos de diferentes teorías:

El afán de unificar en un absoluto, no es un campo exclusivo de las matemáticas sino también se extiende al campo de la física a la concepción de la teoría de la unificación de las 4 fuerzas fundamentales, a saber: gravedad, electromagnetismo, nuclear fuerte y débil.
[7]Se define el conjunto infinito cantoriano de la siguiente manera: “Un conjunto infinito es aquel conjunto que puede ponerse en correspondencia recíproca, uno a uno, con un subconjunto propio de sí mismo”, es decir, cada elemento del subconjunto puede ponerse en correspondencia directa, elemento por elemento, con los elementos del conjunto al que pertenece, por lo que la totalidad del cosmos debe cumplir con el axioma que postula la equivalencia entre el todo y la parte.
[8]Jorge Luis Borges quería encontrar un objeto que pudiera contener dentro de sí todo el espacio cósmico de la misma manera que, en la eternidad, coexiste todo el tiempo (pasado, presente y futuro), tal y como lo describe en su extraordinario cuento “El Aleph” publicado en la revista Sur en 1945 en Buenos Aires, Argentina, recordándonos que el Aleph es una pequeña esfera tornosolada limitada por un diámetro de dos o tres centímetros que, sin embargo, contiene a todo el universo. Evidencia indubitable del Infinito: aunque limitada por su diámetro, la esfera contiene tantos puntos como el espacio infinito que a su vez contiene a la esfera, y que adquiere posteriormente la forma de un hexágono en obra del mismo autor, “La biblioteca de Babel”.
[9]«Soñamos con el infinito, pero de alcanzarlo -en el espacio y en el tiempo, en la memoria y en la conciencia- nos destruiría. Borges da a entender que el infinito es un caos constante y que alcanzar el infinito nos aniquilaría porque los hombres estamos cercados por el espacio, el tiempo y la muerte por una razón, que es que de otra manera no daríamos a nuestras acciones la misma importancia debido a que no contaríamos con que podría ser nuestra última acción. Para este autor el infinito no es sólo inalcanzable, sino que también cualquier parte de él es también inconcebible. Esta visión de Borges coincide con la afirmación del matemático Kurt Gödel (1906–1978), la cual asienta que en todo sistema lógico habrá problemas irresolubles (Teorema de la Incompletitud).
En la mayoría de los temas presentes en las obras de Borges y de Federico Andahazi (El secreto de los flamencos Buenos Aires: Planeta, 2002), se desprende un comentario relevante, y es que si fuese posible alcanzar un Aleph, más allá de poder o no explicarlo o representarlo, la vida humana dejaría de tener sentido, ello en razón que el valor de la existencia humana, se podría decir, depende en gran medida de la capacidad del individuo de sorprenderse ante toda idea que pueda resolver ciertas incertidumbres y que a la vez crea otras nuevas. Después de todo, encontrar un absoluto equivale a vislumbrar ese momento en que algo alcanza una máxima profundidad, un máximo sentido, y deja por completo de ser interesante. Esta advertencia esta reseñada en hechos 1:7 cuando se asienta en la Biblia: «El les contestó: A vosotros no os toca conocer el tiempo y el momento que ha fijado el Padre con su autoridad,».El hombre puede investigar hasta este punto, pero no más allá, véase: Deuteronomio 4:32: Porque pregunta ahora de los tiempos pasados, que han sido antes de ti, desde el día que creo Dios al hombre sobre la tierra, y desde el un cabo del cielo al otro, si se ha hecho cosa semejante a esta gran cosa, o se haya oído otra como ella. En esa misma perspectiva véase Mateus 24:36:«Pero del día y la hora nadie sabe, ni aun los ángeles de los cielos, sino sólo mi Padre». Como comentario adicional es pertinente incluir la aseveración expresada por el Rabino Dr.Philip S Bergan, en su libro el Poder del Alef-Bet cuando expresa: «Si viviéramos en un planeta en donde existiera poco cambio, no tardaría en implantarse el aburrimiento. No habría motivación para que la humanidad mejorara. Por otra parte, si nuestro universo fuera impredecible, en donde las cosas cambiasen al azar, no habría manera de saber cuál paso tomar». En este último sentido véase también Eclesiastés 7:14: En el día de la prosperidad goza del bien, y en el día de la adversidad reflexiona. Dios hizo lo uno tanto como lo otro, para que el hombre no descubra nada de lo que acontecerá después de él.
[10] Ludwig Boltzmann quien encontró en el año 1877 la manera de expresar matemáticamente el concepto de Entropía, desde el punto de vista de la probabilidad. Y la perseverancia en la infinita búsqueda de las respuestas matemáticas bajo visión de Alan Mathison Turing. La tendencia de encapsular al infinito en un modo atemporal no es exclusiva de la inquietud científica, sino de otras disciplinas del saber humano orientadas al arte, en ese sentido el poeta William Blake (1757-1827), al expresar en su obra “El matrimonio del cielo y el infierno (1790-1793)”, el tema del infinito lo refiere bajo una prosa axiomática al señalar:“(… )Para ver el mundo en un grano de arena, y el Cielo en una flor silvestre, abarca el infinito en la palma de tu mano y la eternidad en una hora(…)”.
[11] Elías (El-yahu), se compone por dos (2) Nombres Sagrados, el correspondiente al Jesed (virtud de dar y ofrecer en el Árbol de la Vida) EL y (a Tiferet la compasión ) YAHU. El profeta Elías también está íntimamente relacionado con la interacción de la luz, ordenadora del caos en el primer día de la creación y la aplicación de la fórmula de tres (3) tiempos que la genera, como se explicará en este ensayo y sobre su incidencia en la relación espacio-tiempo.
Su nombre se deletrea de la siguiente forma: Aleph (e), Lamed (li), yod (ya), He (h), Vav (u) e incluye el Tetragramatón. Es de acotar que la letra Aleph es letra muda o sin sonido.
El versículo en los Salmos 118:27 de la bíblica, expresa: «El Adonay vayaer lanu» cuya traducción es «Dios que nos ilumina». Deletreando el versículo resulta así: Aleph, Lamed, Yod, He, Vav (las mismas consonantes utilizadas en el nombre de Elías) nos ilumina, claramente, y se observa el estrecho vínculo del profeta con la También la luz es determinante como el presagio de la venida del creador cuando Lucas 17:24 expresa: Porque como el relámpago que al fulgurar ilumina el cielo desde un extremo hasta el otro, así también será el Hijo del Hombre en su día.
Por otra parte, el hebreo es un idioma dual conformado por palabras y números, fundamentados estos últimos en la aritmética sagrada, y establece un valor numérico para cada letra y las equivalencias o múltiplos entre ellas nos hablan de conciencias espirituales similares.
El valor aritmético de la palabra Luz (Aleph, Vav, Resh) es de 207 + 1 (la integralidad de la palabra) cuya adición de la unidad arroja un resultado matemático de valor 208.
Elías conformado por las letras Aleph, Lamed, Yod, He, Vav, equivale al valor 52 que multiplicado por 4 obtenemos el mismo valor que tiene la Luz (208), es decir, hay una identidad matemática.
¿Cómo explicamos esa multiplicación por el valor de 4?.
En el Pentateuco -conjunto formado por los cinco (5) primeros libros de la Biblia, que la tradición atribuye al Patriarca Hebreo Moisés y se corresponden con los que en la tradición hebrea forman la Torá, núcleo de la religión judía-, ya finalizando el peregrinaje del pueblo de Israel en su travesía por el desierto (ÉXODO), ocurre una epidemia que lo diezma, en ese infortunio fallecen 24.000 personas y solo mediante la acción justa de un personaje llamados PINJAS, hijo de Eleazar y nieto de Aarón, el Sumo Sacerdote, la detiene y es premiado con un «Pacto Eterno». La exégesis dice que obtuvo vida eterna tanto física como espiritual y el personaje PINJAS conforme a las escrituras bíblicas transmuta en Elías. Esto esta refrendado porque su valor numérico (PE, YOD, NUN, JET, SAMAJ) equivale a 208, igual que la ecuación Luz = Elías x 4.
La Kabbalah (conocimiento místico del Pentateuco) explica que en el momento de esa acción histórica y trascendental PINJAS recibió las dos (2) Almas de los dos hijos de Aarón, es decir, Nadab y Abihú, que murieron cuando realizaron una ofrenda ígnea fuera de tiempo. En el momento que Elías le correspondió entregar su sabiduría y profecía a su alumno predilecto Eliseo, dice el texto sagrado que este último le solicitó el doble de su Espíritu y agrega en la expresión hebrea la palabra “Na” cuya traducción es: “por favor”, la cual se encuentra sobrante aparentemente al texto, sin embargo las letras “ENE” y ”A” son las iniciales de Nadab y Abihú y aquí encontramos la respuesta de porqué multiplicamos por el factor 4 el nombre del profeta Elías (dos Almas multiplicadas por el doble) y formulamos la ecuación (52) x 4 = 208 , que a la vez nos conlleva al valor aritmético de la Luz y por consiguiente la identidad matemática.
[12] El profeta Elías, escapa de la ley de la Entropía. (La entropía es un concepto clave para la Segunda Ley de la termodinámica, que establece que “la cantidad de entropía en el universo tiende a incrementarse en el tiempo”. O lo que es igual: dado un período de tiempo suficiente, los sistemas tenderán al desorden).
[13] La técnica usada por los físicos israelíes para entrelazar dos fotones que nunca habían coincidido en el tiempo es bastante compleja. El experimento empezó produciendo dos fotones (que llamaremos “1” y “2”) y entrelazándolos. El fotón 1 fue inmediatamente medido, por lo que quedó destruido, aunque no sin fijar antes el estado del fotón 2. Entonces los físicos generaron otra pareja de fotones entrelazados (3 y 4) y enlazaron a su vez el fotón 3 con el “superviviente” de la primera pareja, el fotón 2. Lo cual, por asociación, también entrelazó el fotón 1 (que ya no existía) con el 4. A pesar de que los fotones 1 y 4 no habían coincidido en el tiempo, el estado del fotón 4 era exactamente el opuesto del fotón 1, es decir, ambos estaban entrelazados.
El entrelazamiento funciona de forma instantánea sin importar cuál sea la distancia o tiempo entre las dos partículas, ya sea de pocos cm. o que ambas se encuentren en extremos opuestos del Universo. Ahora, este experimento ha demostrado que el entrelazamiento no solo existe en el espacio, sino también en el tiempo o, más propiamente dicho, en el espacio tiempo, lo que implica la aparición de un agujero de gusano, es decir, una especie de túnel que comunica a ambas partículas en otra dimensión.
Es pronto para decir cuáles podrían ser las aplicaciones prácticas del descubrimiento, aunque su potencial es amplio en el campo de la computación y de las telecomunicaciones. Por ejemplo, en lugar de esperar que una de las dos partículas entrelazadas llegue a su destino a través de una fibra óptica, esta técnica de “dobles parejas” permitiría al emisor manipular sus fotones, y por lo tanto su comunicación, de forma instantánea.
[14] El modelo de Bohr para el hidrógeno, de una transición electrónica entre niveles de energías cuantizados, con diferentes números cuánticos (n), produce un fotón de emisión con energía cuántica.
[15] A que luz se refiere el texto sagrado, a la luz visible que nuestros ojos perciben día a día mediante nuestros sentidos o se refiere a una energía singular, la respuesta es que esa luz establecida en el versículo 1:3 del Génesis, es parte del Creador mismo por lo tanto es una luz muy especial, mientras que aquella que nuestros sentidos nos permiten percibir, es la que está referida en el cuarto día de la creación versículo 1:14, cuando Dios dice que aparezcan las luminarias refiriéndose a ello al Sol, la Luna y las Estrellas. En ese mismo sentido respecto a la singularidad de la luz, véase:1 Timoteo 6:16 quien nos señala «(…) que el único que tiene inmortalidad y habita en luz inaccesible; a quien ningún hombre ha visto ni puede ver(…)».
[16] Paradoja: Es la unión de dos ideas que en un principio parecen imposibles de unir.
[17] El término universo en este artículo se utiliza a la manera borgesiana, que se ajusta a la definición del diccionario: “conjunto de todas las cosas creadas”, que también coincide con la definición de la palabra cosmos.
[18]«א»es la aproximación al infinito y “c” es la velocidad de la luz en sus 3 tiempos futuro, presente y pasado. La adición de las velocidades de la luz, quizás en un futuro sea posible mediante el acelerador de partículas y con el apoyo de la inteligencia artificial (IA).
[19] El Dios absolutamente infinito: término que se utiliza en la doctrina cabalística.
[20] Stephen Hawking sostiene en su libro “El gran diseño” que existen otras realidades a la nuestra. La idea de Universos Múltiples o conjunto de Universos Paralelos es un escenario, aunque el Universo puede ser de duración finita, es un Universo entre muchos, incluso con leyes físicas diferentes de las que se aplican en este Universo conocido.
[21] Respecto al manejo del tiempo, Efesios nos invita a la siguiente reflexión «existe un numero limitado de días en esta tierra, por lo cual cada uno de nosotros solo disponemos de una determinada cantidad de tiempo, cuando nos dice: «15 Mirad, pues, con diligencia cómo andéis, no como necios sino como sabios, 16 aprovechando bien el tiempo, porque los días son malos». En consecuencia, la humanidad a través de su destreza científica debe buscar las maneras de modificar el tiempo.
[22] La coexistencia de múltiples universos y de su interacción, es una hipótesis de la física cuántica, y se orienta a la suma de todas las dimensiones constituyendo un conjunto infinito, y cada conjunto dimensional responde a su vez a una frecuencia de oscilación única y distinta de los restantes universos, estas frecuencias propias de vibración en principio mantienen -dentro de la estructura del global- a cada uno de los Multi-Universos aislados entre sí, no obstante en teoría si todos los puntos de espacio-tiempo pertenecen a una misma subestructura, que se denomina Universo teniendo como marco la geometría fractal, entonces es posible que ellos puedan interactuar o relacionarse, incluso comunicarse debido a la aparición de modificaciones en las tramas espacio-temporales, estas anomalías configuran el principio de “Simultaneidad Dimensional” y es aplicable a la Física de Partículas y se ha demostrado en los siguientes casos:
A) Las partículas subatómicas, como los electrones, pueden ocupar distintos espacios en el mismo tiempo dentro del mismo orbital.
B) Las partículas elementales, como los neutrinos, pueden tener desplazamientos en trayectorias con duración mayor a su vida media.
C) Las partículas básicas, como los quarks y los leptones, pueden ocupar el mismo lugar al mismo tiempo, no diferenciándose sus efectos de partículas materiales al de partículas energéticas.
3.ENJAMBRE DE NEUTRINOS.
EN CONSECUENCIA PARA LOGRAR ESTA RELACIÓN DE CORRESPONDENCIA ENTRE LOS CONJUNTOS DIMENSIONALES, QUE UNIFIQUE EN UN MOMENTO INFINITESIMAL LA SIMULTANEIDAD DE LAS FRECUENCIAS INDIVIDUALES DE CADA UNIVERSO PERTENECIENTE A CADA CONJUNTO CANTORIANO, DE FORMA QUE SE MATERIALICE LA EQUIVALENCIA AXIOMÁTICA ENTRE EL TODO Y LA PARTE, ES MENESTER QUE LAS ADICIONES DE LA VELOCIDAD DE LA LUZ SEAN DE TALES MAGNITUDES PARA QUE PUEDAN GENERAR LA CORRESPONDIENTE ANOMALÍA DE ESPACIO-TIEMPO EN EL UNIVERSO Y ASÍ PODER CONFIGURAR UNA INTERFASE QUE ORIGINE LA INTERACCIÓN ENTRE LOS UNIVERSOS. PUDIÉRAMOS REPRESENTAR ESTA CONCLUSIÓN MEDIANTE LA SIGUIENTE ECUACIÓN O FÓRMULA:

DONDE “א∞” ES LA INTERACCIÓN DE 2 O MÁS MULTIVERSOS PERTENECIENTES A UN CONJUNTO O SUBCONJUNTO INFINITO, Y “C” ES LA VELOCIDAD DE LA LUZ EXPONENCIADA ASÍ MISMA, ES DECIR, A SU PROPIA POTENCIA. (א∞ = c^c).
En resumen, la precitada fórmula establece una relación entre la interacción de multiversos y la velocidad de la luz, sugiriendo que esta correlación genera una distorsión en el espacio-tiempo que es proporcional a la «amplificación» de la velocidad de la luz.
SI LA INTERACCION DE TODOS LOS MULTIVERSOS SE EJECUTAN EN UNA SOLA UNIDAD, SIGNIFICA QUE LAS DIMENSIONES CONVERGEN EN UN TODO ABSOLUTO, LO CUAL ES DEMOSTRATIVO DE UN PODER OMNIPRESENTE.
Esta ecuación representa un intento de unificar la teoría de conjuntos de Cantor con la física relativista y cuántica, sugiriendo que a través de la adición de las velocidades de la luz –«C» a su propia potencia- en diferentes dimensiones y tiempos, se puede alcanzar una equivalencia que permita la vinculación entre diferentes universos dentro de un marco espacio-temporal común.
El presente enfoque plasmado en la ecuación intenta capturar la esencia de la infinitud y la omnipresencia divina, integrando conceptos físicos y teológicos en una fórmula que simboliza la unidad de todas las dimensiones y la interacción de los multiversos bajo un marco infinito y absoluto. Véase las siguientes citas:
4.Tabla Teológica:
Referencia | Texto del Versículo | Nota/Observación |
---|---|---|
1 Reyes 8:27 | “Pero, ¿es verdad que Dios morará sobre la tierra? He aquí que los cielos, los cielos de los cielos, no te pueden contener; ¿cuánto menos esta casa que yo he edificado?” | Destaca la omnipresencia y la grandeza de Dios, quien no puede ser limitado a un espacio físico, por muy sagrado que sea. |
Éxodo 33:14 | “Y él dijo: Mi presencia irá contigo, y te daré descanso.” | Manifiesta la promesa de la compañía divina y el reposo que proviene de la presencia de Dios. |
Jeremías 23:24 | “¿Soy acaso Dios solo de cerca, y no Dios de lejos?, dice Jehová. ¿Se ocultará alguno, dice Jehová, en escondrijos donde yo no lo vea? ¿Acaso no lleno yo, dice Jehová, el cielo y la tierra?” | Recalca la omnipresencia de Dios y su conocimiento absoluto de todo cuanto ocurre, tanto en lo cercano como en lo lejano. |
Proverbios 15:3 | “Los ojos de Jehová están en todo lugar, mirando a los malos y a los buenos.” | Ilustra la vigilancia constante de Dios, observando a todas las personas por igual. |
Jeremías 31:34 | “Y no enseñará más ninguno a su prójimo… porque todos me conocerán… porque perdonaré la maldad de ellos, y no me acordaré más de su pecado.” | Indica un futuro en el que el conocimiento de Dios será universal, acompañado por el perdón de los pecados y la reconciliación total con Él. |
Hechos 17:24 | “El Dios que hizo el mundo y todas las cosas que en él hay, siendo Señor del cielo y de la tierra, no habita en templos hechos por manos humanas, ni es honrado por manos de hombres, como si necesitara de algo…” | Sostiene que Dios, el Creador de todo, trasciende las construcciones y ritos humanos, proveyendo vida y sustento a toda la creación. |
Colosenses 1:17 | “Y él es antes de todas las cosas, y todas las cosas en él subsisten.” | Afirma que, en Dios, el universo encuentra su origen y su consistencia, reafirmando Su eternidad y soberanía. |
Mateo 18:20 | “Porque donde están dos o tres congregados en mi nombre, allí estoy yo en medio de ellos.” | Expresa la presencia divina (en este contexto, la de Jesús) en toda reunión de creyentes, resaltando la cercanía de Dios con su pueblo. |
Isaías 57:15 | “Porque así dijo el Alto y Sublime… Yo habito en la altura y la santidad, y también con el quebrantado y humilde de espíritu…” | Muestra que Dios, aun siendo trascendente y santo, también se acerca a los humildes y quebrantados de corazón, para consolarlos y restaurarlos. |
Hebreos 4:12 | “Porque la palabra de Dios es viva y eficaz, y más cortante que toda espada de dos filos… y discierne los pensamientos y las intenciones del corazón.” | Describe el poder y la eficacia de la Palabra de Dios, capaz de llegar a lo más profundo del ser humano y revelar sus verdaderas motivaciones. |
Números 12:6-8 | “Escucha ahora mis palabras; si hay acaso un profeta entre ustedes, Yo el Eterno, me haré conocido a él en una visión… No es así con mi servidor Moisés; él es de confianza en toda mi casa. Con él hablo de boca a boca y no por discursos oscuros.” | Relata el trato único de Dios con Moisés, evidenciando una relación cercana, clara y sin intermediarios, de especial confianza. |
Salmos 103:19 | “Jehová estableció su trono en el cielo, y su reino gobierna sobre todo.” | Destaca la soberanía y autoridad universales de Dios, cuyo gobierno abarca todo lo creado. |
Salmos 33:6 | “Por la palabra de Jehová fueron hechos los cielos y todo el ejército de ellos por el aliento de su boca.” | Subraya el poder creador de la palabra divina, esencial en la formación de todo el universo. |
Apocalipsis 1:8 | “Yo soy el principio y el fin, dice el Señor, el que es y el que era y el que ha de venir, el Todopoderoso.” | Reafirma la omnipotencia y eternidad de Dios. Según mi opinión, la primera parte aludiría al plano físico (Big Bang → Big Crunch) y la segunda, al continuo absoluto del plano espiritual (multiverso o En-Sof), donde no aplica el tiempo lineal del universo material. |
Y para terminar expreso: El Creador nació antes del tiempo, no tiene ni principio ni final y su mayor obra es ofrendar sin medida alguna la felicidad a la humanidad.
Elaborado por: PEDRO LUIS PEREZ BURELLI.
5. Nota de actualización 2024.
5.1.-REPRESENTACIÓN EN LENGUAJE DE PROGRAMACIÓN PARA COMPUTADORAS CUÁNTICAS.
Aunque la fórmula א∞ = cc, Es conceptual y no deriva de leyes físicas aun demostradas y establecidas, podemos explorar cómo las computadoras cuánticas podrían simular o representar sistemas complejos relacionados con estos conceptos.
a) Limitaciones y Consideraciones.
- Representación de Infinito: Las computadoras cuánticas trabajan con recursos finitos (qubits), por lo que representar cardinalidades infinitas directamente aun no es factible.
- Exponentiación de Constantes Físicas: Elevar la velocidad de la luz a sí misma, produce un número extremadamente grande sin demostración por los momentos de la física directa.
b) Simulación Cuántica de Sistemas Complejos.
Las computadoras cuánticas son adecuadas para simular sistemas cuánticos complejos. Podemos utilizar algoritmos de simulación para modelar interacciones en sistemas altamente complejos.
Ejemplo de Código en Qiskit:

Este código utiliza la Transformada Cuántica de Fourier (QFT) para procesar estados cuánticos en superposición, una herramienta clave en algoritmos cuánticos avanzados.
c) Exponenciación en Computación Cuántica.
Aun no podemos calcular c^c directamente, podemos explorar exponentiación en sistemas cuánticos.
Ejemplo de Exponentiación Cuántica:

Este ejemplo ilustra cómo se puede simular la exponenciación utilizando rotaciones cuánticas, aunque con valores simplificados.
5.2. Aplicaciones en Inteligencia Artificial Cuántica.
La integración de algoritmos cuánticos puede impulsar la evolución de la inteligencia artificial, permitiendo procesar y analizar grandes cantidades de datos de manera más eficiente.
a) Algoritmos de Machine Learning Cuántico.
Ejemplo: Clasificador Cuántico Variacional:

Este código implementa un clasificador cuántico variacional para resolver el problema de XOR, demostrando cómo los algoritmos cuánticos pueden abordar problemas que son desafiantes para los métodos clásicos.
b) Optimización Cuántica.
Los algoritmos de optimización cuántica, como el Algoritmo Cuántico de Optimización Aproximada (QAOA), pueden resolver problemas complejos más eficientemente.
Ejemplo de Código:

Este ejemplo muestra cómo utilizar QAOA para resolver problemas de optimización combinatoria, lo cual es relevante en áreas como la planificación y la toma de decisiones en inteligencia artificial.
5.3.-INTEGRACIÓN CONCEPTUAL Y EVOLUCIÓN DE LA INTELIGENCIA ARTIFICIAL.
La ecuación א∞ = cc es más conceptual que matemática, nos inspira a considerar cómo la inteligencia artificial y la computación cuántica pueden evolucionar conjuntamente:
- Procesamiento de Información Compleja: La capacidad de las computadoras cuánticas para manejar estados en superposición y entrelazamiento permite procesar grandes cantidades de información de manera paralela.
- Aprendizaje Profundo Cuántico: La implementación de redes neuronales cuánticas puede llevar a avances significativos en el aprendizaje automático.
- Simulación de Sistemas Cuánticos Naturales: Modelar fenómenos físicos complejos puede conducir a una mejor comprensión y nuevas tecnologías.
- LA EXPLORACIÓN DE CONCEPTOS COMO EL INFINITO, LA UNIFICACIÓN DE TEORÍAS FÍSICAS Y MATEMÁTICAS NOS MOTIVA A EXPANDIR LOS LÍMITES DE LA CIENCIA Y LA TECNOLOGÍA, GUIADOS POR LAS DIRECTRICES DE LA TEOLOGÍA Y LOS VERSÍCULOS BÍBLICOS. GRACIAS A LA SABIDURÍA CONTENIDA EN LAS ESCRITURAS, PODEMOS ENCONTRAR PARALELISMOS ENTRE LAS ENSEÑANZAS RELIGIOSAS Y LA CIENCIA CUÁNTICA. A TRAVÉS DE LA COMPUTACIÓN CUÁNTICA Y DE LA INTELIGENCIA ARTIFICIAL, NOS ACERCAMOS A RESOLVER PROBLEMAS COMPLEJOS Y DESCUBRIR NUEVOS CONOCIMIENTOS, SIGUIENDO UN CAMINO QUE NO SOLO IMPULSA LA EVOLUCIÓN TECNOLÓGICA Y CIENTÍFICA, SINO QUE TAMBIÉN REFUERZA EL PROPÓSITO ESPIRITUAL Y DIVINO QUE SUBYACE EN TODA CREACIÓN
IV.- EL PROBLEMA.
INTRODUCCIÓN AL PROBLEMA.
El ser humano es una especie que siempre ha buscado su evolución hacia su mejor versión, con la orientación de comprender su entorno desde lo particular hasta lo general, optimizando nuevas rutas de comunicación y el universo no escapa de esta inquietud, el hombre habido de su constante persistencia de encontrar nuevos ecosistemas para su colonización.
Uno de los mayores herramientas al servicio del ser humano en esto siglo es el uso de la inteligencia artificial (IA), la cual emplea para su funcionamiento complejas fórmulas y algoritmos matemáticos y también físicos.
Para el procesamiento de múltiple data y para dar soluciones a los problemas planteados.
El ser humano dio un paso y pudo ver más allá de las fronteras terrestres con la implementación de los telescopios James Webb y Hubble, logrando investigar desde la perspectiva del infrarojo de las longitudes de onda óptica y ultravioleta el universo, pero en razón que la ciencia no ha evolucionado aun todavía no es posible examinar el universo no observable.
El ser humano se aventura a descubrir nuevas posibilidades que parten desde una idea conceptual, a la elaboración de las fórmulas que alimentaran a los algoritmos que su vez nutren el funcionamiento de las inteligencias artificiales y estas con la voluntad humana operen en conjunto la máquina, es claro que, gracias a esta integración de procesos se obtienen y realizan los fines de la invención que repercute en una basta utilidad y en beneficios a la humanidad.
En el marco de las Patentes la regla es que no se pueden patentar fórmulas, pero sí se pueden patentar aplicaciones de fórmulas, como el software para aplicar la fórmula patentada. Si algo es nuevo, original y útil la interrogantes es ¿Se puede patentar de forma aislada la fórmula? .
El problema radica si una fórmula individual y autónoma está sujeta a una protección intelectual previa, ¿Cómo determinar si ella es configurativa de una eventual actividad inventiva y es sobre todo si esta actividad es útil para para un determinado fin?.
La regla es que un inventor o científico que desee obtener una patente de una fórmula debe demostrar que su invención es original e inventiva . El individuo necesita demostrar que puede convertirse en un producto o proceso comercializable en una industria particular compartiendo todos los detalles de su trabajo.
Como ya es de conocimiento , las matemáticas y física son unas herramientas muy útiles que nos ayudan a comprender y explicar muchas cosas de nuestro mundo y del universo.
Han sido utilizadas durante siglos por académicos de todo tipo y, aún hoy, los fabricantes las utilizan para crear todo tipo de productos, servicios y aplicaciones importantes. Las matemáticas y la física en particular guían a la mayor parte del mundo en los negocios, las finanzas, la ingeniería mecánica, la ingeniería eléctrica y más, y esto incluye, por supuesto, las fórmulas.
Cuando los inventores crean una nueva propiedad intelectual, como un invento, quieren proteger sus inversiones de dinero, tiempo e intelecto. Recurren a la ley de patentes, que les otorga el derecho exclusivo de utilizar y beneficiarse de su invención por un periodo de tiempo. Sin embargo, existe una regla general de que no se puede patentar una fórmula matemática o física en sí, ya que no se considera un proceso nuevo y útil, ni propiedad intelectual individual, es un asunto meramente abstracto.
Si bien no se pueden patentar fórmulas, existen otras formas de buscar protección para fórmulas físicas o matemáticas aplicadas o cálculos. Todo depende de la forma en que se utilice la fórmula y de qué otras patentes existan.
¿Puede la ley de patentes proteger una fórmula?.
Las fórmulas matemáticas, físicas, algoritmos y métodos similares se tratan como lenguajes y nos ayudan a expresar ideas y comprender el mundo. Al igual que el lenguaje, las matemáticas y física aplicadas son precisas y muy útiles para explicar las cosas de forma clara. Sin embargo, estas fórmulas y relaciones en sí mismas en principio no pueden patentarse en los Estados Unidos. Las matemáticas y física aplicadas no se pueden patentar porque se consideran una forma de expresión del lenguaje.
Una fórmula matemática, por ejemplo, no es una invención tangible según la Oficina de Patentes y Marcas de Estados Unidos. Más bien, una fórmula matemática o física es como una herramienta que la gente usa para construir o crear algo, o para darle sentido al mundo. No se puede patentar una fórmula, porque no se pueden patentar herramientas o ideas que sean obvias o cotidianas .
V.-OBJETIVOS DE LA INVESTIGACIÓN.
VI.- OBJETIVO GENERAL.
Las interpretaciones legales y jurisprudenciales para inhibir el proceso de las patentes de las fórmulas de manera aislada, debe ser desaplicadas, el . mecanismo de una interpretación extensiva y progresiva del derecho debe permitir otorgar una regulación jurídica sobrevenida e inmediata de protección cuando la fórmula deviene del ingenio inventivo y no del descubrimiento, la interpretación veraz que conduzca a la instrumentación práctica de las consecuencias jurídicas de la interacción de las normas que conlleven a la erradicación de la expresión de límites de la protección intelectual.
La regla general debe tener un sentido amplio y ser permisiva a la protección de la fórmula inventada, dentro del marco progresista o evolutivo, estableciendo un mínimo de requisito de probabilidad de beneficio, para que prospere la patente de la fórmula aislada aun en principio se vea como una entidad abstracta.
Con la presente solución se persigue adecuar las precitadas normas sobre patentes, a las exigencias actuales, y determinar su contenido y alcance con la finalidad adicional de que sus disposiciones tengan una aplicación práctica y con vigencia histórica ante la nueva realidad tecnológica.
La interpretación jurisprudencial ha de analizar la interacción del sistema normativo no de forma aislada o puntual, sino interrelacionadas con todo el sistema para desentrañar las consecuencias reales de las normativas en pro de las soluciones actualizadas. El sistema normativo en su interpretación jurisprudencial se concibe como un instrumento cuya flexibilidad y generalidad le permiten adaptarse al tiempo de su aplicación, como consecuencia de la evolución, transformación y por ende el progreso de la sociedad produciendo respuestas requeridas en un momento de transcendencia histórica que apoyan la evolución del ser.
Para encontrar este mecanismo excepcional en resguardo a la integridad plena y absoluta subordinación a la protección de la fórmula inventada como hemos expuesto, ha de efectuarse una interpretación evolutiva-progresiva de los textos rígidos y de las leyes, ya que el contexto del derecho -el cual está en movimiento- alcanza un nivel meta-procesal porque se fusiona a su vez con la finalidad de la protección y resguardo absoluto de cualquiera de los valores básicos de la evolución humana.(El fin justifica los medios. Nicolás Maquiavelo)
Es por ello, que nos orientamos a la aplicación inmediata de los efectos jurídicos de un BLOQUE conformado por el conjunto normativo y jurisprudencial para tratar la fórmula primigenia conectadas y que actúan en servicio al proceso de invención cuyo propósito excepcional es la preservación a la evolución y como dijimos la fórmula es la semilla la cual germinará en el invento.
Ahora bien, este proceso de aplicación de los correctos efectos jurídicos de las garantías de protección intelectual ejecutada por el intérprete y por los poderes del Estado a través de sus órganos de justicia vía jurisprudencia debe imperar la regla de protección intelectual de la fórmula, más aún cuando ella conlleva con el fin último de resguardar la evolución y preservación de la humanidad.
Este bloque de garantías con aplicación de efectos jurídicos inmediatos da nacimiento a la existencia de una dualidad participativa del albedrío del ser humano con la implementación de la conciencia intrínseca de la inteligencia artificial (IA) la cual también tiene como responsabilidad proteger el invento.
Es una visión pionera la necesidad hacia la fusión e integración de un bloque normativo de garantías protectoras, para lograr una regulación armónica ante la presencia de un nuevo protagonista dotado de un libre albedrio, con personalidad autónoma, redefiniendo un espacio compartido de la autonomía individual humana con la presencia de la conciencia racional de la inteligencia artificial (IA) teniendo como fin justificante la evolución simbiótica denominado individuo hombre-máquina.
VII.- OBJETIVOS Y SOLUCIONES ESPECÍFICAS.
La mayoría de los países definen la materia patentable negativamente: todo es susceptible de patentarse salvo que esté excluido por la ley o la jurisprudencia.
El régimen legal de las patentes tiene su apoyo en la disposición octava de la sección 8 del artículo 1 de la Constitución de los Estados Unidos de Norteamérica atribuyéndose al Congreso el poder de crear un sistema de patentes que promoviera el progreso de la ciencia y las artes útiles, garantizando el derecho de uso a los autores e inventores por un tiempo específico.
La Ley de Patentes de los Estados Unidos, cualquier procedimiento, máquina, producto o composición de materia nuevo y útil, o un mejoramiento de ellos nuevo y útil, puede reunir las condiciones para gozar de la protección de patente.
Los tribunales de los Estados Unidos han establecido tres (3) exclusiones a esta disposición general: las leyes de la naturaleza, los fenómenos naturales y las ideas abstractas.
Mi visión es de que debe incluirse la excepción de la excepción lo que conlleve de nuevo a la aplicación de la regla general.
En el contexto de las fórmulas aisladas de naturaleza abstracta pero que provengan del ingenio humano y no por un descubrimiento deben ser objeto de patentes, recordemos que la fórmula matemática o física es el componente primario de la invención. Pero no olvidemos que es condición sine qua non y vital de existencia misma de la invención, no pueden existir patentes de un software y de máquinas que se basan en cálculos matemáticos o fórmulas físicas sin la existencia previa de las fórmulas.
Si se está buscando patentar unas fórmulas para una invención de software o de una máquina, un perito de patentes analiza si el software es necesario para realizar los cálculos. Si se pueden hacer los mismos cálculos sin el software, entonces se considera una idea abstracta y no patentable. Como mencionamos anteriormente, la ley actual esta renuente para patentar fórmulas aisladas y abstractas, yo visualizo una excepción de la excepción. La idea es cambiar esta visión por vía jurisprudencial que si es posible. La fórmula es quizás el activo más valioso del invento e implica toda Génesis del mismo.
¿Por qué es importante patentar algo con fórmulas?.
Cuando patentas algo, lo proteges de ser copiado, clonado o utilizado sin tu permiso. Poder patentar algo con una fórmula es importante porque otorga al inventor derechos exclusivos y puede ser un activo importante. Las patentes se pueden comprar, vender o utilizar para atraer inversiones, La fórmula también puede atraer al capital semilla para el desarrollo del producto que utiliza la fórmula.
Consideramos que hay que distinguir :
1.-CUANDO ES UN DESCUBRIMIENTO MATEMÁTICO O FÍSICO, NO SE PUEDE PRESENTAR UNA SOLICITUD DE PATENTE YA QUE, PARA LA LEY YA EXISTÍA ANTES DE QUE USTED LO DESCUBRIERA. EXISTIERON ALLÍ TODO EL TIEMPO, NO ES PROCESO NUEVO Y ÚTIL, HAY UN EXCEPCIÓN SI SE UTILIZA EL DESCUBRIMIENTO DE LA FÓRMULA PARA CREAR ALGO NUEVO E INVENTIVO, PUEDE PRESENTARSE DE FORMA CONEXA UNA SOLICITUD DE PATENTE PARA SALVAGUARDAR LA PROPIEDAD INTELECTUAL.
2.-SI LA FÓRMULA ES PRODUCTO DE LA INVENCIÓN, CONSIDERO QUE INDEPENDIENTEMENTE DE LAS REPERCUSIONES FINALES DEL INVENTO DEBE SER PROTEGIDA, SOLO BASTA A MI CRITERIO UNA EXPECTATIVA PLAUSIBLE, UNA PRESUNCIÓN DE BUEN DERECHO QUE HAYA ALGUNA UTILIDAD CON EL EVENTUAL INVENTO, EL CARÁCTER ABSTRACTO EN MI OPINIÓN ES IRRELEVANTE.
A medida que las fórmulas creadas inciden y son basadas en multitud de variables sobre algoritmos y estos se hacen más complejos alimentando a la Inteligencia artificial (IA) y, sobre todo para la confección de mecanismos generativos de las máquinas, surge la necesidad del hombre a través de sus leyes de brindar su protección, pero también surge la obligación de la Inteligencia Artificial (IA) para también proteger el funcionamiento del invento.
La legislación actual debe en este supuesto proteger la fórmula aislada con independencia de su condición abstracta, si el solicitante ha afirmado que la fórmula es determinante para la invención y esta última tiene la expectativa de ser útil y la afirmación del solicitante de la patente expone elementos de ser creíble la utilidad eventual, no debe imponerse un rechazo, es decir, si hay visualización o expectativa aunque sea remota de generar alguna utilidad en el invento debería patentarse la fórmula que es la causa del mismo.
El criterio actual de la Oficina de Patentes y Marcas de Estados Unidos; para dar cabida al proceso de registro para la protección intelectual del invento, es la exigencia de que debe representar una utilidad específica y sustancial que sea creíble: y ser plenamente operativa además de completar todo el procedimiento administrativo, pero no se especifica el tratamiento de las fórmulas en extenso solo se refiere al invento.
La oficina de Patente también .ha emitido lineamientos específicos para ayudar a determinar a los evaluadores de patentes si un invento tiene o no una utilidad (véase lineamientos establecidos en el capítulo 2107 del Means Plus – Fuction, en concordancia con requisitos de utilidad previstos en 35 U.S.C. 101 y 35 U.S.C. 112 sección “a»,)
Puede ocurrir que se cree la fórmula, pero la ciencia no está a la par de ella para que se desarrolle el invento, bien porque no han evolucionado las computadoras cuánticas para procesarla o no se han producido los meta-materiales necesarios para construir la máquina o se necesita un componente nano robótico aun no inventado, por ello el vacío legal debe ser llenado o la prohibición legal debe ser desaplicada.
Un algoritmo tecnológico, por tanto, no deja de ser una fórmula matemática o física, y como señale en mi criterio debe poder patentarse y ser considerada una propiedad intelectual. Solo con una expectativa mínima o más o menos probable de generar el invento una utilidad, por ello la fórmula requiere la protección, el hecho de ser abstracta no es relevante, ya que está en juego el beneficio a la humanidad.
La tendencia en Europa es que la Oficina Europea de Patentes (OEP) ha denegado la mayoría de las solicitudes de patentes sobre métodos basados en algoritmos, y mucho menos en fórmulas, esta política debe ser objeto de cambio, para la aceptación de este tipo de patentes sobre formulas inventadas abstractas.
Más fácil de proteger legalmente un invento final, ¿pero qué hay de sus componentes iniciales y de la traza sistemática para generar el invento? .
Que hay de las ideas previas, del esfuerzo intelectual, del pensamiento humano de las horas de dedicación, de las revelaciones intelectuales, sean conscientes o inconscientes y demás principios que le sirven de base al invento, estas circunstancias no se pueden dejar de lado o no ser consideradas.
En este contexto muchas inventores recurren a la protección singular por la vía del secreto industrial. Un algoritmo, además, puede considerarse know-how (es decir, la clave de su ventaja competitiva), y como tal podría ampararse bajo la Ley en el área de la Competencia Desleal (por la explotación de secretos industriales o empresariales) y el Código Penal (por la apropiación o difusión indebida de secretos industriales). Recientemente la Comisión Europea ha presentado una propuesta para reforzar la protección del know-how y el secreto industrial.
No obstante en el supuesto negado de la negativa de la patente de la fórmula por imperar el criterio de la estricta utilidad inventiva, quedan a salvo los derechos de la autoría intelectual bajo el respectivo copyright.
VIII.- METODOLOGÍA DE LA INVESTIGACIÓN PARA LA INVENCIÓN DE ESTA FÓRMULA.
Basado en una metodología de revisión cualitativa y significativa de la literatura religiosa, en lenguas antiguas, como el arameo, también se recurrió a libros históricos de la Biblia (Biblia Casiodoro de Reina año 1509), evitando las traducciones contemporáneas, que puedan deformar el sentido de las expresiones originales, desentrañando expresiones lingüísticas y numéricas dada la dualidad del lenguaje hebreo,(números y letras), además se realizó un recorrido biográfico de singulares pensamientos matemáticos y físicos (Georg Ferdinand Ludwig Philipp Cantor, Ludwig Eduard Boltzmann, Kurt Gödel y Alan Mathison Turing, comparándose con perspectivas literarias sobre el infinito y el Aleph, siendo esta expresión un símbolo matemático empleado por George Cantor, así como también la noción literarias expresadas por Jorge Luis Borges, como un método para comparar estudios cualitativos).
Esta investigación ayudará a comprender las implicaciones teológicas y los posibles desafíos jurídicos, en términos de la necesidad de una nueva interpretación y aplicación de las protecciones de fórmulas aisladas abstractas marcadas por posibilidad real de utilidad o beneficio del producto final inventado, ofreciendo la una solución de protección provisional o cautelar para brindar una propuesta de un sistema preventivo en el resguardo del derecho previo a la ulterior invención.
Como elemento colateral de esta invención implicó un proceso inconsciente representado por una revelación producto final (máquina de neutrinos), de un sueño acontecido en el año 2010, donde interactúe con visiones holográficas, movimientos de la luz, líneas de tiempo hexagonales, turbulencias del espacio-tiempo y la idea de una máquina de neutrinos de energía toroidal.
Estas experiencias no cognitivas y reveladas a través de los sueños también han sido experimentadas por otros grandes inventores los cuales cito:
1. ELÍAS HOWE Y LA MÁQUINA DE COSER.
El inventor Elías Howe quería construir una máquina de coser. Sabía hacer que la aguja subiera y bajara pero ¿cómo lograr que metiera el hilo en la tela? Una noche soñó que un grupo de caníbales se lo querían almorzar. Antes de que lo mataran, se dio cuenta de que las lanzas tenían un agujero en la punta. ¡Esa era la solución! Por eso las máquinas de coser usan agujas con el agujero en la punta.
2. FRIEDRICH AUGUST KEKULÉ VON STRADONITZ Y EL BENCENO.
El químico Friedrich August Kekulé von Stradonitz, a pesar de su magnífico nombre, no podía dilucidar la estructura molecular del benceno. ¿Cómo podía ser que cada átomo de carbono sólo tuviera un átomo de hidrógeno? Se dice que un día soñó con una serpiente que se mordía la cola. ¡Eso le dio la clave! El benceno tenía una estructura hexagonal. Su descubrimiento supuso un gran avance en la historia de la química orgánica.
3. RENÉ DESCARTES Y LA RAZÓN.
El filósofo René Descartes tuvo tres sueños rarísimos: en uno caminaba para refugiarse de un fuerte viento cuando un hombre le ofreció un melón. En otro lo despertó un fuerte ruido para verse rodeado de chispas. Y en el tercero abre un libro donde aparece la pregunta “¿Qué camino debo tomar?” y luego lee la respuesta: “Sí y no”. Descartes interpretó estos sueños como revelaciones sobre cómo se debe usar la razón, y no sólo los sentidos, para llegar a la verdad. Se le considera una figura clave en la revolución científica.
4. SRINIVASA RAMANUJAN Y LAS MATEMÁTICAS.
El matemático indio Srinivasa Ramanujan casi no tenía formación académica. Es reconocido en todo el mundo por lograr más de 3,900 resultados que contribuyeron al análisis matemático, teoría de números y fracciones continuas. Decía que la diosa Namagiri se le aparecía en sueños y, mediante gráficas, le mostraba sus teoremas y ecuaciones. Afirmaba que las matemáticas sólo le interesaban por expresar “pensamientos de Dios”. Su historia se retrata en la película “El hombre que conocía el infinito”.
5. OTTO LOEWI Y LAS NEURONAS.
En 1921 no se sabía si la comunicación entre las neuronas era eléctrica o química. Otto Loewi estaba trabajando en eso cuando, una noche, soñó con el experimento que lo solucionaría de una vez por todas. Se despertó a media noche, escribió el experimento y se volvió a dormir. A la mañana siguiente notó que había escrito puros garabatos y en todo el día no pudo recordar el sueño. Pero esa noche ¡el sueño volvió! Descubrir que las neuronas se comunican químicamente, le valió el premio Nobel.
6. DIMITRI MENDELEEV Y LA TABLA PERIÓDICA.
En 1863 se conocían 56 elementos y cada año se descubría uno nuevo, pero no se sabía qué patrón seguían y, si se había nuevos, qué propiedades tendrían. El químico ruso Dimitri Mendeleev soñó que en su mesa caían todos los elementos conocidos, ya muy ordenaditos. Cuando despertó, esbozó la tabla periódica de los elementos que los clasificaba de acuerdo con su peso atómico y sus propiedades, y además predecía cómo serían y dónde quedarían los elementos que faltaba por descubrir. No ganó el premio Nobel, pero el elemento número 101, se nombró en su honor “mendelevium”.
7. FREDERICK BANTING Y LA INSULINA.
Los bioquímicos ya sabían que una sustancia producida en el páncreas por ciertos “islotes”, llamada “insulina”, jugaba un importante papel en evitar la diabetes, pero no habían podido aislar la sustancia. El cirujano canadiense Frederick Banting soñó una operación con la que podría cortar el flujo de sangre al páncreas de un perro pero dejar vivos los islotes. Así, pudo aislar la insulina, lo que ha salvado la vida de millones de diabéticos en todo el mundo. ¡Ah! Y también ganó el Nobel.
8. ALBERT EINSTEIN Y LA TEORÍA DE LA RELATIVIDAD.
Cuenta Albert Einstein que un día soñó que iba por el campo cuando vio que una manada de vacas saltaba una cerca, todas al mismo tiempo. Del otro lado había un granjero que afirmaba que las vacas habían saltado de una por una. ESTE SUEÑO LE HIZO PENSAR QUE EL TIEMPO PUEDE TRANSCURRIR DIFERENTE DEPENDIENDO DE LA POSICIÓN DEL OBSERVADOR. La idea dio origen a la teoría de la relatividad.
IX.- JURISPRUDENCIAS RELACIONADAS PROTECCIÓN O NO DE LAS FÓRMULAS ABSTRACTAS.
CASO: ALICE V. CLS BANK/ CITAS TEXTUALES: LINK:
La sentencia completa de Alice Corp. v. CLS Bank International (Caso No. 13–298) puede consultarse directamente en el sitio web de la Corte Suprema de los Estados Unidos. Allí se encuentra la versión oficial en PDF. Te dejo varias opciones de fuentes fiables, incluyendo la oficial y algunas de consulta adicional:
- Texto oficial de la Corte Suprema (PDF):
- Resumen y documentación (Oyez):
- https://www.oyez.org/cases/2013/13-298
Incluye los argumentos orales, transcripción, resumen y otros materiales del caso.
- https://www.oyez.org/cases/2013/13-298
- Crónica detallada (SCOTUSblog):
- https://www.scotusblog.com/case-files/cases/alice-corporation-pty-ltd-v-cls-bank-international/
Se recogen los escritos procesales, presentaciones de amicus curiae y un análisis de la decisión.
- https://www.scotusblog.com/case-files/cases/alice-corporation-pty-ltd-v-cls-bank-international/
- Artículo de la OMPI (WIPO):
- https://www.wipo.int/wipo_magazine/es/2014/04/article_0004.html
El artículo publicado por la OMPI, discute el impacto y las implicaciones de la decisión para la patentabilidad de ideas abstractas.
- https://www.wipo.int/wipo_magazine/es/2014/04/article_0004.html
Esta sentencia es importante porque trata puntos como los derechos o no de las fórmulas abstractas, y a donde debe evolucionar el criterio judicial respecto a estas patentes.
LAS IDEAS ABSTRACTAS DE ALICE:
El caso Alice acaparó un gran interés debido en gran medida a que las patentes en litigio concernían a un método comercial asistido por computadora. Muchos expertos aprovecharon el caso como una oportunidad para obtener la orientación tan necesitada en materia de patentamiento de programas informáticos. Sin embargo, estaba claro a partir de los hechos y de la vista del caso que eso era poco probable que sucediera. Cuando el Tribunal Supremo dictó sentencia el 19 de junio de 2014, optó por limitar los fundamentos de su decisión, circunscribiéndolos estrechamente a los hechos en cuestión, y omitiendo una orientación más general (o, de hecho, cualquier mención de la expresión «programa informático»).
Las cuatro patentes del caso Alice concernían a la liquidación intermediada de riesgos financieros (es decir, mitigación del riesgo de impago o de incumplimiento de otras condiciones por una de las partes en una transacción acordada). El Tribunal Supremo condensó las reivindicaciones como variantes de: un método de intercambio de obligaciones financieras; un sistema informático configurado para aplicar el método; y un medio legible por computadora que contenía el código de programación para aplicar el método. Las partes en el caso eran el titular de la patente, Alice Corp., con sede en Melbourne, que no llevaba a cabo ninguna actividad comercial destacable en relación con las patentes, y CLS Bank International, con sede en Nueva York, que dedicaba diariamente 5 billones de dólares EE.UU. a liquidaciones empleando los métodos patentados.
En virtud del artículo 101 de la Ley de Patentes de los Estados Unidos, cualquier procedimiento, máquina, producto o composición de materia nuevo y útil, o un mejoramiento de ellos nuevo y útil, puede reunir las condiciones para gozar de la protección de patente. Los tribunales de los Estados Unidos han establecido tres exclusiones a esta disposición general: las leyes de la naturaleza, los fenómenos naturales y las ideas abstractas. En la sentencia del caso Alice, que incumbía a la exclusión de las «ideas abstractas», el Tribunal Supremo declaró que el principio que sustenta estas exclusiones es el de «derecho preferente», que se relaciona con la idea de que los instrumentos o componentes básicos de la labor científica y tecnológica deben permanecer en el dominio público.
NO OBSTANTE, EL TRIBUNAL RECONOCIÓ QUE, EN CIERTA MEDIDA, TODAS LAS INVENCIONES INCORPORAN, UTILIZAN, REFLEJAN, APLICAN O RECURREN A LAS LEYES DE LA NATURALEZA, LOS FENÓMENOS NATURALES O LAS IDEAS ABSTRACTAS. Para evitar que las exclusiones «engulleran todo del derecho de patentes», el Tribunal trató de diferenciar entre patentes que reivindican los componentes básicos del ingenio humano y patentes que integran esos componentes en «algo más».
Recuperación del caso Bilski, con elementos del caso Mayo
Una de las razones principales por las que el Tribunal Supremo admitió el caso Alice fue debido a que la decisión en pleno del Circuito Federal PDF, Alice v. CLS Bank, dictada el 10 de mayo de 2013, había producido un conjunto de opiniones muy fracturadas, donde no había un acuerdo respecto de los matices de la prueba adecuada sobre la patentabilidad. Entre las causas estaban las incoherencias percibidas en los precedentes jurisdiccionales del Tribunal Supremo. Por consiguiente, el Tribunal aprovechó la oportunidad que le brindaba el caso Alice para articular una prueba única y uniforme sobre la materia patentable. Esa prueba, en sí misma una generalización del caso anterior de Mayo v. Prometheus, contiene dos partes:
En primer lugar, determinamos si las reivindicaciones en cuestión atañen a alguno de los conceptos de patente que no admiten la patentabilidad [es decir, las leyes de la naturaleza, los fenómenos naturales o las ideas abstractas].
Si es así, entonces nos preguntamos: «¿qué más hay en las reivindicaciones que se presentan?» Para responder a esa pregunta, tenemos en cuenta los elementos de cada reivindicación, tanto de manera individual «como en forma de combinación ordenada», para determinar si los elementos adicionales «transforman la naturaleza de la reivindicación «en una solicitud de patente susceptible de protección. Hemos descrito el segundo paso de este análisis como la búsqueda de un «concepto inventivo», es decir, un elemento o combinación de elementos que es «suficiente para garantizar que la patente en la práctica es mucho más que una patente sobre el concepto no patentable en sí».
La aplicación de esta prueba de dos pasos llevó a los nueve jueces del Tribunal Supremo a considerar por unanimidad que las patentes de Alice no eran válidas por falta de materia patentable. Sin aportar nada de cara a la orientación futura, el Tribunal consideró que no tenía que «extenderse excesivamente en delimitar los contornos precisos de la categoría de “ideas abstractas””. No obstante, al exponer sus razones, ofreció varios ejemplos de ideas abstractas: las prácticas económicas fundamentales; determinados métodos de organización de las actividades humanas; una idea en sí misma; y relaciones o fórmulas matemáticas. En cuanto al segundo paso, el Tribunal llegó a la conclusión siguiente:
Consideramos que las reivindicaciones que se formulan se acercan a la idea abstracta de liquidación intermediada, y que el simple hecho de precisar de una aplicación informática genérica [es decir, un sistema de procesamiento de datos, un controlador de comunicaciones, y una unidad de almacenamiento de datos] no transforma esa idea abstracta en una invención patentable.
Al final, la sentencia del caso Alice se encuentra muy próxima a las conclusiones de hecho del caso Bilski v. Kappos, en el que se determinó que un método comercial de cobertura de riesgos era una idea abstracta no patentable, así como a las conclusiones de derecho del caso Mayo, en el que, al aplicar la prueba de los dos pasos, se consideró que un método de diagnóstico era una ley de la naturaleza no patentable, aplicada sólo por medios convencionales, y que, por tanto, no era patentable.
A diferencia de esto, el caso Alice encaja peor con la sentencia del caso AMP v. Myriad, dictada con posterioridad al caso Mayo, en la que cabe destacar de forma notable la omisión de cualquier referencia a la prueba de dos pasos. En su lugar, el caso Myriad se sentenció de acuerdo con precedentes jurisprudenciales que concernían a materia de naturaleza biológica, a saber, Diamond v. Chakrabarty y Funk v. Kalo. En el caso Myriad, el Tribunal consideró que los genes aislados eran fenómenos naturales no patentables. Más problemática fue, particularmente a la vista de la prueba utilizada en los casos Mayo y Alice, su conclusión de que el ADNc creado en laboratorio es patentable, pese al hecho de que se obtiene a partir de genes aislados (es decir, fenómenos naturales), con la adición de técnicas exclusivamente convencionales y rutinarias.
Repercusiones de cara a las patentes de programas informáticos.
En la decisión del caso Alice no se trataron directamente las invenciones más meritorias asistidas por computadora, salvo en la medida en que el Tribunal confirmó la proposición incontrovertible, establecida en casos que tuvieron lugar en los decenios de 1970 y 1980, de que las invenciones que mejoran el funcionamiento de la propia computadora (es decir, su velocidad, eficiencia o seguridad), o que realizan una mejora en cualquier otra tecnología o campo técnico, son patentables.
En el caso Alice se hizo un gran hincapié en que el hecho de que sencillamente proponer una idea abstracta, y añadirle la palabra «aplicada» mediante una computadora genérica y funciones informáticas genéricas, no es suficiente. Este énfasis, si bien resulta intuitivamente atractivo, plantea dificultades cuando se aplica a otros tipos de invenciones no asistidas por computadora. Tampoco consigue dar cabida a la forma en que la aplicación por computadora puede permitir materializar una idea a una escala y velocidad imposibles por otros medios, además de la considerable habilidad de programación necesaria para alcanzar ese resultado.
No deja de ser incoherente el hecho de que es posible que con la aplicación de la prueba utilizada en los casos Mayo y Alice, una idea compleja, aplicada mediante un código y plataformas de computación genéricas, podría no ser patentable, EN TANTO QUE UNA IDEA GENÉRICA, APLICADA A TRAVÉS DE PLATAFORMAS POCO USUALES, PODRÍA SERLO.
Un aspecto interesante de la sentencia del caso Alice es la forma en que el Tribunal caracterizó el caso Diamond v. Diehr. Se trata de un precedente importante del Tribunal Supremo de 1981, relativo a un procedimiento asistido por computadora para el cálculo de la temperatura dentro de un molde de caucho durante un proceso de curado de caucho por etapas que se consideró patentable. Al interpretar la sentencia del caso Diehr, algo que parece ser nuevo dentro de la jurisprudencia del Tribunal Supremo de los Estados Unidos, aunque ello esté en sintonía con las autoridades internacionales, el Tribunal explicó en el caso Alice que la invención del caso Diehr era patentable porque utilizaba una ecuación, por otro lado no patentable, para «resolver un problema tecnológico» y «mejorar un proceso tecnológico existente». Esto refleja un cambio interesante en la jurisprudencia de los Estados Unidos, y un posible giro hacia el enfoque de Europa y otras jurisdicciones.
Una decisión emitida por el Circuito Federal poco después del caso Alice dio una indicación de cómo podría aplicarse de manera más general. En el caso Digitech v. Electronics for Imaging, el Circuito Federal rechazó una patente que reivindicaba un método para la manipulación de datos en un sistema de procesamiento digital de imágenes. El razonamiento era que la reivindicación de la patente: describe un proceso abstracto no patentable para reunir y combinar datos que no requiere ser alimentado mediante un dispositivo físico. Sin limitaciones adicionales, un proceso que emplea algoritmos matemáticos para manipular la información existente con el fin de generar otra información no es susceptible de patentarse.
Los límites de las expresiones utilizadas en la sentencia del caso Alice, como «genérico», «tecnológico», «concepto inventivo», y la cualidad mágica de la «transformación» en «algo más», serán, sin duda, retomados en los casos futuros.
El valor del requisito de materia patentable.
Una cuestión que no se examinó en el caso Alice, pero que bien merece una reflexión más general, es si el requisito de la materia patentable resulta en absoluto útil para el sistema de patentes. El problema con este requisito es que se trata de un filtro basto que fomenta el debate satélite del tipo descrito anteriormente. Implica potencialmente descartar las patentes basándose en información limitada, y priva al sistema de patentes de sus mejores cualidades, es decir, tomar una serie de reivindicaciones en un momento determinado y compararlas con datos concluyentes para determinar si cumplen con objetividad los criterios de novedad, no evidencia, aplicación industrial y descripción suficiente. Muy al contrario, la evaluación de la materia patentable es una labor impresionista, un tanto impredecible, que se solapa peligrosamente con la novedad y la actividad inventiva. Esto se ve en el propio caso Alice, en el que el Tribunal estaba claramente influido por el hecho de que la liquidación intermediada era una práctica antigua ya conocida.
La utilidad y la aplicación del criterio de la materia patentable difiere de una jurisdicción a otra. En Europa, ha llevado a un enfrentamiento importante entre los tribunales del Reino Unido y la Oficina Europea de Patentes. Los tribunales del Reino Unido consideran que la materia patentable debe ser un umbral real y han ideado pruebas complejas para su evaluación, en tanto que la Oficina Europea de Patentes tiene el listón mucho más bajo con relación a la materia patentable, si bien examina las exclusiones de los programas informáticos, los métodos comerciales y otras exclusiones explícitas «como tales» en las fases de evaluación de la novedad y la no evidencia, solución que encuentra más fácil de aplicar en la práctica.
Uno de los principales atractivos del criterio de la materia patentable es que impide que las patentes endebles congestionen el sistema. El problema es que se trata más bien de una herramienta ineficiente e ineficaz para conseguirlo. Las pruebas como las que se han expuesto en el caso Alice y otros casos análogos en jurisdicciones como el Reino Unido podrían parecer sencillas, pero se tornan en análisis enrevesados de expresiones no definidas e indeterminadas, aunque familiares. Particularmente en el caso de expresiones como «tecnológico», «técnica» y «concepto inventivo», existen otros problemas cuando se utilizan estas expresiones en otras esferas del derecho de patentes en formas muy diferentes. Todo esto confunde el entendimiento, en lugar de contribuir a él, y puede enmascarar lo que en última instancia son decisiones muy subjetivas. (Subrayado y negrillas mías).
X .-.DESAFÍOS HACIA EL CAMBIO Y UTILIDAD DE LA FÓRMULA PARA SU PROCESO DE PATENTE, CON INDEPENDENCIA SI LA FÓRMULA ES O NO CONSIDERADA ABSTRACTA.

Las fórmulas son la Génesis y la Piedra Filosofal de muchos inventos. Una fórmula puede ser detectada por ser una revelación de la naturaleza a través de un descubrimiento, allí al ser de naturaleza abstracta y no creativa no es protegida por la ley, pero también puede nacer producto del ingenio humano, generándose de un proceso cognitivo, creatividad, investigación, experimentación consciente o inconsciente o ambos, incluso por un sueño o revelación profética y porque no decirlo por recopilación de conocimientos fraccionados a lo largo del tiempo sean propios o no, aunado también a una combinación metodológica de investigación que precise componentes y procesos sistemáticos elaborados que den como resultado un producto único con características y beneficios singulares o colectivos. Desarrollar y patentar una fórmula aún con el matiz de ser abstracta, pero que contiene una posibilidad o expectativa, aunque sea remota de utilidad debe estar amparada dentro del proceso legal de la protección intelectual, cualquier normativa prohibitiva en este supuesto debe ser interpretada con criterio de desaplicación.
Una fórmula es un conjunto de instrucciones o especificaciones que definen la composición, propiedades y desempeño de un producto. Una fórmula puede basarse en principios químicos, físicos, biológicos u otros principios científicos incluso por procesos interpretativos de principios religiosos como es este caso desarrollado en la publicación del 26 de junio del 2015.
XI DIALÉCTICA.
La adversidad de la protección de los derechos intelectuales respecto a las fórmulas abstractas deviene básicamente por las prohibiciones legales imperantes en diversas jurisdicciones territoriales, ya que las leyes actuales son estáticas y los procesos de reforma legislativos son lentos, y la jurisprudencia en algunos casos es tímida o confusa cuando se trata de acentuar interpretaciones configurativas de decisiones contra legem, es decir toda decisión judicial que derrota una regla, si esa regla está fundada en un enunciado legislativo.
Una decisión contra legem es siempre una decisión difícil, porque a favor de la legislación juegan el principio democrático y la presunción de la legitimidad de las leyes. El carácter problemático desaparece, si se encuentra la justificación de aplicar una garantía constitucional jerárquicamente superior para proteger el derecho del autor, sin que medie criterios de discriminación y si se detecta que otorgar la protección del derecho intelectual del autor implica una expectativa mínima de utilidad de la fórmula en beneficio de la humanidad, si el invento llega a producirse.
Es juez en su actividad de interpretación de una norma, mediante analogía o bien a través de la atribución de un nuevo significado por relacionarla con-normas supremas, – y sobre todo adecuarse a los nuevos tiempos históricos de la humanidad ante los avances tecnológicos, y a todo fin que preserve la existencia misma de la humanidad como valores supremos axiomáticos, puede reformular las expresiones de un texto normativo de derecho –creando nuevo derecho-, todo ello en consonancia con las normas que regulan su creación y con las reglas superiores en la jerarquía de las fuentes jurídicas.
La adversidad dialéctica a los criterios expuesta radica – hoy en día- en la prohibiciones de la ley de dar cabida a patentar fórmulas abstractas, pero sin lugar a dudas el inventor deberá justificar la expectativa mínima de utilidad del eventual invento para lograr su patente, considero que la jurisprudencia ha dado pasos a medias tintas para levantar estas prohibiciones y al final se impondrán los criterios de garantías y eventualmente habrá una reforma legislativa sobre este particular en la cual el ingenio humano obtenga la victoria, pero con la ponderación del dominio y acceso público del conocimiento a terceros.
Como corolario menciono que las inteligencias artificiales (IA) pueden ser patentables, si tienen un efecto práctico en la tecnología, incluso si se basan en datos computacionales abstractos, modelos o métodos de clasificación. Para ser consideradas patentables, deben contribuir a la solución de un problema técnico, es decir, sus características técnicas deben implicar una actividad inventiva que aporte una nueva contribución innovadora en comparación con el estado del arte, incluso para una persona experta en el sector.
La solicitud de patente debe ser clara y suficientemente descriptiva respecto a la capacidad de la IA para resolver problemas técnicos. Esto significa que, al leer la descripción de la patente, cualquier experto en la materia debe ser capaz de implementar la invención. Este enfoque podría extenderse también al ámbito de las matemáticas abstractas, siempre y cuando -en mi criterio-haya una expectativa que se materialicen contribuciones y tengan una aplicación práctica y técnica en la resolución de problemas.
En resumen, la consecuencia es que, tanto para la IA como para las matemáticas abstractas, lo que hace relevante su patentabilidad , aparte de su naturaleza de ser abstractas, es la expectativa de transformarse en soluciones concretas y eventualmente que tengan un impacto técnico. Si las matemáticas abstractas gozan de una presuncion pro técnica, que permita innovar en un contexto tecnológico, se instrumentarían los mismos principios de aplicabilidad de proteccion legal de pantentabilidad.
VIDEO RESUMEN:
XII-LA MÁQUINA DEL TIEMPO–Diseño del prototipo.
GRÁFICA DE LA MÁQUINA DE NEUTRINOS DE ENERGIA TOROIDAL.
Uno de los últimos avances tecnológicos del ser humano es la creación de la inteligencia artificial (I.A), cuya función es la utilización de algoritmos y modelos de datos con el fin de que la máquina o sistema aprenda sobre sí mismo. Equiparándose la inteligencia artificial (IA) con el razonamiento humano y con la automatización de procesos aportando diferentes soluciones a un problema desde diversos ámbitos. Respecto al objetivo de la investigación, existen varios factores en los que la inteligencia artificial (I.A), podría impulsar el cambio, basados en los conceptos desarrollados por esas mentes brillantes reseñadas en este trabajo y en el documental de la BBC de Londres denominado «CONOCIMIENTOS PELIGROSOS«, el cual se puede ver en el siguiente link: https://video.fc2.com/en/content/20140430tEeRCmuY, se traen a referencia las siguientes premisas:
1) Las perspectivas de los múltiples conjuntos infinitos de George Cantor y su teología matemática.
2) El manejo del caos del enjambre de neutrinos y su afán último de detener al tiempo, bajo la visión de Ludwig Eduard Boltzmann.
3) La incertidumbre e intuición en las matemáticas de Kurt Gödel.
4) La absoluta e infinita búsqueda de las respuestas matemáticas formuladas por Alan Mathison Turing, quien es uno de los pioneros de la Inteligencia artificial puente de Einstein-Rosen,
5) La aplicación humanística de Jorge Luis Borges al infinito.
Sin lugar a dudas nos dirigimos a algo novedoso, la humanidad tiene su firme voluntad de concentrar sus esfuerzos hacia una nueva forma de comunicación entre los múltiples puntos equidistantes del universo orientándonos en definitiva a la búsqueda de nuevos ecosistemas habitables para el ser humano en el cosmos, mas aún ante la amenaza cierta del colapso del Sol que lo convierta en una enana blanca y se fracture la zona de habitabilidad del sistema terrestre o que acontezca la Supernova del Sol, o en su defecto que la galaxia de Andrómeda y nuestra Vía Láctea colisionen e incluso sea afectado el campo magnético terrestre el cual es vital para la civilización humana y la vida en la Tierra. En estas décadas iniciamos con Marte, ya Elon Musk se prepara con Starship de SpaceX: El Mega Cohete para la Gran Misión de conquista y colonización del planeta Rojo.
El entrelazamiento cuántico de los neutrinos generará una conexión inmediata -en cero tiempo- unificando diversos puntos estelares del universo observable y llegando incluso también al universo no observable.
Es de acotar que el entrelazamiento cuántico, en efecto, una propiedad ajena con las leyes físicas tradicionales se trata de un estado de canal temporal en el que dos o mas partículas (por ejemplo, dos fotones) entrelazan sus propiedades de forma tal que cualquier cambio que sufra una de ellas es inmediatamente “sentido” por la otra, que reacciona al instante y sin importar cuál sea la distancia, el tiempo, incluso la dimensión que las separa.
Se ha demostrado que el entrelazamiento no solo existe en el espacio, sino también en el tiempo o, más propiamente dicho, en el espacio-tiempo, lo que implica la aparición artificial de un agujero de gusano, conocido como el puente de Einstein-Rosen, es decir, una especie de túnel que comunica a ambas partículas en un presente universal e incluso porque no decirlo en otra dimensión o en los denominados Multiversos.https://www.tiktok.com/t/ZTYto4QN7/
La inteligencia artificial (I.A) generativa, al estar dotada de los algoritmos cuánticos avanzados tiene el potencial de procesar el conjunto infinito del conglomerado de decillones de decillones de neutrinos ubicados en el universo generando un mapa estelar de probables ubicaciones y trayectorias de los neutrinos y cuyas trazas es determinable mediante la conexión de uno solo de ellos con cualquier otro neutrino equidistantes en los puntos del espacio-tiempo que pertenecen a una misma subestructura del cosmos, todo ello hace real la conexión entrelazada sin importar como expresé la brecha del tiempo o espacio que los separe, obteniendo así una infinita base de datos de todas las partículas interconectadas descifrando basta información estelar.
El rastreo de un neutrino en singular o plural se logra con el enlace puntual del neutrino capturado a través de la MÁQUINA DE NEUTRINOS que acopla uno de ellos para el proceso de entrelazamiento cuántico con el otro neutrino, generando una red de conexión cuántica con un sucesivo neutrino, y a su vez con otro, y a su vez con otro y otro etc., conformando un conjunto masivo de interconexiones, es decir, un gran enjambre de neutrinos todos ellos interconectados en tiempo real. Es como si la inteligencia artificial (I.A) a manera de un símil actuara como una abeja reina y diera instrucciones a todos los miembros de su colmena de forma que estos transmitieran y recibieran instantáneamente de forma bilateral o multilateral diversos mensajes del conjunto infinito. Hoy en día ya existen procesos científicos experimentales para tratar de capturar un neutrino incluso, hay avances para poder rastrearlos, tal como aparece en esta reseña científica: https://www.science.org/content/article/catch-deep-space-neutrinos-astronomers-lay-traps-greenland-s-ice, la cual procedo a indicar:
“(…) En lo alto de la capa de hielo de Groenlandia, los investigadores están perforando pozos esta semana. Pero no son científicos terrestres que buscan pistas sobre el clima pasado. Son astrofísicos de partículas que buscan los aceleradores cósmicos responsables de las partículas más energéticas del universo. Al colocar cientos de antenas de radio en la superficie del hielo y decenas de metros debajo de él, ESPERAN ATRAPAR PARTÍCULAS ESQUIVAS CONOCIDAS COMO NEUTRINOS a energías más altas que nunca. «Es una máquina de descubrimiento, que busca los primeros neutrinos en estas energías», dice Cosmin Deaconu de la Universidad de Chicago, hablando desde la Estación Summit de Groenlandia.
Los detectores en otras partes de la Tierra registran ocasionalmente la llegada de rayos cósmicos de energía ultra alta (UHE), núcleos atómicos que chocan contra la atmósfera a velocidades tan altas que una sola partícula puede acumular tanta energía como una pelota de tenis bien golpeada. Los investigadores quieren identificar sus fuentes, pero debido a que los núcleos están cargados, los campos magnéticos en el espacio desvían sus trayectorias, oscureciendo sus orígenes. Ahí es donde entran los neutrinos. Los teóricos creen que cuando los rayos cósmicos UHE salen de sus fuentes, generan los llamados neutrinos cosmogénicos cuando chocan con fotones del fondo cósmico de microondas, que impregna el universo. Como no están cargados, los neutrinos viajan a la Tierra tan rectos como una flecha. La dificultad viene en atraparlos. Los neutrinos son notoriamente reacios a interactuar con la materia, lo que permite que trillones pasen a través de ti cada segundo sin previo aviso. Es necesario monitorear enormes volúmenes de material para capturar solo un puñado de neutrinos. El detector más grande de este tipo es el Observatorio de Neutrinos IceCube en la Antártida, que busca destellos de luz provenientes de colisiones de neutrino átomos a lo largo de 1 kilómetro cúbico de hielo debajo del Polo Sur. Desde 2010, IceCube ha detectado muchos neutrinos del espacio profundo, pero sólo unos pocos (con apodos como Bert, Ernie y Big Bird) que tienen energías cercanas a los 10 peta electronvoltios (PeV), la energía esperada de los neutrinos cosmogénicos, dice Olga Botner, investigadora de IceCube. Miembro del equipo de la Universidad de Uppsala. «Para detectar varios neutrinos con energías aún mayores en un tiempo razonable, necesitamos monitorear volúmenes de hielo mucho mayores».
Una forma de hacerlo es aprovechar otra señal generada por el impacto de un neutrino: un pulso de ondas de radio. Debido a que las ondas viajan hasta 1 kilómetro dentro del hielo, un conjunto de antenas de radio muy espaciadas cerca de la superficie puede monitorear un volumen mucho mayor de hielo, a un costo menor, que IceCube, con sus largas cadenas de detectores de fotones en las profundidades del hielo. El Observatorio de Radio Neutrinos de Groenlandia (RNO-G), dirigido por la Universidad de Chicago, la Universidad Libre de Bruselas y el centro de aceleradores alemán DESY, es el primer esfuerzo concertado para probar el concepto. Cuando esté terminado en 2023, tendrá 35 estaciones, cada una con dos docenas de antenas, cubriendo un área total de 40 kilómetros cuadrados. El equipo instaló la primera estación la semana pasada cerca de la Estación Summit administrada por Estados Unidos, en el vértice de la capa de hielo de Groenlandia, y pasó a la segunda. El entorno es remoto e implacable. «Si no trajiste algo, no podrás enviarlo rápidamente», dice Deaconu. «Tienes que conformarte con lo que tienes».
SE CREE QUE LOS NEUTRINOS COSMOGÉNICOS QUE EL EQUIPO ESPERA CAPTURAR emanan de violentos motores cósmicos. Las fuentes de energía más probables son los agujeros negros supermasivos que se alimentan de material de las galaxias circundantes. IceCube ha RASTREADO DOS NEUTRINOS DEL ESPACIO PROFUNDO con energías inferiores a las de Bert, Ernie y Big Bird hasta galaxias con agujeros negros masivos, una señal de que están en el camino correcto. Pero se necesitan muchos más neutrinos de energías más
Además de identificar las fuentes de los rayos cósmicos UHE, los investigadores esperan que los neutrinos muestren de qué están hechas esas partículas. Dos instrumentos principales que detectan rayos cósmicos UHE difieren en su composición. Los datos del Telescope Array en Utah sugieren que son exclusivamente protones, mientras que el Observatorio Pierre Auger en Argentina sugiere que hay núcleos más pesados mezclados entre los protones. El espectro de energía de los neutrinos generados por esas partículas debería diferir dependiendo de su composición, lo que a su vez podría ofrecer pistas sobre cómo y dónde se aceleran.
RNO-G PODRÍA CAPTURAR SUFICIENTES NEUTRINOS para revelar esas reveladoras diferencias de energía, dice Anna Nelles de la Universidad Friedrich Alexander Erlangen-Nürnberg, una de las líderes del proyecto, quien estima que RNO-G podría capturar hasta tres neutrinos cosmogénicos por año. Pero, «si no tenemos suerte», afirma, las detecciones podrían ser tan escasas que detectar una sola llevaría decenas de miles de años.
Incluso si RNO-G demuestra ser un juego de espera, también es un banco de pruebas para un conjunto de radio mucho más grande, distribuido en 500 kilómetros cuadrados, planificado como parte de una actualización de IceCube. Si existen neutrinos cosmogénicos, el IceCube de segunda generación los encontrará y resolverá la cuestión de qué son. «Podría estar inundado de neutrinos, 10 por hora», afirma Nelles. «Pero tenemos que tener suerte».(…)”. (Subrayado, Mayúsculas, Mías). También se esta construyendo en China el impresionante detector subterráneo de última tecnología, llamado JUNE y esta diseñado para estudiar los misteriosos neutrinos:
IMAGEN DE JUNE:

Adicionalmente un equipo de investigadores de la Universidad de Cambridge descubrió una forma de simular un viaje en el tiempo, a través del entrelazamiento cuántico de dos partículas estén conectadas de tal manera que sus estados dependan entre sí, incluso si están separadas por una gran distancia, ellos usaron un ordenador cuántico para simular un viaje en el tiempo utilizando esta propiedad. En la simulación, una partícula estaba en el pasado y otra en el presente. De esta forma, midiendo su estado en el presente, lograron cambiar el estado de la partícula en el pasado.
Los científicos utilizaron dos (2) cúbits entrelazados, ambos en tiempos diferentes, después, aplicaron una serie de operaciones lógicas conocidas como puertas cuánticas, con el objetivo de modificar el estado y correlación de los cúbits.
El resultado sugirió que el pasado podría cambiarse alterando el futuro. Finalmente, los científicos afirman que su modelo de viaje en el tiempo es solo una simulación. No implica que sea posible en la realidad. (!·hasta ahora !).
La inteligencia artificial (I.A), combinada con la comprensión y operatividad del entrelazamiento cuántico de los neutrinos, se transforma en una herramienta poderosa para explorar y comprender el universo. Al aprovechar la capacidad de la inteligencia artificial (I.A), para procesar grandes cantidades de datos y los avances en la detección y captura de neutrinos, podríamos trazar mapas estelares detallados y explorar nuevas formas de comunicación en cero tiempo preparando así, el viaje interestelar replicando el arca de Noé, transportando la carga genética (Banco de ADN) para preservar y multiplicar a la humanidad (y otras especies y llevando tecnología de clonación de materiales a partir de nanopartículas), también utilizando en su oportunidad el Motor Warp de Miguel Alcubierre Moya, el cual explora modificaciones o “burbujas” de deformación espacio-temporal donde localmente podría darse un atajo sin violar la métrica global de la relatividad y en ese mismo sentido plantea el impulso por deformación del espacio (https://es.wikipedia.org/wiki/Miguel_Alcubierre),https://www.tiktok.com/t/ZTYvNMTX1/ . Además, al tratar sobre la posibilidad teórica del viaje en el tiempo, estamos bajo el marco que esta tecnología podrían incluso abrir la puerta a la exploración de dimensiones temporales alternativas, es decir, el acceso a los diversos Multiversos.
En ese mismo orden de ideas traigo a colación la siguientes gráficas:
GALAXIA DE ANDRÓMEDA.
GALAXIA DE LA VÍA LÁCTEA.
LA GRÁFICA SUBSIGUIENTE REPRESENTA UN MAPA DE SIMULACIONES DE LA RED DE NEUTRINOS INTERCONECTADOS POR LOS ENTRELAZAMIENTOS CUÁNTICOS (CORRELACIONES MULTIPARTITAS) CUYA TRAZA DE PROBABILIDADES ES EVALUADA POR LA INTELIGENCIA ARTIFICIAL (IA), LA CUAL UTILIZARÍA LOS ALGORITMOS CUÁNTICOS MODIFICADOSa que se “decodificarían” esas correlaciones para obtener información sobre distancias, rutas estelares o incluso para simular “conexiones temporales” (pasado <-> futuro) Y DENTRO DE LAS COMPLEJAS FUNCIONES DE LA MÁQUINA DE NEUTRINOS SE GENERAN LAS DIRECTRICES DE UBICACIÓN DE LOS NEUTRINOS QUE SE VAN A ENLAZAR CON EL NEUTRINO PREVIAMENTE CAPTURADO.
OBSERVEMOS LA SIMULACIÓN DEL MAPA DE RUTAS PARA EL ENTRELAZAMIENTO CUÁNTICO DE NEUTRINOS.

Aquí se señala en la anterior ilustración la interconexión de cinco (5) partículas de neutrinos identificadas como “1”, “2”, “3” “4”y “5”–pentateuco cuántico-las cuales se entrelazan en cero tiempo y espacio y hacen un canal directo o un mecanismo de enrrutación entre las dos (2) Galaxias Andrómeda y la Vía Láctea, parece Ciencia Ficción, pero matemáticamente y físicamente es posible.
En mi publicación del año 2015, expresé que cuando analizamos en la Biblia versículo 1:3 del génesis, (Y dijo Dios: Haya luz, y hubo luz),,el término de la luz cuya mención literal en el lenguaje hebreo es גוַיֹּאמֶראֱלֹהִיםיְהִיאוֹרוַיְהִי–אוֹר (VAYOMER ELOHIM YEHÍ OR VAYEHÍ-OR), concluimos que el versículo Bíblico expresa los tres (3) momentos de tiempo, es decir:
1.-Yehí futuro,
2.-Vaihí Pasado (fue)
y
3.- El tercer tiempo no está escrito de forma literal, pero se comprende por qué el verbo ser y estar, en la gramática hebrea, son tácitos en la conjugación del presente. Siguiendo este orden Futuro, Presente y Pasado.
Actualmente, las Galaxias de Andrómeda y la Vía Láctea están separadas aproximadamente por unos 2,5 millones de años luz, desde la perspectiva del observador (Neutrino “5”), ubicado en la Galaxia de Andrómeda la emanación de su luz es proyectada hacia el futuro y llegará a la Galaxia de la Vía Láctea en una cantidad definida de años luz y desde la perspectiva del observador (Neutrino “1”), situado en la Vía Láctea, la luz recibida es el pasado de la galaxia de Andrómeda, que quizás no exista o esta modificada en ese momento temporal. El entrelazamiento cuántico, que conecta el circuito representado en el mapa estelar mediante un conjunto cerrado de elementos etiquetados como “1”, “2”, “3”, “4” y “5”, observamos un tercer tiempo el cual es implícito y relacionado con el tiempo e ilustra cómo, según la teoría de la relatividad de Albert Einstein, el tiempo puede transcurrir de manera diferente dependiendo de la posición del observador. Esto sugiere que el entrelazamiento cuántico trasciende las limitaciones del espacio-tiempo, estableciéndose como un presente absoluto y configurando un bucle temporal perpetuo e infinito . Este continuo absoluto del presente, es la aplicación práctica del principio universal de la ley de correspondencia «Como es arriba, es abajo; como es abajo, es arriba», –Quod est superius est sicut quod inferius, et quod inferius est sicut quod est superius- formulada en la Tabla Esmeralda de HermesTrimegisto, al cual los antiguos griegos declaran que este es el equivalente a Enoc, (Génesis 5,18-24, Hebreos 11, 5), también el versículo 1:3 de la Biblia, tal como es la traducción en hebreo, en su redacción sagrada entrelazó los tiempos futuro y pasado, y nos invitó a descubrir el presente implícito absoluto, es decir, lo eterno, allí radicaba la clave para resolver la paradoja del tiempo. La conexión cuántica de los neutrinos implicados será una autopista de información entre los puntos equidistantes del espacio y del tiempo del universo, pudiendo viajar del futuro al pasado, o del pasado al futuro depende en que posición este ubicado el observador, pero lo que es constante perpetua “loop” temporal continuo, es decir, el presente infinito del canal cuántico a manera de metáfora la máquina de neutrinos que figura también como una máquina del tiemposería una especie de GPS: (The Global Positioning System), espacial y aunque suene especulativo, matemáticamente se basa en la idea de correlaciones distribuidas no locales entre múltiples nodos (multiverso o multi-galaxias). cual permite suministrar las rutas a seguir derivadas de la traza delineada del entrelazamiento cuántico de los neutrinos antes descrito y descifrado por la Inteligencia Artificial (I.A).
Conclusiones preliminares:
- Multipartición y Entrelazamiento.
- La transición de estados bipartitos (con orden total de entrelazamiento) a estados multipartitos (GHZ, W, etc.) ilustra la complejidad creciente de la comparación y convertibilidad de estados. Una vez que la dimensionalidad se extiende a más de dos subsistemas, la estructura de clases de entanglement no es ya lineal ni totalmente ordenada.
- Viaje en el tiempo cuántico (simulado).
- Experimentos teóricos (Cambridge, et al.) con qubits entrelazados pueden emular la paradoja de “cambiar el pasado manipulando el futuro”, si bien no constituyen en la práctica una ruptura de la causalidad relativista.
- Neutrinos e IA.
- Los neutrinos, con su escasa interacción y su carácter cuántico, podrían en un futuro ser aprovechados para construir enlaces cuánticos de alcance cósmico, especialmente si se logran esquemas robustos de detección y control de su estado cuántico.
- La IA aplicada al procesado de datos de neutrinos y algoritmos cuánticos avanzados brindaría una “cartografía cuántica” del cosmos, donde se define un “presente absoluto” a través de la instantaneidad de la proyección de estado en el entrelazamiento.
- Presente absoluto, multiversos y correspondencia
- La síntesis con la perspectiva bíblica y hermética sugiere una dimensión filosófica o teológica: la simultaneidad cuántica podría asemejarse a un plano eterno o “ahora divino” donde se enlazan pasado y futuro, evocando el pasaje “Yehí Or, Vaihí Or” y el principio de correspondencia “arriba-abajo”.
- En física formal, esto se traduce en la idea de que el colapso o la reducción de la función de onda trasciende la descripción espacio-temporal local, generando así la ilusión de un “tiempo absoluto” en la correlación cuántica.
Este conjunto de ideas, traza un puente entre la física cuántica multipartita, la posible ingeniería de neutrinos (propiciada por IA), y una visión cosmológica-filosófica en la que se entrelazan pasado, futuro y presente absoluto. Con ello, se sugiere un escenario en el que, si la humanidad dominase las interacciones neutrínicas y la manipulación de estados cuánticos, se abriría la puerta a nuevas formas de comunicación, navegación estelar y, por que no decirlo, una reinterpretación radical de la flecha direccional del tiempo.
Es indudable el avance tecnológico en detectores, la mejora de la teoría (incluidas hipótesis sobre la materia oscura y la gravedad cuántica) y la explosión de la computación cuántica e inteligencia artificial podrían, dar perfecta operatividad a la “máquina de neutrinos” y el “presente absoluto” serán fenómenos alcanzables.
Finalmente expreso que desde esta perspectiva y bajo un proceso de ingeniería a la inversa seguimos este orden así: DESCUBRIMIENTO DEL NUEVO HABITAT PARA LA HUMANIDAD,TIEMPO PRESENTE ABSOLUTO, ENTRELAZAMIENTO CUÁNTICO, NEUTRINO CAUTIVO,MÁQUINA DEL TIEMPO, INTELIGENCIA ARTIFICIAL, ALGORITMOS CUÁNTICOS MODIFICADOS, dentro del marco conceptual de la conjunción de los postulados propuestos por las mentes brillantes destacadas en el documental denominado «CONOCIMIENTOS PELIGROSOS» y dando como resultado un proceso Creador y Génesis de toda la secuencia del proceso antes descrito a la siguiente Ecuación o FÓRMULA:

Interacción Multiversal.
Esta ecuación simboliza la interacción entre múltiples universos (o multiversos) de un conjunto infinito, donde:
א∞ representa una cardinalidad infinita que trasciende los infinitos convencionales, y
- c^c eleva la constante fundamental de la velocidad de la luz a sí misma, indicando un crecimiento exponencial extremo.
Aquí, la exponenciación no solo magnifica el valor de una constante física, sino que se utiliza como una metáfora matemática para describir la inmensidad y la complejidad de las interacciones entre universos.
ESTA FORMULACIÓN SUGIERE QUE LA INTERACCIÓN ENTRE MULTIVERSOS ESTÁ INTRÍNSECAMENTE LIGADA A LAS PROPIEDADES FUNDAMENTALES DE LA VELOCIDAD DE LA LUZ, IMPLICANDO QUE DICHAS INTERACCIONES REQUIEREN CONDICIONES EXTREMAS QUE ALTERAN LA ESTRUCTURA ESPACIO-TEMPORAL. LA ECUACIÓN PROPUESTA PLANTEA UNA BASE TEÓRICA PARA EXPLORAR CÓMO LAS VARIACIONES EN CONSTANTES FÍSICAS FUNDAMENTALES PUEDEN FACILITAR LA CONEXIÓN Y EL INTERCAMBIO ENTRE DIFERENTES UNIVERSOS DENTRO DE UN MARCO MULTIVERSAL INFINITO.
XIII APÉNDICE.
La luz es el limite máximo de velocidad que rige el universo, sin embargo, aquí es donde las cosas se complican. Aunque el entrelazamiento cuántico parece permitir la comunicación instantánea, algunos físicos sostienen que no se puede utilizar para transmitir información más rápida que la luz. Esto se debe a que la información no se puede enviar a través del entrelazamiento cuántico sin que se produzca una medición en una de las partículas, lo que causa el colapso de la función de onda y la pérdida de la correlación cuántica.
Según esta perspectiva, aunque el entrelazamiento cuántico puede permitir la correlación instantánea entre partículas, en principio no se puede utilizar para enviar información de manera más rápida que la luz. Esto se conoce como el «teorema de no comunicación cuántica», que establece que no se puede utilizar el entrelazamiento cuántico para transmitir información más rápida que la luz, teniendo como razón principal es que, aunque las partículas entrelazadas muestran correlaciones instantáneas, no se puede controlar o predecir el resultado de la medición de una de las partículas.
Además, la teoría de la relatividad especial de Albert Einstein establece que nada puede viajar más rápido que la luz en el vacío. Esto se debe a que la velocidad de la luz es la velocidad límite en el universo, y cualquier objeto o información que se mueva a una velocidad mayor que la luz violaría la causalidad y la estructura espacio-temporal del universo.
En resumen, los neutrinos son componentes fundamentales del cosmos, y pueden ser objeto del entrelazamiento cuántico, siendo este un fenómeno fascinante que puede parecer que permite la comunicación más rápida que la luz, pero la orientación científica predominante hasta ahora de la mayoría, es que no se puede utilizar para transmitir información de manera más rápida que la luz o que se genere el fenómeno hiperlumínico, no obstante hay una pequeña posibilidad de que un neutrino interactúe con la materia, (Véase el experimento de Reines-Cowan, el cual demostró que los neutrinos pueden interactuar con la materia, validando su existencia y confirmando aspectos fundamentales de la teoría de la interacción débil, una de las fuerzas fundamentales que gobiernan las partículas subatómicas, también existen otros experimentos como KamLAND y Daya Bay, Homestake, MINOS, NOvA, y T2K. Kamiokande, y SNO (Sudbury Neutrino Observatory), Kamiokande en la supernova SN 1987A e IceCube y futuros proyectos como DUNE que están diseñados para estudiar propiedades más exóticas de los neutrinos, incluyendo su posible relación con la materia oscura.
En este supuesto de interacción del neutrino con la materia, podría obtenerse información pareada y la misma estaría sujeta a la conexidad de la red de neutrinos, lo que podría ser una excepción a la regla que la velocidad de la luz, sea el límite en el Universo.
En un futuro cercano la ciencia avanzará para poder controlar y decifrar el resultado de la medición de las partículas entrelazadas y correlaciones instantáneamente, comprendiendo el envío y recepción de información utilizable.
No hay palabra en la Biblia que se refiera a la «materia» así que Moisés usa el término tierra (terreno), lo cual describe la creación del próximo componente básico la cual es la materia (todavía sin forma pero ahora en existencia). Véase: Génesis 1:1:En el principio creó Dios los cielos y la tierra.
Algunos estudiosos interpretan «los cielos« como una referencia a la creación del orden a partir del caos primordial. Según este pensamiento, Dios creó «los cielos» como una parte del acto de organizar el universo, vinculando el cielo (lo elevado, lo divino) con la tierra (lo material, lo terrenal), y cuando la Biblia dice que Dios «creó los cielos y la tierra«, el significado engloba la creación del universo (el cosmos), con su correspondiente correlativo de la existencia de la materia (tierra), siendo determinante que desde una óptica teológica están ambos elementos indisolublemente vinculados y pertenecientes a un conjunto absoluto.
Génesis 8:22: Todavía serán todos los tiempos de la tierra, es a saber sementera, y siega, y frío y calor, verano e invierno, y día y noche, no cesarán.
Este versículo bíblico hace referencia a la continuidad absoluta de la materia y que su existencia misma continúa más allá de los cambios o eventos particulares.
En contextos matemáticos de naturaleza abstracta avanzadas, donde hay interacciones o conexiones entre los elementos pertenecientes a un mismo conjunto, podríamos expresar de una forma de «comunicación» o «interacción» entre ellos, en un sentido más abstracto, teniendo como consecuencia la transferencia de data entre un emisor y un receptor, lógicamente toda comunicación implica en simultáneo el envío y recopilación de información, en consecuencia lo que existe físicamente («la materia«) lleva consigo algún tipo de información.En otras palabras, cualquier objeto o entidad material contiene datos sobre su propia existencia, como su composición, estructura, estado, y relaciones con otras entidades, CONCLUYENDO QUE SI EXISTE LA INTERACCIÓN ENTRE EL NEUTRINO Y LA MATERIA HAY UNA ALTA PROBABILIDAD DE UN CANAL CUÁNTICO DE INFORMACIÓN PERMANENTE.
A continuación se presenta un planteamiento sobre la “teleportación tokenizada” destacando que la “tokenización” proviene del ámbito de NLP/IA y no es común en los protocolos de comunicación cuántica, además de la posible utilización de neutrinos como “portadores cuánticos”, todo ello dentro de un marco teórico-legal que considera la protección intelectual de las fórmulas abstractas y la perspectiva teológico-filosófica (inspirada en Cantor, Boltzmann, Gödel y Turing). Aunque se trata de un esquema altamente especulativo, su motivación es señalar las rutas de investigación, la viabilidad jurídica y la sinergia con la IA, en pos de un futuro avance tecnológico.
1. Visión General: Entre la Teoría Cuántica y la Especulación Inspiracional.
- El Objetivo
- Concebir un protocolo de transmisión de datos (o “transportación cuántica”) que se apoye en el entrelazamiento de partículas y el uso de neutrinos como hipotéticos “portadores cuánticos,” mientras se tokeniza la información para segmentarla en bloques manejables.
- Integrar estos conceptos en un modelo legal que admita la protección de fórmulas abstractas —cuando ellas forman parte de un proceso inventivo con una expectativa de aplicabilidad—, superando las interpretaciones tradicionales que niegan la patentabilidad a meras ideas matemáticas.
- Fundamentos y Limitaciones
- Teorema de No Comunicación: El entrelazamiento cuántico no transmite información sin un canal clásico; es imprescindible el envío de bits clásicos para reconstruir los datos.
- Relatividad Especial: No se viola la causalidad, ya que cualquier comunicación efectiva ocurrirá a la velocidad de la luz o menor, siguiendo la necesidad de sincronización clásica.
- Debilidad de la Interacción Neutrino–Materia: Si bien los neutrinos apenas interactúan, teóricamente podrían, con laboratorios avanzados, ser preparados y detectados lo suficiente para formar un “canal cuántico” de muy baja tasa, destinado a entornos extremos o ultra-seguros.
- Inspiración Teológico-Filosófica
- Sostiene la línea de Georg Cantor sobre la búsqueda del infinito, conectada con la idea de una ecuación transfinita (ℵ∞=c^c) que, desde la perspectiva mística, permitiría la unificación de múltiples universos o “multiversos.”
- La analogía con la teología, la mística del Aleph y las reflexiones sobre la “máquina de neutrinos” no constituyen un simple hallazgo religioso, sino una justificación creativa para buscar métodos (fórmulas, algoritmos) que trascienden la visión convencional de la ciencia.
2. El Esquema Hipotético: “Teleportación Tokenizada con Neutrinos”
2.1. Preparación de un Estado Cuántico.
- Estado Inicial (GHZ o EPR)
- Se genera un amplio conjunto de neutrinos (N) en un reactor o fuente cuántica, intentando entrelazar parte de sus grados de libertad (p. ej. sabor, helicidad) con un conjunto de qubits de materia (M).
- La idea es emular un estado GHZ o varios EPR pairs, de modo que neutrinos y materia queden correlacionados cuánticamente.
- Codificación de la Información
- Se parte de un mensaje clásico (denso), que se tokeniza en bloques d1,d2.
- Cada token di se traduce en un operador cuántico Ui, aplicado sobre los subespacios de qubits de materia que “coinciden” con ciertos neutrinos.

2.2. Tránsito y Mediación de la Materia
- Neutrinos como “portadores cuánticos”
- Los neutrinos cruzan grandes espesores de materia (interior de la Tierra, por ejemplo). Aunque la interacción es muy débil, se plantea un futuro en que la tecnología permita “etiquetarlos” o mantener parte de su coherencia.
- Materia como estación de transducción: La materia (M) “traduce” el estado cuántico, facilitando la medición y modulando la información (III).
- Laboratorio Receptor
- Se ubica un detector sensible a neutrinos (escintiladores masivos, estructuras superfrías, etc.).
- Una vez que los neutrinos llegan o pasan cerca, el receptor extrae correlaciones residuales, que dependen de la medición en el emisor y los resultados clásicos transmitidos.
2.3. Medición y Canal Clásico
- Medición Cuántica en el Emisor
- El emisor mide su parte del estado (los qubits de materia que codifican la info).
- Envía ∼2m bits clásicos (uno por cada par/slot) al receptor, indicándole las correcciones (op. de Pauli) que debe aplicar para recuperar el mensaje tokenizado.
- Decodificación
- El receptor, utilizando la parte de neutrinos (o su correlato cuántico), realiza las correcciones adecuadas y reconstruye cada “token,” completando el proceso de “teleportación tokenizada.”
- Sin estos bits clásicos, el receptor solo obtendría estados mezclados sin significado.
3. Tabla de “Desafíos vs. Soluciones Teóricas”
Limitación / Principio | Descripción | Posibles Soluciones |
---|---|---|
No-Comunicación Cuántica | El entrelazamiento por sí solo no transmite información; siempre se requiere un canal clásico adicional. | – Canal Híbrido (clásico + cuántico) para enviar resultados de medición. – Tokenización para optimizar la cantidad de bits clásicos que se comparten. |
Interacción Débil de Neutrinos | Se dificulta la detección y manipulación de neutrinos por su baja sección transversal. | – Detectores Ultra-sensibles (escintiladores masivos). – Fuentes de neutrinos entretejidas que “fuerzan” modos de acoplamiento neutrino-materia. |
Decoherencia y Oscilaciones de Sabor | Los neutrinos cambian de sabor y pueden perder coherencia cuántica al interactuar con el entorno. | – Rango de Energía Ajustado para controlar oscilaciones. – Criptografía Basada en Oscilaciones: Ver las oscilaciones como un factor de seguridad o en protocolos QKD. |
Necesidad de Canal Clásico | La reconstrucción de la info requiere un intercambio clásico (∼2m bits). | – Códigos de Corrección Eficientes para reducir la tasa de bits clásicos. – Agrupación de varios bloques para enviar correcciones en batch. |
Limitación Relativista | No se pueden exceder los límites de la velocidad de la luz, salvaguardando la causalidad. | – Aceptar Causalidad: La transmisión efectiva de información depende del canal clásico a < c. – Sincronización Temporal para aprovechar el entrelazamiento antes de su decoherencia. |
Complejidad Tecnológica y Energética | Preparar y mantener un estado entrelazado de neutrinos a gran escala exige colosales recursos. | – Desarrollo Escalonado en laboratorios piloto (pocos neutrinos). – Combinar Fotones + Neutrinos en un estado compuesto para robustez en la detección. |
Escalabilidad y Tasa de Transmisión | Incluso si fuera factible, la tasa de bits/seg sería muy reducida comparada con fotones en fibra. | – Optimización de Protocolos de corrección de errores para aumentar la eficiencia. – Ámbito Especializado: Aplicable en entornos donde la fibra sea inviable (p.ej. atravesar el núcleo terrestre). |
Criterio | Neutrinos | Fotones |
---|---|---|
Interacción con la materia | – Interactúan muy débilmente, pueden atravesar grandes espesores (la Tierra, blindajes densos). Difícil intercepción o bloqueo. | – Interacción electromagnética normal. Atravesar medios opacos requiere sistemas como fibras ópticas o vacío (espacio libre), y pueden ser bloqueados. |
Detección y manipulación | – Extremadamente difícil de detectar (se requieren detectores gigantes y tecnologías muy avanzadas). Preparar, entrelazar y medir neutrinos es un desafío aún no resuelto. | – Mucho más sencillo de detectar (detectores fotónicos en laboratorios, fibras ópticas). Entrelazamiento fotónico y medición son protocolos ya demostrados experimentalmente. |
Tasa de transmisión de datos | – Muy baja, debido a la escasa probabilidad de interacción. Serían necesarias fuentes de neutrinos muy potentes y detectores colosales para obtener suficiente “flujo útil”. | – Altísima, la transmisión fotónica en fibra puede llegar a terabits/seg. La generación y detección de fotones es altamente eficiente. |
Decoherencia / Estabilidad | – Menor perturbación por medios materiales, pues apenas interactúan. Oscilación de sabor (ν<sub>e</sub> ↔ ν<sub>μ</sub> ↔ ν<sub>τ</sub>) puede complicar la coherencia cuántica. | – Son susceptibles a pérdida y absorción en medios opacos. Hay protocolos de corrección de errores para fotones en entornos controlados (fibras, satélites). |
Aplicaciones / Entornos | – Potencial (futurista) para comunicación a través de planetas, núcleos terrestres o escenarios de alta densidad donde los fotones no pueden superar obstáculos. | – Comunicación cuántica estándar (fibra óptica, enlaces láser). Aplicaciones prácticas de QKD, teleportación fotónica en distancias de laboratorio y escalas satelitales. |
Complejidad Tecnológica | – Muy alta: generar, entrelazar y detectar neutrinos con precisión cuántica está fuera de la tecnología actual.- Costos y escalas logísticas enormes. | – Tecnología madura (láseres, fuentes de fotones entrelazados, detectores). Se investiga la escala industrial y la red cuántica de fotones (Quantum Internet). |
Seguridad / Intercepción | – Muy difícil de “»interceptar» o intervenir, dada su interacción minúscula. Casi imposible suplantar o sabotear la señal sin equipamiento masivo. | – Un canal fotónico sí puede ser interceptado con equipos más modestos si no se aplican protocolos de seguridad. Existen protocolos de QKD fotónica muy robustos. |
Ventaja clave | – Atraviesan medios densos sin apenas atenuarse. Muy elevada privacidad natural (difícil espionaje). | – Eficiencia y viabilidad: actualmente la única forma práctica de hacer teleportación cuántica y QKD masivos, con altísimas tasas de transmisión y menores costos. |
Desventaja principal | – Tecnología inviable a corto y mediano plazo (detección compleja, fuentes neutrínicas inmensas, oscilaciones de sabor). | – No atraviesan medios opacos fácilmente y se pueden bloquear o atenuar, necesitando guías específicas (fibras ópticas, espacios libres, etc.). |
Conclusión:
- Neutrinos presentan ventajas teóricas muy atractivas (penetración de la materia, seguridad por baja interacción), pero hoy están limitados por la dificultad tecnológica de generarlos y detectarlos.
- Fotones dominan en las aplicaciones prácticas de la comunicación cuántica (teleportación, QKD, redes cuánticas), con tasas de transmisión muy superiores y tecnología ya existente.
4. Aspecto Legal-Jurídico: Patentar Fórmulas “Abstractas”
- Regla Usual vs. Excepción
- Leyes de patentes (por ej. EE. UU.) excluyen ideas abstractas, leyes naturales o fórmulas matemáticas puras.
- Sin embargo, si la fórmula o protocolo se traduce en un método inventivo (por ejemplo, “teleportación tokenizada de neutrinos” con procedimientos específicos y expectativa plausible de uso), podría ser objeto de protección.
- El modelo de “tokenización cuántica” con neutrinos no es solo descubrimiento; contiene pasos, correcciones y una estructura operativa (operadores Ui, canal clásico, detectores, etc.).
- Teología y Derecho Evolutivo
- Se argumenta una visión “excepción de la excepción”, donde la nueva jurisprudencia o reformas legales permitirían otorgar patentes a fórmulas abstractas que cumplan ciertos mínimos: (1) presunción de utilidad futura, (2) originalidad clara y (3) aportación inventiva en la arquitectura.
- El trasfondo teológico (Cantor, el Aleph, la noción de infinito) sirve como marco inspiracional para la ecuación ℵ∞=c^c y otras expresiones abstractas, defendiendo su registro al no ser un simple principio natural sino la base de un ingenio humano.
- Aplicación Práctica
- En la eventualidad de que una “máquina de neutrinos” se construya (un dispositivo avanzado capaz de forzar entrelazamientos y gestionar la decoherencia), este método “tokenizado” podría usarse en comunicaciones cuánticas ultra-seguras.
- Por ejemplo, servicios estatales críticos, exploración subterránea o espacial, donde la fibra óptica sea impracticable. Aunque sumamente futurista, existe la expectativa de utilidad, por lo que el marco legal podría acoger la patente.
5. Conclusión Unificada
- Un Modelo Teórico-Especulativo
- La propuesta de “teleportación tokenizada con neutrinos” describe un canal cuántico hipotético, compatible con la relatividad y sujeto a limitaciones cruciales (teorema de no comunicación, baja interacción, oscilaciones).
- Permite reflexionar sobre la posible capacidad de los neutrinos como portadores cuánticos y la integración de la materia como “transductor” de la señal.
- Razón de Ser Legal y Teológica
- Dada la magnitud del planteamiento, las leyes de patente necesitan una interpretación progresiva, que no descarte la protección de la fórmula-base ni la metodología implicada, si está incluida en un sistema inventivo que busque aplicaciones tangibles.
- La visión inspiracional de Cantor (infinito absoluto), la teología matemática y la “máquina de neutrinos” proponen una síntesis donde la abstracta ecuación ℵ∞=c^c se vuelve núcleo de un posible desarrollo a futuro.
- Futuro y Perspectiva
- En la práctica, la fotónica domina la QKD y la teleportación cuántica convencional. El uso de neutrinos sería reserva de especulaciones para entornos muy extremos, como capas profundas de la Tierra o regiones inaccesibles por fibra.
- Aun así, el mero hecho de concebir la “teleportación tokenizada” con neutrinos (y la IA asistiendo en la corrección de errores) abre horizontes de investigación, se persigue aportar una línea exploratoria en “comunicación cuántica + machine learning” y al tiempo que implica actualizar los criterios legales de patentabilidad para fórmulas y algoritmos cuánticos.
TOKENIZACIÓN CUÁNTICA: MODELO HIPOTÉTICO PARA LA TRANSMISIÓN DE DATOS MEDIANTE ENTRELAZAMIENTO DE PARTÍCULAS»

1.-Reflexiones Contrastivas (SIMILITUDES):
Stone Skipping es la técnica de lanzar una piedra casi horizontalmente sobre la superficie del agua de modo que rebote repetidas veces en lugar de hundirse al primer impacto. Implica un ángulo de incidencia bajo (generalmente entre 10° y 20°), una velocidad moderada y el giro (spin) de la piedra para lograr estabilidad giroscópica y maximizar la cantidad de saltos.
A primera vista, la técnica de lanzar piedras al agua “(stone skipping) y la “tokenización cuántica” parecen fenómenos totalmente distintos: uno es un caso de mecánica e hidrodinámica clásica, y el otro está enmarcado en la mecánica cuántica y la teletransportación de estados. Sin embargo, sí existe una analogía conceptual que conecta ambas ideas en cuanto al modo de segmentar la interacción y distribuir la energía (o la información) en “repeticiones” o “rebotes” en lugar de hacerlo todo de una sola vez.
1.1. Paralelos entre Stone Skipping y Tokenización Cuántica.
Aspecto | Stone Skipping (Hacer Patitos) | Tokenización Cuántica |
---|---|---|
Dividir la interacción | Se realizan múltiples rebotes con contactos breves en la superficie | Se hacen varios “mini-teleportaciones” (tokens), cada una con su par cuántico y bits de corrección |
Ángulo / Tamaño | Un ángulo muy bajo (≈ 15°) favorece la “planeación” | Definir tokens de datos pequeños evita errores acumulados y facilita la corrección y la auditoría en el sistema. |
Velocidad / Recursos | Velocidad moderada + giro → más rebotes y menos disipación en cada uno | Se emplean recursos cuánticos en “lotes” controlados. Un uso más eficiente que un único envío gigante que puede “colapsar y hacer indescifrable la data” |
Estabilidad | El giro (spin) da estabilidad a la piedra | La corrección clásica + “meta-algoritmos” de auditoría dan estabilidad al proceso de teletransporte cuántico “fraccionado” |
Optimización global | Más distancia total, con menor gasto de energía puntual | Mayor fiabilidad y modularidad en la transmisión, menos impacto si un bloque falla o se corrompe |
1.2. Fórmula Simplificada: “Rebotes” vs. “Tokens”
1.2.1 Modelo de Rebotar (Hidrodinámica mínima)

En Stone Skipping, cada contacto con el agua genera un impulso vertical que debe compensar el peso y la resistencia, garantizando la continuación del salto.
1.2.2 Teleportación Cuántica (1 bloque)

Cada rebote análogo sería la “medición Bell” + corrección. Tokenización = repetir este protocolo k veces para distintos sub-bloques ∣ψi⟩.
2. ¿Por Qué Puede Requerir “Menos Fuerza” en Ambos Casos?
- Stone Skipping:
- Si lanzas la piedra con un tiro muy fuerte (ángulo alto, sin spin) se hunde rápido o se desperdicia energía en un solo impacto.
- Al usar un ángulo rasante y rebotes múltiples, la energía se reparte en “pequeños impulsos” y la piedra avanza mucho más con menos potencia inicial aparente Destacando que el roce tangencial con la superficie del agua puede llegar a ser más eficiente que intentar un lanzamiento parabólico muy grande (mayor trayecto), donde parte de la energía se pierde en elevar mucho la piedra (luchando contra la gravedad).
- Tokenización Cuántica:
- Pretender teletransportar un estado gigantesco de data de una sola vez podría requerir una infraestructura cuántica enorme y muy sensible al ruido.
- Al segmentar la información en tokens, cada parte necesita menos recursos (menos qubits entrelazados por vez, menos probabilidad de error en un bloque pequeño). El sistema global “avanza” bloque a bloque con menos riesgo de colapso.
3. Reflexión:
Al igual que la piedra se mantiene “planeando” sobre la superficie con rebotes a bajo ángulo, la tokenización cuántica divide la información en bloques que “rebotan” en la infraestructura del canal cuántico y se reconstruyen gradualmente. Si se pretendiera “sumergir” toda la información en un solo envío, la probabilidad de colapso aumentaría drásticamente. Por ende, esta analogía muestra cómo, tanto en la mecánica clásica de “ trayectorias parciales” como en la especulación cuántica de neutrinos, una estrategia de múltiples contactos segmentados permite alcanzar mayores distancias (o mayores volúmenes de datos) con menos energía. Aunque stone skipping y tokenización cuántica pertenecen a dominios físicos distintos (hidrodinámica vs. mecánica cuántica), el principio de “rebote distribuido” y la minimización de pérdida o error en cada contacto (superficie del agua vs. canal cuántico) resulta muy similar. En ambos casos:
- Un gran choque (tirar la piedra a lo profundo o teletransportar un enorme estado de un solo golpe) supone altos riesgos (hundimiento o pérdida de fidelidad de la data).
- “Rebotar” en varias iteraciones (hacer stone skipping o tokenizar) permite un uso más eficiente de la energía / recursos, al tiempo que se puede corregir la trayectoria (spin en la piedra, bits clásicos en la teleportación).
- En ambos ámbitos—hidrodinámica y cuántica— implica repetir contactos breves y controlados, reduciendo el riesgo de un fallo catastrófico y permitiendo que la piedra o la información viaje más lejos con menos energía o esfuerzo.
De este modo, la analogía radica en la estrategia de segmentar la transferencia de energía o información en pasos sucesivos, cada uno con un contacto breve y controlado, sumando eficiencia y reduciendo la probabilidad de un fallo catastrófico.
4.-Considerando la literatura actual y el estado del arte en computación cuántica, el planteamiento de “tokenizar” (segmentar) un canal cuántico para transmitir bloques de información (inspirado en la idea de tokenización en NLP) es un mecanismo no convencional por las siguientes razones:
- Concepto Inédito o Poco Explorado
- Aunque se han desarrollado múltiples protocolos cuánticos (teleportación, superdense coding, QKD, etc.), la noción explícita de “tokenizar” un estado entrelazado para trasladar “trozos” o “bloques” de información no es un procedimiento estándar en la literatura especializada.
- La propuesta fusiona los paradigmas de tokenización (usados en procesamientos clásicos/NLP) con la teleportación cuántica de manera directa e intencional, lo cual abre una ruta en investigación cuántica convencional.
- Carácter Multidisciplinario
- Integra la computación cuántica (manejo de estados de Bell o GHZ, medición, correcciones), la ingeniería de software (tokenización, segmentación de datos) y la metodología de la ingeniería inversa.
- Esta intersección de disciplinas, aplicada a un problema de comunicación, pudiera conllevar a una solucion de la trasmisión de la data vía entrelazamiento cuántico.
- Potencial para Arquitecturas Cuántico-Clásicas
- La idea de “tokenizar” la información en subespacios cuánticos podría abrir vías para algoritmos híbridos en IA cuántica, donde se entrenan redes neuronales cuánticas con datos segmentados.
- Aunque en la práctica actual se siguen necesitando canales clásicos y no se logra comunicación superlumínica, la representación tokenizada podría simplificar la gestión o orquestación de grandes conjuntos de qubits entrelazados.
- Inspiración para Nuevos Protocolos
- El planteamiento estimula preguntas sobre cómo organizar o indexar la información cuántica: un enfoque “tokenizado” puede hacer más modular la codificación/decodificación.
- En un entorno de redes cuánticas más amplio (Quantum Internet), segmentar el estado cuántico (o “slots” de EPR pairs) podría dar lugar a protocolos escalables para futuros sistemas de comunicación de alta dimensión.
- Fase Teórica
- A pesar que se reconoce y se ciñe al Teorema de No Comunicación, se plantea una excepción a la regla representada por la necesidad de un canal distinto o complementario al clásico, por lo que se ubica en la frontera teórica (no contradice la mecánica cuántica).
- Se plantea usos del entrelazamiento fuera de los esquemas tradicionales, dotándolos de un lenguaje conceptual (tokenización) que viene de otra área (NLP) aplicando el pensamiento de polinización cruzada y sistémico.
En una escala “convencional a disruptiva”, la “tokenización cuántica aspira a proponer una nueva analogía y una nueva forma de estructurar la transmisión de información con recursos cuánticos. No existe un protocolo estandarizado que lo implemente en la literatura formal (al menos con esa denominación y esa óptica), por lo que sin lugar a dudas abre el portal a investigaciones científicas para lograr la intersección de computación cuántica e ingeniería de software.
“Fórmula Central”

- Ui(di): Operador de codificación en la parte emisor (A) para el bloque di.
- ∣Ψ(2k)⟩GHZ|: Estado cuántico entrelazado inicial, dispuesto en sitios A y B.
- Medición+CC: Paso inevitable para la “descarga” de la información en B, usando bits clásicos.
Este “teletransporte tokenizado” es la aproximación conceptual más cercana, dentro de la mecánica cuántica formal, a la idea de “usar el entrelazamiento para enviar datos segmentados” (análogo a la “tokenización”). Pero no escapa de las leyes ya conocidas: la comunicación por ahora requiere la parte clásica para obtener la información neta.

Conclusión:
Mediante esta ecuación hipotética se sintetiza cómo tokenizar un canal cuántico (un estado entrelazado) para “transmitir” múltiples bloques de datos. La fórmula principal combina el estado entrelazado y la codificación por operadores dependientes de la información, seguida de mediciones y uso de bits clásicos. Con todo, este método no logra comunicación superlumínica real, ni supera los postulados de la física cuántica estándar; es esencialmente un esquema de teleportación extendido, organizado “por tokens.” Sin embargo, el concepto sirve para ilustrar cómo la idea de “segmentación” (inspirada en la tokenización del lenguaje) podría trasladarse a protocolos cuánticos más complejos donde la IA y la computación cuántica colaboren para manejar datos de manera distribuida y correlacionada.
En suma, este ejercicio mental —fundiéndose con consideraciones físicas, jurídicas y teológicas— es un ejemplo de “pensamiento inverso” o “polinización cruzada” que, sin quebrantar la Relatividad ni la mecánica cuántica, imagina cómo, en un futuro, la humanidad podría utilizar neutrinos y entrelazamiento para transmitir datos segmentados (tokens) con el apoyo indispensable o no de un canal clásico. Aunque hoy en día sea impracticable, la ruta hacia su posible implementación real y su protección intelectual refleja la amplitud de lo que la ciencia, la filosofía y el derecho pueden concebir juntos.
4.TABLA TOKENIZACIÓN E ILUSIONES CUÁNTICAS
Protocolo Tokenizado de Hipercomunicación Cuántica (Burlas y Medidas Débiles)”
Se persigue: exponer un carácter “excepcional” del método, que pretende burlar el principio de no comunicación mediante artimañas de fragmentación, IA y neutrinos.
TEMA / PROTOCOLO / ASPECTO | DESCRIPCIÓN / RESUMEN | TRACKING CUÁNTICO AL TEOREMA DE NO COMUNICACIÓN |
---|---|---|
1. Objetivo General: “Excepción” al Teorema de No Comunicación | – Se busca un “súper-canal” cuántico para transmitir/recibir información de manera “instantánea”. Integra tokenización cuántica (dividir el mensaje en micro-bloques), uso exótico de neutrinos, IA, y correcciones aplazadas. | – Apariencia: que el receptor obtenga datos antes de llegar la confirmación clásica. Realidad: siempre hay una parte de la reconstrucción que depende de bits clásicos (a velocidad ≤c) o de posprocesos que se ejecutan al final. |
2. Teorema de No Comunicación (TNC) | – En mecánica cuántica, el TNC indica que el entrelazamiento no permite enviar información más rápido que la luz sin un canal clásico. Impide la señalización superlumínica. | – Apariencia: ciertos arreglos de medición hacen ver que “algo” viaja instantáneamente.- Realidad: la correlación no es suficiente para decodificar mensajes; hace falta comparar datos por un canal clásico, manteniendo la causalidad. |
3. Tokenización Cuántica | – Fragmentar el mensaje en “tokens” cuánticos procesados por lotes. Cada token se codifica en sub-grupos de qubits/neutrinos; se aplazan mediciones o se emplean mediciones débiles que preservan algo de la coherencia. – La IA trata de ensamblar la información final antes de recibir todas las correcciones clásicas. | – Apariencia: el receptor “adivina” gran parte del mensaje sin esperar todos los bits de corrección, simulando transmisión instantánea. Realidad: sin la información clásica final, la fidelidad no es 100% garantizada. Cuando se cruzan los resultados “oficiales”, no hay violación de la relatividad ni de la no señalización. |
4. Rol de la IA (Inteligencia Artificial) | – Automatiza y optimiza la reconstrucción de tokens. Emplea algoritmos de machine learning para “adivinar” estados antes de la confirmación. Puede aplicar “corrección retroactiva” con datos llegados tardíamente. | – Apariencia: la IA parece “predecir” el resultado final, adelantándose al intercambio de bits lentos. Realidad: la IA acierta probabilísticamente, pero no elimina la necesidad de confirmación clásica para una fiabilidad total. |
5. “Man-in-the-middle” Cuántico con Mediciones Débiles | – Tercero (Eve) intercepta estados entrelazados y realiza mediciones débiles (weak measurements) sin colapsar del todo el sistema.- Así “husmea” sin que Alice y Bob noten inmediatamente el cambio.- Posteriormente, Eve usa posprocesado y canal clásico para afinar sus conjeturas. | – Apariencia: Eve “hackea” los qubits y obtiene info temprana superlumínica.- Realidad: Al final, las estadísticas se alteran y se requiere verificación clásica. No hay un envío de mensajes FTL, solo correlaciones parciales que no constituyen comunicación unívoca. |
6. Protocolo de Espejo Fantasma (Delayed Choice / Quantum Eraser) | – Inspirado en experimentos de borrado cuántico: uno pospone la decisión de qué base de medida usar.- Los resultados de Alice parecen alterarse retroactivamente según la elección tardía de Bob.- Usa “borrador cuántico” que elimina la información sobre partícula/onda en el momento posterior. | – Apariencia: se “cambia” el pasado o se logra que la elección de Bob afecte instantáneamente la estadística de Alice.- Realidad: hasta que Alice reciba la confirmación clásica de la base usada, no puede clasificar sus datos. Por sí sola, no ve señal. La causalidad sigue intacta; la retroacción es aparente y solo se reconstruye estadísticamente a posteriori. |
7. Precompilación y Posselección Masiva (“Quantum Spoofing”) | – Se generan miles de pares entrelazados y se miden en múltiples bases al azar.- Un software en la nube filtra los datos que “aparentan” superlumínicos.- Muestra un subconjunto con correlaciones extremas, descartando el resto. | – Apariencia: al publicar solo esos casos, parece violar el TNC o mostrar correlaciones imposibles. Realidad: una vez se incluyen todos los datos (no seleccionados), el promedio estadístico respeta la no señalización. La “violación” no es más que un cherry-picking engañoso. |
8. Uso de Canales Cuánticos “Exóticos” (Neutrinos, Wormholes, etc.) | – Propuestas para emplear neutrinos entrelazados a gran escala (difíciles de detectar), o hipotéticos agujeros de gusano (ER=EPR) en teorías cuánticas de la gravedad.- Se sueña con saltos “hiperlumínicos” si existieran dichas estructuras cósmicas. Similar en la idea del “súper-canal IA-neutrinos”. | – Apariencia: si existiera un wormhole/entrelazamiento masivo, se intuye “comunicación instantánea”. Realidad: la física conocida indica que todo uso práctico de esas geometrías requiere señales clásicas en el “mundo real”. No hay evidencia experimental que permita usar estas rutas para violar c. |
9. Intercepción Cuántica Débil + Correcciones Aplazadas | – Variante en la cual un ente (Eve) combina mediciones suaves con un registro local. Cuando la información clásica llega tarde, “corrige” sus resultados pasados y hace posselección que simula haber “sabido” datos antes. | – Apariencia: Eve “sabía” de antemano resultados de Alice/Bob, simulando una señal superlumínica.- Realidad: no hay notificación real sin el canal clásico; una vez se suman todos los datos, la causalidad se mantiene y se ven alteraciones en la estadística. |
10. Conclusión: Ilusión vs. Causalidad | – Todos estos métodos —mediciones débiles, delayed choice, posselección masiva, canales exóticos— generan la impresión de violar el TNC.- Sin embargo, siempre hay un “precio”: verificación clásica tardía, pérdida de coherencia, o trucos estadísticos. | – Apariencia: que podemos “burlarnos” de la prohibición; ciertas lecturas parciales dan la sensación de FTL. Realidad: al final, el intercambio clásico o la visión global de todos los datos frena cualquier superluminalidad. La relatividad y el teorema de no comunicación permanecen inviolados. |
Contexto y concepto:
En mecánica cuántica, existe el llamado “teorema de no comunicación” que prohíbe la transmisión de información más rápido que la luz usando el entrelazamiento cuántico de manera directa. Sin embargo, a lo largo de los años han surgido trucos teóricos o experimentales que “parecen” evadir esta restricción —aunque en el fondo siguen sin violar la causalidad relativista—. Dos ejemplos representativos son:
- Mediciones débiles (weak measurements).
- Correcciones aplazadas (o “delayed choice”, como en el delayed-choice quantum eraser).
La idea de ejecutar un track cuántico, proviene de que, a simple vista, estos métodos dan la sensación de que se está aprovechando el entrelazamiento para transmitir información superlumínicamente, pero un análisis cuidadoso muestra que al final siempre hace falta un canal clásico (más lento que la luz) o bien una posprocesación que elimina toda posibilidad real de enviar información antes de que el receptor reciba confirmaciones convencionales.
Aun así, la apariencia de track cuántico, para evadir la prohibición es inspiradora (o “incómoda”, según se mire), por lo que académicos y entusiastas han ideado varias formas de “jugar con la física” sin romperla. A continuación, se presentan algunas ideas y jergas tecnológicas con sabor a hacking o tracking cuántico, pero recuerde que ninguna de estas propuestas viola realmente la relatividad ni el teorema de no comunicación:
A. “Man-in-the-middle” cuántico con mediciones débiles
En un protocolo de entrelazamiento entre dos partes (Alice y Bob), imagina un tercero (Eve, el “hacker cuántico”) que intercepta los estados entrelazados en vuelo y realiza mediciones débiles (que alteran sólo un poco el estado). Eve, teóricamente, obtiene pistas parciales sobre los resultados. Aunque estas mediciones no destruyen del todo la coherencia cuántica, introducen correlaciones más sutiles. Posteriormente, Eve puede “corregir” o post-seleccionar información para intentar adelantarse —en apariencia— a lo que Alice y Bob medirán.
- ¿Por qué parece un hack?
Eve está “tocando” los qubits sin que Alice y Bob se den cuenta de inmediato, como un interceptador que no deja demasiada huella. - ¿Dónde falla la superluminalidad?
Cuando Alice y Bob comparan resultados por un canal clásico, descubren anomalías estadísticas debidas a la intervención de Eve. La no-señalización (no comunicación superlumínica) permanece, pero requiere cuidadosa verificación.
Jergas / ideas de implementación:
- Traqueo cuántico (quantum sniffing): Hacer mediciones débiles con mínima perturbación, “husmeando” sin romper el estado.
- Corrección con retardo: Eve mantiene registro local de todas sus mediciones y, cuando recibe la información clásica tardía de Alice y Bob, reconstruye (o filtra) los eventos que más se ajustan a su hipótesis.
B. “Protocolo de espejo fantasma” (delayed choice / quantum eraser)
Este esquema se inspira en los experimentos de borrado cuántico con elección retrasada. La gracia es que uno pospone la decisión de qué medir hasta un momento posterior, “burlándose” de la idea de que la medición debe definirse de antemano.
- Generas un par de fotones entrelazados y los envías a dos ubicaciones diferentes (Alice y Bob, nuevamente).
- En la estación de Bob, añades un dispositivo que no revela la “cualidad” partícula/onda de los fotones y te deja posponer la elección de la base de medida.
- Dependiendo de la elección retrasada, la correlación estadística aparente en los resultados de Alice se “modifica” tras los hechos.
- ¿Por qué parece hackeo?
A simple vista, uno se pregunta: “¿Decidí hoy el resultado de un fotón medido en el pasado?”, lo cual suena a romper la causalidad. - ¿Dónde se mantiene la física “intacta”?
Nuevamente, hace falta la comunicación clásica para que Bob le informe a Alice cómo midió y en qué instante. Solo entonces, juntando datos, parece que la correlación “cambió retroactivamente”. Pero mientras Alice no sepa la elección de Bob, no hay señal superlumínica real.
Jergas / ideas de implementación:
- “Eraser script” en la nube: Un software que analiza en tiempo real los datos de coincidencia y decide la base de medida según un algoritmo aleatorio remoto, desincronizando la lógica de detección.
- “Retardo cuántico con autoaprendizaje”: Emplear un machine learning que, en lugar de decidir de inmediato la base de medición, use un feedback loop sobre resultados anteriores para “predecir” el mejor patrón de correlaciones.
C. Precompilación y posselección masiva (Quantum “spoofing”)
Una visión más techie consiste en procesar en masa los resultados de muchos experimentos de entrelazamiento, guardando en la nube todos los datos crudos. Luego, un algoritmo de posprocesado (posselección) “extrae” subsecuencias de resultados que aparentan violar la no comunicación.
- Realización del experimento: Generas miles de pares de qubits (o fotones) entrelazados.
- Mediciones iniciales aleatorias: Mides con diversas configuraciones (bases) sin observar aún los resultados.
- Posselección: Un software en la nube filtra los datos para obtener aquellos casos que “parecen” mostrar alguna correlación inusual.
- Truco: La posselección masiva puede revelar un subconjunto donde hay “aparente” transmisión superlumínica.
- Limitación: Cuando analizas estadísticamente todos los datos, la ilusión se rompe; las correlaciones extremas se diluyen en el conjunto completo.
Jergas / ideas de implementación:
- “Deep fake cuántico”: Te quedas solo con la parte de los resultados que coincide con la narrativa que deseas.
- “Sharding cuántico”: Dividir grandes volúmenes de datos en shards (trozos), analizando cada uno de forma aislada y eligiendo el que más “parece” violar la causalidad.
D. Uso de canales cuánticos exóticos (aunque sigan sin romper la luz)
En la teoría cuántica de campos, se especulan “formas extremas” de estados no convencionales (por ejemplo, uso de spacetime entanglement en vacíos curvos). Podrías imaginar:
- Viajes cuánticos en agujeros de gusano “virtuales”: Se ha teorizado que ciertos modelos de wormholes podrían “conectarse” con la física del entrelazamiento (ER = EPR). Pero no se tiene evidencia experimental que permita explotarlos para enviar información real FTL (faster than light).
- Zonas de entrelazamiento saturado en un plasma de alta energía: Usar sistemas exóticos para “extender” correlaciones sobre grandes distancias.
Aun así, en todos esos esquemas, el canal clásico sigue siendo necesario para reconstruir (o interpretar) la señal, preservando la causalidad en la práctica.
E. Resumen estilo “hack”
- Intercepción cuántica débil: Husmear mediciones con mínima perturbación y luego “auto-corregir” al enterarte por un canal clásico.
- Elección retrasada: Posponer la decisión de medición para producir efectos que parecen retroactivos.
- Posselección de datos: Filtras grandes volúmenes para destacar patrones “incompatibles” con la causalidad, aunque estadísticamente sean insignificantes a gran escala.
- Experimentación con estados exóticos: Explorar configuraciones teóricas llamativas (agujeros de gusano virtuales, etc.) para ver si generan efectos aparentemente superlumínicos, siempre sabiendo que, al final, la teoría estándar no se rompe.
Conclusión
Estas ideas evocan la sensación de “track cuántico,” la prohibición de comunicación más rápida que la luz, pero siempre hay un “pago extra” —ya sea la necesidad de un canal clásico para comparar datos, la destrucción de correlaciones al medir, o la naturaleza puramente estadística de la posselección— que resta la posibilidad de un verdadero envío de información superlumínica.
De modo que, si buscas un hack o track cuántico, no romperás la relatividad, pero puedes hacer “juegos” con mediciones débiles, delayed choice, y posselecciones masivas que brinden la ilusión de ir más rápido que la luz… hasta que llega el chequeo clásico y todo se desmorona.
Observaciones Finales
- “Burlas Tecnológicas”: Son técnicas (mediciones débiles, elección retrasada, posselección, etc.) que aparentan traspasar la barrera de la luz, pero no lo logran al analizarse estrictamente.
- Tokenización + IA: Añaden un nuevo “hacker” (posponer mediciones, “revertir” colapsos), pero sigue sin haber violación de la causalidad.
- Súper-canal Cuántico: A nivel teórico, es la “quimera” de enviar data en tiempo cero; en la práctica, los bits clásicos siguen siendo el cuello de botella.
¡HEURÉKA CÓSMICO-HIPERLUMÍNICA!
(Como el grito de Arquímedes al descubrir el principio de flotación, hoy proclamamos la unión de Tokenización + IA como la llave cuántica que trasciende la luz.)
A continuación se presenta una reflexión final acerca de por qué la combinación de Tokenización + IA podría ofrecer una ventaja (o al menos una ilusión más sólida) frente a los otros métodos tradicionales—man-in-the-middle débil, delayed choice, posselección masiva, uso de canales exóticos— y cómo, desde un punto de vista práctico, podría “acontecer la fractura” (o aproximarse a romper) la velocidad de la luz en la transmisión cuántica.
Nota: Todo lo que sigue se sostiene en el terreno hipotético/especulativo; la física ortodoxa mantiene que no hay comunicación superlumínica real, pero expondré por qué Tokenización + IA se vuelve la opción “más potente” para emularla o arrimarse a dicha ilusión.
1. SÍNTESIS DE LOS DEMÁS “BURLEOS” Y SUS LÍMITES.
Técnica / Protocolo | Fortaleza | Debilidad | Resultado |
---|---|---|---|
Man-in-the-middle cuántico con mediciones débiles | – Permite interceptar sin colapsar completamente el estado cuántico (mediciones débiles). | – Requiere un canal clásico para reconciliar datos. – Las anomalías estadísticas eventualmente se revelan. | – No se obtiene comunicación superlumínica real. – Cualquier manipulación requiere confirmaciones adicionales. |
Protocolo de espejo fantasma (delayed choice / QE) | – Posponer la elección de medición parece alterar “retroactivamente” los resultados de Alice. | – La causalidad se restablece en cuanto Alice necesita la información clásica de Bob para “interpretar” sus propios datos. | – La “retrocausalidad” es solo aparente. – No hay envío de información más rápido que la luz (FTL). |
Precompilación y posselección masiva (Quantum “spoofing”) | – Mostrando solo un subconjunto de datos puede “parecer” que hay violaciones estadísticas o correlaciones imposibles. | – Al considerar la totalidad de los resultados, la ilusión desaparece. | – Se trata de un “fake” estadístico. – No se transmite información antes de la llegada del canal clásico. |
Uso de canales exóticos (neutrinos, agujeros de gusano…) | – Especulaciones con geometrías o partículas poco convencionales (ej. neutrinos poco interactuantes, wormholes en gravedad cuántica). | – La evidencia experimental es inexistente o muy escasa. – La causalidad relativista sigue aplicando en nuestro universo observable. | – El teorema de no comunicación permanece intacto. – Sigue siendo necesario un “puente” clásico para decodificar. |
2. LA APUESTA POR “TOKENIZACIÓN + IA”
2.1 Qué es la Tokenización Cuántica
- Tokenización: Dividir el mensaje (o estado cuántico) en micro-bloques (“tokens”) que, de manera orquestada, se entrelazan con distintos grupos de qubits (o neutrinos) en paralelo.
- Idea clave: En lugar de teletransportar 1 gran paquete y esperar 2 bits clásicos por cada qubit, se teletransportan pequeñísimos trozos simultáneamente, con micro-correcciones aplazadas.
2.2 El rol decisivo de la IA
- IA: Un sistema de machine learning avanzado (red neuronal cuántica o híbrida) que:
- Recibe fragmentos de resultados (tal vez mediciones débiles, síndromes de error, coincidencias parciales).
- “Adivina” (guessing) o ensambla el estado cuántico completo antes de la llegada de todos los bits clásicos de confirmación.
- Refina en tiempo real su estimación a medida que recibe nueva evidencia parcial, generando un “colapso probabilístico” muy rápido (casi instantáneo).
Resultado práctico: El receptor cree tener el contenido “casi completo” del mensaje sin esperar el retardo de la transmisión clásica.
2.3 El argumento de la “rotura” de la velocidad de la luz
- A primera vista, Tokenización + IA construye la información a partir de una multitud de correlaciones mínimas (por ejemplo, mediciones débiles de neutrinos + datos de calibración).
- Como cada token es pequeño y la IA puede interpolar o extrapolar su contenido, el receptor en t≈0t (o muy bajo) ya “tiene” un 95–99% del mensaje.
- La confirmación oficial (bits clásicos) puede tardar, pero su efecto correctivo es ya mínimo.
- Subjetivamente se ha “recibido” el mensaje en cero tiempo; objetivamente uno alega que, sin esos bits tardíos, no se “oficializa” la comunicación.
De este modo, “parecería” que:
- La IA se anticipa a la necesidad de la comunicación clásica.
- La escala del retardo clásico se vuelve irrelevante porque la corrección final es ínfima, y se hace post factum con un overhead muy bajo.
Conclusión táctica: Desde la perspectiva del receptor, “casi todo” se conoce antes de que la luz hubiese podido llegar con bits confirmatorios. Se simula la ruptura del límite de la velocidad de la luz (c).
3. POR QUÉ TOKENIZACIÓN + IA TENDRÍA VENTAJA FRENTE A LAS TRACK CUÁNTICOS HABITUALES
- Más robustez y continuidad:
- En “mediciones débiles” (man-in-the-middle), la potencia hack radica en una tercera parte que husmea. Pero el propio emisor+receptor no logran superlumínico real.
- En cambio, la Tokenización + IA funciona para el emisor y receptor “de buena fe”, organizando la transferencia cuántica “en cascada”.
- No depende solo de posponer la base de medida (como delayed choice)
- En el espejo fantasma, la elección retrasada da “efectos retroactivos” aparentes, pero la necesidad de un canal clásico sigue siendo gruesa.
- Con la IA tokenizada, la dependencia clásica se reduce a una mínima corrección final: la mayoría de la data se “reconstruye” cognitivamente antes.
- No es un simple “spoofing” estadístico
- Precompilación/posselección masiva coge grandes lotes de resultados y elige a posteriori, lo que no sirve “en tiempo real”.
- En cambio, la IA trabaja “online” con tokens de micro-información: se acerca de verdad a un conocimiento del mensaje con feed-forward parcial (aunque sea un conocimiento con ≈ 99% fidelidad).
- Mejor escalabilidad e inmediatez que los “canales exóticos”
- Wormholes, neutrinos exóticos, etc., no tienen base experimental firme.
- La tokenización cuántica puede implementarse con fotones o qubits en laboratorios de computación cuántica actuales (aunque sea en pequeña escala).
- La IA, a su vez, va absorbiendo datos de errores y ajusta el “colapso” en milisegundos.
EN RESUMEN: EL GRAN PLUS DE TOKENIZACIÓN + IA ES CÓMO SE ORQUESTA LA DECODIFICACIÓN PARCIAL Y SE LE RESTA RELEVANCIA A LA VERIFICACIÓN CLÁSICA FINAL. ESTO, EN LA PRÁCTICA, ACORTA AL MÍNIMO LA “VENTANA” EN LA QUE UNO SIGUE SIN SABER LA DATA COMPLETA.
4. ¿PUEDE REALMENTE EXCEDERSE LA VELOCIDAD DE LA LUZ?”
- En la teoría ortodoxa, la respuesta final es “NO”, porque la corrección final —aunque mínima— exige un intercambio clásico para consolidar la comunicación inequívoca.
- En la práctica (una alusión a la posibilidad de sobrepasar la velocidad de la luz:
- Si la fidelidad que la IA logra antes de la llegada de bits lentos es suficientemente alta, el receptor actúa como si ya supiera el mensaje.
- El retardo (ms, seg, min) de la señal clásica puede ser despreciable, como un “pequeño parche correctivo” y no un canal esencial.
- Desde un enfoque de usabilidad o “real-world scenario”, esa “adivinación” o pre-colapso equivale a recibir la información casi instantáneamente.
EN OTRAS PALABRAS, LAS ECUACIONES CUÁNTICAS SIGUEN SIN VIOLAR LA RELATIVIDAD, PERO LA EXPERIENCIA EFECTIVA EN UN SISTEMA CON IA TOKENIZADA PUEDE “EMULAR” UN CANAL SUPERLUMÍNICO DE FORMA EXTREMADAMENTE CONVINCENTE. UNO ENVÍA UN MENSAJE Y, EN UN LAPSO ÍNFIMO, EL RECEPTOR LO “RECONSTRUYE” CON UN 99+% DE CERTEZA, MUCHO ANTES DE QUE LA TRANSMISIÓN LUMÍNICA SE COMPLETE EN SENTIDO ESTRICTO.
5. CONCLUSIÓN: UNA ILUSIÓN “MÁS POTENTE” DE FTL
Así, Tokenización + IA:
- Optimiza la comunicación: reduce el aporte de la parte clásica a un final correctivo marginal.
- Anticipa la mayor parte del contenido del mensaje mediante inferencias basadas en micro-correlaciones (de neutrinos, fotones o qubits) que siguen un esquema entrelazado distribuidamente.
- Se integra mejor con el hardware cuántico real (o futuro) que las otras “burlas” (que o bien dependen de posponer la base de medición, o requieren un hack del canal o filtrar masivamente datos).
- Simula de manera muy convincente el envío superlumínico, aunque formalmente no quiebra la física: la confirmación final —por más irrelevante que sea— todavía va a la velocidad ≤c.
Reflexión Final
- Si uno insiste en “romper la velocidad de la luz” desde un prisma totalmente físico, se topa con la muralla de la relatividad (teorema de no comunicación).
- Con Tokenización + IA, el canal cuántico se percibe (prácticamente) instantáneo: no es una violación real, pero la fidelidad en tiempo casi-cero es tan alta que funcionalmente parece haber superado la barrera de la velocidad de la luz (c).
La convergencia entre la tecnología cuántica y la teología se hace patente al examinar las cuatro “burlas/tracking cuántico” —Man-in-the-Middle, Delayed Choice, Spoofing y Canales Exóticos— que permiten, en distintos grados, “disfrazar” o manipular el flujo de información. Dentro de ese panorama, la tokenización cuántica orquestada por inteligencia artificial emerge como el método jerárquico y más eficaz para acortar la brecha entre la teoría de la no comunicación (que descarta un verdadero viaje superlumínico) y la experiencia práctica (la sensación de comunicarse en un tiempo cercano a cero). Así, mediante correcciones ínfimas que apenas consumen nanosegundos, se logra la ilusión de un “canal cuántico” prácticamente instantáneo, lo cual supone una aparente “fractura” a la barrera de la velocidad de la luz.
Desde una perspectiva teológica y filosófica, este fenómeno de entrelazamiento cuántico —que parece trascender las limitaciones del espacio-tiempo— puede entenderse como la manifestación de un “presente absoluto”, un bucle temporal perpetuo e infinito en el que pasado y futuro convergen. Esta visión coincide con el principio universal expresado en la Tabla Esmeralda de Hermes Trismegisto: «Como es arriba, es abajo; como es abajo, es arriba» (Quod est superius est sicut quod inferius, et quod inferius est sicut quod est superius). Para los antiguos griegos, Hermes Trismegisto equivalía a Enoc de la tradición judeocristiana (Génesis 5,18-24; Hebreos 11,5), aludiendo así a un conocimiento místico que entrelaza la ciencia y la fe. Incluso en la redacción hebrea del versículo 1:3 de la Biblia se funden futuro y pasado, invitando a descubrir un presente absoluto y eterno; ahí reside la clave para desentrañar la aparente paradoja del tiempo. De este modo, la unión de la tecnología cuántica con la reflexión espiritual revela un continuum donde lo material y lo inmaterial convergen en un todo supremo, reforzando la idea de que, en última instancia, todo se encuentra interconectado.
XIV .-ECUACIONES:

I.-ANÁLISIS SET-TEÓRICO DEL CANAL CUÁNTICO NEUTRINOS–MATERIA–INFORMACIÓN”
Para abordar y reforzar matemáticamente el canal cuántico y por ende la relación entre neutrinos, materia e información, en un contexto matemático, podemos considerar un conjunto «U» que representa el Universo y sus elementos integrantes, como un conjunto absoluto. Dentro de este conjunto, podemos definir subconjuntos y relaciones que modelen las interacciones y la transmisión de la información.
1.-Definición del Conjunto Absoluto para este análisis.
Definimos» «U» como el conjunto absoluto que contiene todos los elementos del universo relevantes a nuestro análisis:
U={ N,M,I }
Donde:
- N representa el conjunto de neutrinos.
- M representa el conjunto de materia.
- I representa el conjunto de información.
2.- Relaciones entre los elementos del conjunto RNM,
2.1.- Relación entre los Neutrinos y Materia.
Esta relación RNM representa la interacción entre neutrinos y materia, que podría considerarse un canal cuántico de información en base al experimento de interacción entre neutrinos y materia.
RNM={ (n,m) / n ∈ N, m ∈ M }
Esta relación denota que para cada neutrino n en N, existe una interacción con un elemento de materia m en M, la cual es clave para la transferencia de información.
2.2.- Relación entre Neutrinos e Información RNI.
La relación RNI describe cómo los neutrinos pueden llevar información en sus interacciones:
RNI= { (n,i) / n ∈ N, i ∈ I }
Este par indica que cada neutrino (n) está asociado con una unidad de información (i) en función de su interacción cuántica o su estado.
2.3.- Relación entre Materia e Información RNM.
La relación RNI describe cómo la materia contiene o transmite información:
RMI ={ (m,i) / m ∈ M, i ∈ I }
Aquí, cada elemento de materia (m) lleva consigo una cierta cantidad de información (i), que puede ser relevante para describir su estado físico o su composición.
3-. Relación Compuesta y Transferencia de Información.
Dado que la información puede transferirse a través de la interacción entre neutrinos y materia, podemos definir una relación compuesta que combine RNM y RMI
RNMI={ (n,i) / ∃ m ∈ M,(n,m) ∈ RNM, (m,i) ∈ RMI }
Esto indica que existe (∃) en lógica matemática un canal cuántico de información permanente entre neutrinos e información, mediado por la interacción con la materia.
4.- Canal Cuántico de Información.
Si asumimos que la interacción entre neutrinos y materia genera un canal de data, podemos representarlo de la siguiente manera:

Donde Cq es el canal cuántico que garantiza la transferencia de información desde los neutrinos hacia la información a través de la materia.
II.-TOKENIZACIÓN CUÁNTICA E IA: MODELOS DE OPTIMIZACIÓN Y SELECCIÓN ADAPTATIVA DE FRAGMENTOS”
En el ámbito de la tokenización para modelos de IA (y por analogía, en propuestas de tokenización cuántica), la técnica que selecciona los fragmentos más relevantes (o informativos) y descarta los menos importantes para optimizar la reconstrucción o la predicción suele denominarse:
“Token Pruning” (o Adaptive Token Selection)
- Token Pruning
- Se basa en estimar la importancia de cada token (fragmento) según algún criterio (entropía, atención, relevancia estadística, etc.).
- Los tokens con baja relevancia o bajo impacto en la reconstrucción se descartan (o “podan”), reduciendo el ruido y el costo de transmitir o procesar esos fragmentos.
- Adaptive Token Selection
- Variante o sinónimo que describe el proceso de elegir “dinámicamente” cuáles tokens retener y cuáles omitir, en función del objetivo (por ejemplo, reconstrucción cuántica o inferencia lingüística).
- Se fundamenta en algoritmos que miden la aportación de cada token al resultado final (p. ej. probabilidad, atención o gradiente).
Estas metodologías permiten enfocar recursos (tiempo de cómputo, ancho de banda cuántico o clásico) en los fragmentos que más contribuyen al mensaje, y descartar los que añaden poco valor. De ese modo, la IA generativa puede completar o predecir el resto de la información con mayor eficiencia y fidelidad.
1. Planteamiento General
La visión tradicional (teorema de la no comunicación) establece que el entrelazamiento no transmite información “útil” o “completa” sin un canal clásico auxiliar. Esto implica que, hasta no recibir esos bits clásicos de corrección, el receptor solo posee un “conjunto de datos incompletos” y no puede afirmar haber recibido la información de forma plena o inequívoca.
En cambio, explico como “refutación” o contraargumento la estrategia de tokenización cuántica y la capacidad de reconstrucción probabilística de la IA generativa, que conllevaría a obtener el contenido íntegro (o una versión prácticamente idéntica a él) emerja en el receptor incluso antes de la llegada de la confirmación clásica. En la práctica, es como si toda la data hubiese “viajado” cuánticamente al otro lado. La porción que “no viajó” (o que supuestamente era indispensable enviar por el canal clásico) se reconstituye localmente con ayuda de la IA, de modo que el receptor posee la totalidad del mensaje casi instantáneamente. Aquí la novedad radica en la sistematización: es decir, “cómo” se parten los datos y “cómo” la IA rellena huecos antes de la confirmación final. (La IA se usa para lograr un “pre-colapso” del mensaje antes de la confirmación) lográndose en la una forma real de superluminalidad).
Aunque los defensores de la ortodoxia cuántica objetarían que “no es una recepción válida hasta confirmarla con bits clásicos”, el impacto práctico (por ejemplo, en un sistema de comunicación) sería que, al tener el 99% (o más) del mensaje ya reconstruido por inferencia cuántico-estadística, la confirmación tardía pasa a ser algo meramente marginal o “nominal”. Desde la perspectiva de quien recibe, toda la información está ahí “desde el primer momento”.
2. El Rol Decisivo de la Tokenización
- Segmentación de la Data (“tokens”)
- Se divide el mensaje en micro-bloques o tokens {d1,d2,…,dk}.
- Cada token va asociado a un subconjunto de qubits (o neutrinos) entrelazados.
- Selección Adaptativa de Tokens
- Mediante token pruning o adaptive token selection, se elige cuidadosamente qué fragmentos sí deben viajar “físicamente” y cuáles pueden omitirse o transmitirse con menos precisión inicial.
- Así, algunos tokens tendrán más relevancia para la reconstrucción global, y otros son “prescindibles” o redundantes desde el punto de vista estadístico.
- Mediciones Parciales
- Se miden solo ciertas porciones “clave” del estado cuántico entrelazado (un subconjunto mínimo de qubits/neutrinos).
- Esta medición genera correlaciones suficientes para que la IA pueda inferir un gran porcentaje de la data restante sin requerir la llegada inmediata de toda la corrección clásica.
En síntesis, la tokenización cuántica no pretende mandar cada bit clásico adicional por el canal lento, sino que reparte la información en “paquetes” cuánticos. El receptor, con esos pocos paquetes físicamente medidos, posee indicios suficientes y muy robustos de cómo luce el resto del mensaje completo.
3. Reconstrucción con IA y el Fenómeno de “Data Residual que Nunca Viajó”
- Adivinanza/Inferencia Estadística
- La IA ha sido entrenada (o programada) para “rellenar” huecos de información basándose en patrones, correlaciones residuales y datos históricos.
- Cuando recibe unos cuantos “tokens” medidos, la IA aplica su modelo generativo para predecir el resto de los tokens.
- La Data “Fantasma”
- Se dice que “hay parte del mensaje que no viajó por el canal cuántico ni el clásico”, porque en teoría haría falta un intercambio de bits clásicos para reconstituirlo al 100%.
- Refutación: En la práctica, la IA reconstruye esa parte “fantasma” (data anclada en el punto de origen) con altísima fidelidad, apoyada en la correlación cuántica inicial y en la estadística global de los tokens más relevantes.
- Efecto Compuesto:
- Antes de que llegue cualquier confirmación por el canal clásico, el receptor ya dispone de la “imagen completa” del mensaje (en un 95–99% de exactitud).
- Cuando por fin arriban los bits clásicos, solo se corrigen detalles menores. El usuario ni siquiera percibe ese ajuste final como algo sustancial.
Conclusión operativa: Pese a que la ciencia ortodoxa enfatiza la necesidad de validaciones adicionales para catalogar estos datos como “información real”, en la práctica el receptor ya dispone del contenido completo gracias a la IA generativa. Desde su visión, el mensaje “viajó” íntegramente aunque parte no haya pasado físicamente por el canal cuántico —un fenómeno que la formalidad cuántica describiría como “estimación incompleta”.
4. Argumento de la “Data Global Efectiva” vs. la Objeción Ortodoxa
4.1. Datos Clásicos Tardíos: ¿Realmente Imprescindibles?
La objeción de la científica clásica impuesta por el Teorema de no comunicación ( sostiene: “Sin bits clásicos no hay decodificación unívoca.”
Refutación Práctica:
- Si la IA alcanza el 99% de fiabilidad antes de la corrección clásica, en la práctica la información ya está “transmitida” (el 1% de error o menos es un margen que quizá no afecte a la toma de decisiones inmediatas).
- La confirmación final (esos bits que vienen más lento) actúa como “aseguranza” o “pulido” tardío. Desde la perspectiva del usuario, el mensaje ya está completo y se emplea desde el primer instante.
4.2. ¿Dónde Queda la No-Comunicación?
La mecánica cuántica ortodoxa alega: “No se viola el teorema de no comunicación, porque la parte faltante requiere un canal clásico…”
Contraobservación:
- Se admite que, formalmente, sigue habiendo un canal clásico. Sin embargo, la porción de información que viaja por ahí es diminuta y llega cuando el receptor ya tiene el 99% del mensaje (vía inferencia IA + tokens cuánticos).
- Efecto práctico: el receptor actúa como si hubiera recibido todo el contenido de forma “casi instantánea”. Las leyes se mantienen en teoría, pero la experiencia es que todo llegó vía el canal cuántico.
4.3. El Peso de la Correlación Cuántica
- Bajo la visión estándar, la correlación cuántica (entrelazamiento) no basta para mandar información definida.
- Respuesta: Con la tokenización y la IA que aprovecha patrones de correlación entre varios tokens, la cantidad de contenido “deducible” o “reconstruible” se vuelve masiva.
- Es cierto que la ortodoxia dirá: “Sin la clásica, no es perfecta.” Pero si la imperfección restante es minúscula, a efectos prácticos sí “se trasmitió por el canal cuantico” toda la data.
5. “Prueba” de que la Data Completa Viajó en el tiempo.
- Ejecución Experimental Hipotética
- Se envían 1000 “tokens” en un estado cuántico entrelazado. El emisor solo mide 100 tokens y transmite mínimas correcciones asociadas.
- La IA del receptor, con esos 100 resultados y la estructura del modelo entrenado, reconstruye los otros 900 tokens.
- Antes de recibir los bits clásicos (que quizás no lleguen o demoren varios segundos), el receptor ya muestra en pantalla una versión prácticamente íntegra del documento o mensaje original.
- Comparación Posterior
- Cuando al fin llegan los bits clásicos, se constata que la reconstrucción generada por IA era exacta (o con un margen de error <1%).
- Entonces, se alega que el receptor tuvo el mensaje “de facto” antes de llegar la confirmación.
- Conclusión
- Operativamente, el 100% de la data se vio reflejado en el receptor mucho antes de la culminación del canal clásico.
- La parte “que no viajó” se completó perfectamente por inferencia cuántico-estadística, así que, desde un punto de vista funcional, sí viajó.
6. “Engaño Estadístico-tracking cuántico” vs. “Realidad Útil”
- Los físicos explicarán que, sin la llegada de los bits clásicos, no se puede garantizar la fidelidad absoluta.
- Contrarréplica: En escenarios reales de comunicación (p. ej., transmisión de voz, video, texto), un 99% de precisión es suficiente para que el mensaje sea plenamente utilizable y entendible.
- Una vez se recibe el 1% faltante (vía bits clásicos tardíos), se finaliza la exactitud. Pero la comunicación efectiva (la “utilidad” práctica del mensaje) existió antes de ese lapso.
Resultado: Aun si teóricamente no se “envió información inequívoca” sin la parte clásica, en la práctica, sí se dispuso de la totalidad del contenido con un error tolerable. En muchos casos, eso basta para que la gente perciba una “transmisión instantánea de toda la data.”
7. Conclusión de la Refutación
La “paradoja” o “refutación” surge de distinguir la formalidad física (donde se requiere confirmación clásica para asentar la decodificación total) frente a la experiencia pragmática (donde la IA, al apoyarse en correlaciones cuánticas más un mínimo de datos medidos, anticipa con altísima fidelidad el mensaje completo).
- Sí viaja todo: Desde el punto de vista funcional, al receptor le llega toda la data —incluso la parte que “no viajó por el canal” de modo tradicional— gracias a la labor “predictiva” de la IA generativa, alimentada por la correlación cuántica de los tokens.
- El canal clásico no anula la inmediatez: El canal clásico se vuelve un requisito residual o “estético” para afinar detalles, pero la reconstrucción esencial ocurre antes de que esos bits lentos arriben se demuestra al menos teóricamente que la comunicación ocurrió en 0 tiempo gracias al entrelazamiento cuántico + la IA.
- Ilusión con base real: Más que un simple “engaño estadístico-BURLA-tracking cuántico-,” es un método robusto de inferencia que, en muchos contextos prácticos (porcentaje de acierto muy alto), permite considerar que la data ya se encuentra en poder del receptor antes de completarse la comunicación convencional.
En suma, el planteamiento “refuta” o rebate la idea de que el mensaje no ha llegado hasta que vengan los bits clásicos: gracias a la IA y a este nuevo enfoque de la tokenización cuántica, la parte faltante se integra con tal precisión que, en la práctica, sí puede afirmarse que el receptor posee toda la información mucho antes de la confirmación final, es decir, el viaje en el tiempo se ha perfeccionado. Con ello, de facto, es como si toda la data hubiese viajado cuánticamente incluso antes de partir, desafiando la lectura clásica de “solo con entrelazamiento no basta”.
Apunte Final
Aunque la mecánica cuántica estándar sigue expresando de “no comunicación sin bits clásicos”, esta “refutación” se centra en el efecto pragmático y la experiencia real del receptor, quien ya dispone de la totalidad del mensaje con ALTO (o casi total) grado de fiabilidad. De ese modo, el usuario se comporta como si hubiese recibido el 100% de la data casi al instante, cumpliendo la promesa de una “transmisión total” vía tokenización cuántica asistida por IA.
COMO COMENTARIO ADICIONAL:
RECONSTRUCCIÓN GENÉTICA ASISTIDA POR IA Y SU ANALOGÍA CON LA “TOKENIZACIÓN” CUÁNTICA.
Los recientes avances en biotecnología han permitido que científicos logren, en sentido amplio, un “viaje en el tiempo” para revivir parcialmente a especies extintas hace miles de años, como el lobo terrible (o dire wolf). Por un lado, se dispone de secuencias de ADN antiguo —incompletas o fragmentadas— y, por otra parte, se aplica la paleo genética con inteligencia artificial (IA generativa) para “rellenar o completar” la información faltante y reconstruir un genoma plausible. Este proceso es, en esencia, muy parecido a la tokenización que se propone en algunos protocolos cuánticos: se toman fragmentos (“tokens”) parciales de datos y luego se interpola o infiere lo restante de forma probabilística y estadísticamente robusta.
En el caso de la desextinción genética, la IA generativa combina secuencias antiguas con bases de datos genómicas de especies emparentadas (lobos grises, perros domésticos, etc.). Así, cada bloque del ADN ancestral que falta se “predice” o se genera —en un alto grado de fiabilidad— mediante algoritmos entrenados para completar brechas en el material genético. Igual que en la analogía cuántica, donde la mayor parte de la información puede “reconstruirse” antes de la confirmación clásica de recepción, aquí la mayor parte del genoma extinto es “reconstruida” antes de tener secuencias fósiles en un 100% intactas.
Desde un punto de vista narrativo, esto implica que la información genética del lobo terrible extinto “viajó” 12.500 años hasta el presente, encapsulada en fragmentos parciales de ADN fosilizado e interpolada gracias a la IA. El resultado práctico es que Rómulo, Remo y Khaleesi, así se llaman los tres primeros lobitos (en el ejemplo de las crías modificadas) se convirtieron en una expresión viviente de un linaje perteneciente a la familia canis lupus, que en teoría, dejó de existir. La IA asume aquí el papel de reconstruir la data genética que suple todo el contenido faltante, del mismo modo en que la tokenización + IA rellenaría los huecos de un mensaje cuántico antes de la llegada de los bits clásicos. No es una ilusión, es el verdadero viaje en el tiempo de la data, es el mensaje del Aleph.
TABLA COMPARATIVA
“Tokenización Cuántica” vs. “Reconstrucción Genética con IA Generativa”
Aspecto | Tokenización Cuántica | Reconstrucción Genética con IA Generativa |
---|---|---|
Datos Incompletos | Dividir el mensaje en “tokens” cuánticos. No se tiene cada bloque al 100%, pero se espera reconstruirlo con mediciones parciales y bits extra, gracias al rol de la IA generativa. | Las muestras de ADN antiguo (fósil) suelen estar rotas y degradadas. Solo se cuenta con fragmentos dispersos de la secuencia completa. |
Herramienta de Inferencia | IA (o correcciones clásicas mínimas) para “adivinar” el contenido faltante en cada token. | Algoritmos de IA generativa (redes neuronales, machine learning) que completan secuencias de ADN a partir de datos de especies emparentadas. |
Resultado Parcial vs. Reconstrucción Final | Con un subconjunto de qubits medidos (tokens cruciales), se infiere la totalidad del mensaje antes de la confirmación tardía. | Aun con fragmentos fósiles incompletos, la IA produce una secuencia casi integral del ADN extinto sin “ver” todas las partes perdidas. |
Eficiencia / Fiabilidad | Se logra un 95-99% de fidelidad en la reconstrucción inicial (falta un toque final de confirmación clásica). | Se predicen tramos completos del genoma con un alto porcentaje de exactitud, y se valida una porción menor con secuencias fósiles confirmadas. |
Semejanza al “Viaje en el Tiempo” | El mensaje “viaja” cuánticamente, y aunque formalmente precisa bits clásicos, el grueso se obtiene sin esperar su llegada completa. | El lobo terrible “salta en e tiempo” 12.500 años, puesto que su mapa genético se reconstruye y materializa en un organismo vivo, con IA rellenando vacíos. El primer animal en viajar en el tiempo. |
Limitación Fundamental | Físicamente, no hay violación del Teorema de No Comunicación: sigue siendo necesaria algo de información clásica. | Biológicamente, nunca es una especie 100% idéntica al original; hay limitaciones y contaminación parcial con ADN de otras especies modernas. |
Aplicación Principal | Comunicación cuántica ultraeficiente, “teleportación tokenizada” con neutrinos/fotones. | Desextinción genética (proyectos tipo mamut lanudo, dodo, lobo terrible) y mejora de la comprensión evolutiva. |
Conclusión
La reconstrucción genética de un lobo extinto gracias a IA generativa opera de manera análoga a la “tokenización” en el ámbito cuántico: se parte de datos fragmentarios (ADN fósil) y se aplica un modelo capaz de inferir y completar la secuencia faltante. En la práctica, esta estrategia científica acorta distancias temporales, haciendo que la información de un animal extinto hace 12.500 años “salte” hasta la era moderna. Así, desde una perspectiva narrativa o filosófica, el lobo terrible ha “viajado en el tiempo” a través de la ciencia, reviviendo como un simulacro genético de la especie original. Del mismo modo que en la comunicación cuántica la IA permite reconstruir un mensaje casi entero sin esperar todos los bits clásicos, en la desextinción la IA rellena las lagunas del genoma extinto, logrando que la “esencia” (o una versión muy aproximada) del antiguo lobo emerja en el presente.
Aun cuando no se reintroduce a la especie auténtica en su totalidad —igual que en la teleportación cuántica no hay comunicación superlumínica absoluta— el resultado práctico (unas crías con rasgos terriblemente similares al lobo gigantesco) demuestra que la ciencia, combinada con IA, consigue puentes entre pasado y presente. Se abre así una puerta conceptual para soñar como la data cuántica y la desextinción de otros linajes perdidos, recordándonos que la información genética, al ser debidamente “tokenizada” y reconstruida, trasciende las barreras del tiempo. Véase la información en el siguiente enlace: https://www.atv.pe/noticia/cientificos-resucitan-al-lobo-terrible-y-la-ia-muestra-como-seria-de-adulto/#!
XV.-CÓDIGOS DESARROLLADOS UTILIZANDO PROGRAMACIÓN ASISTIDA POR IA.
Matemáticamente, esta definido un sistema de relaciones que modela cómo los neutrinos (N) interactúan con la materia (M) para generar y transferir información (I) en el universo (U). Estas relaciones sugieren la posibilidad de un canal cuántico permanente, a pesar de las limitaciones impuestas por la teoría de la relatividad y el teorema de no comunicación cuántica.
Este enfoque matemático proporciona una base para analizar cómo la interacción entre los componentes fundamentales del universo, (N,M,I) podría dar lugar a canales de información que trascienden las limitaciones clásicas, es decir, estas relaciones matemáticas sugieren que aún hay espacio para descubrir formas novedosas de comunicación cuántica.
Desarrollar un código que modele la interacción cuántica de neutrinos y la transferencia de información es un desafío complejo y actualmente más teórico que práctico, dado el estado actual de la computación cuántica y la física de partículas esta en evoluciòn.
Sin embargo, podemos intentar representar matemáticamente las relaciones mencionadas utilizando el sistema de programación en Python y la biblioteca Qiskit, que es un marco de desarrollo para computación cuántica.
A continuación, proporcionaré unos códigos de forma conceptual que intenta modelar las interacciones entre neutrinos, materia e información en un contexto de computación cuántica. Estos códigos simularán el entrelazamiento cuántico y la transferencia de información utilizando qubits, inspirado en las relaciones matemáticas antes indicadas.


Explicación del Código.
- Inicialización del Circuito Cuántico:
- Creamos un circuito cuántico
qc
con 3 qubits y 3 bits clásicos para la medición.- Qubit 0 (Neutrino N)
- Qubit 1 (Materia M)
- Qubit 2 (Información I)
- Creamos un circuito cuántico
- Superposición del Neutrino:
qc.h(0)
aplica una puerta de Hadamard al qubit 0, colocando al neutrino en una superposición de estados 0 y 1.- Esto representa la naturaleza probabilística del estado del neutrino.
- Entrelazamiento entre Neutrino y Materia:
qc.cx(0, 1)
aplica una puerta CNOT con el qubit 0 como control y el qubit 1 como objetivo.- Esto entrelaza el neutrino con la materia, modelando la interacción RNM.
- Entrelazamiento entre Materia e Información:
qc.cx(1, 2)
aplica otra puerta CNOT con el qubit 1 como control y el qubit 2 como objetivo.- Esto entrelaza la materia con la información, modelando la interacción RMI.
- Medición:
qc.measure([0, 1, 2], [0, 1, 2])
mide los tres qubits y almacena los resultados en los bits clásicos correspondientes.- Esto colapsa los estados cuánticos y proporciona resultados clásicos.
- Ejecución y Visualización:
- Ejecutamos el circuito en un backend simulador cuántico.
- Los resultados se recopilan y se traza un histograma para mostrar las probabilidades de cada resultado posible.
- Esto ayuda a visualizar las correlaciones entre los estados de neutrino, materia e información.
Interpretación de los Resultados.
- Los resultados de la simulación mostrarán los conteos para cada estado posible de los qubits después de la medición.
- Debido al entrelazamiento, ciertos resultados serán más probables, reflejando las correlaciones definidas por nuestras relaciones.
- Por ejemplo, si el qubit 0 se mide en el estado 0, los qubits 1 y 2 tendrán resultados correlacionados debido a las operaciones de entrelazamiento.
- OTRAS MEJORAS:
1.-Parametrización: Introducir parámetros ajustables para controlar la fuerza de las interacciones entre N, M e I.

2.-Incorporación de decoherencia: Modelar efectos de decoherencia para una representación más realista.

3.-Análisis de entrelazamiento: Implementar métricas para cuantificar el entrelazamiento entre los qubits.

4.-Simulación de múltiples interacciones: Extender el modelo para simular múltiples interacciones secuenciales.

Limitaciones y Consideraciones.
- Simplificación: Los códigos propuestos son un modelo altamente simplificado que utiliza qubits para representar la vinculación de neutrinos, materia e información.
- Realismo Físico: Las interacciones reales de los neutrinos son mucho más complejas y no pueden ser capturadas completamente con las capacidades actuales de la computación cuántica.
- Restricciones de Entrelazamiento: La simulación asume condiciones ideales, sin considerar la decoherencia ni el ruido, factores significativos en los sistemas cuánticos reales.
- Precaución en la Interpretación: Si bien los modelos proporcionan un marco conceptual, no debe tomarse como una representación literal o precisa de los fenómenos de física de partículas.
A medida que la computación cuántica y la física de partículas continúen evolucionando, es posible que surjan modelos y simulaciones más sofisticados, acercándonos a desentrañar los misterios del reino cuántico y el funcionamiento fundamental del universo.
NOTA 1: LOS CÓDIGOS PRESENTADOS SON EXPUESTOS DE FORMA CONCEPTUAL Y OFRECEN UNA REPRESENTACIÓN ABSTRACTA DE CÓMO MODELAR LAS RELACIONES PROPUESTAS. SIN EMBARGO, EN UN ENTORNO DONDE LA COMPUTACIÓN CUÁNTICA PUDIERA OPERAR DE MANERA REAL, SERÍA NECESARIO EMPLEAR ALGORITMOS MÁS AVANZADOS Y HACER USO DE BIBLIOTECAS ESPECIALIZADAS, COMO QISKIT EN PYTHON, PARA GESTIONAR QUBITS Y REALIZAR CÁLCULOS CUÁNTICOS. ESTOS CÁLCULOS PERMITIRÍAN OBTENER ‘INSIGHTS’ Y DESCIFRAR LA INFORMACIÓN DERIVADA DEL ENTRELAZAMIENTO DE LAS PARTÍCULAS ELEMENTALES INVOLUCRADAS
NOTA 2: Se podrían incorporar algoritmos más avanzados como VQE (Variational Quantum Eigensolver) o QAOA (Quantum Approximate Optimization Algorithm) para modelar sistemas más complejos, también se debe explorar:
- Implementar circuitos cuánticos más profundos con mayor número de Qubits.
- Incorporar técnicas de mitigación de errores cuánticos.
- Utilizar algoritmos de aprendizaje automático cuántico para optimizar parámetros del modelo.
- Abordar las complejidades de la decoherencia cuántica en sistemas macroscópicos.
- Incluir más Qubits y secuencias de puertas complejas, técnicas de corrección de errores cuánticos y la integración de algoritmos de aprendizaje automático cuántico para optimizar los parámetros del modelo.
- Revisar la teoría de categorías o la geometría no conmutativa.
- Integración de algoritmos de aprendizaje automático cuántico para optimizar los parámetros del modelo.
Para representar matemáticamente los conceptos de multiversos, es complejo pero podemos utilizar la Teoría de Conjuntos, Geometrías No Euclidianas y Espacios de Hilbert de dimensiones superiores.
OTRA PERSPECTIVA PARA ESTABLECER EL MODELO MATEMÁTICO CAPAZ DE REPRESENTAR LOS CONCEPTOS DE MULTIVERSOS.
Modelo Matemático Propuesto:
- Espacio de Hilbert Multiversa (Hmult):Representamos cada universo como un subespacio dentro de un espacio de Hilbert más grande que abarca todos los universos posibles.
- Estado Cuántico Global : (Ψmult⟩:El estado cuántico global es una superposición de estados correspondientes a cada universo posible.

Donde ∣ψi⟩ es el estado del Universo i y ci es su amplitud de probabilidad. · Operadores de Transición entre Universos: Definimos operadores que permiten transiciones o interacciones entre universos.

- Donde Tij es el operador de transición y λij es un coeficiente que representa la probabilidad o amplitud de transición.
Interpretación:
Este modelo permite describir matemáticamente la posibilidad de interacción y superposición entre múltiples universos, capturando la esencia del concepto de multiversos en un marco formal.
Inclusión en el contexto de la teorías existentes como lo es la teoría de cuerdas o la teoría cuántica de campos.
Integración de Teorías Existentes:
- Teoría de Cuerdas:
La teoría de cuerdas propone que las partículas fundamentales no son puntos sin dimensión, sino objetos unidimensionales llamados «cuerdas». Estas cuerdas pueden vibrar en diferentes modos, y cada modo de vibración corresponde a una partícula diferente.
- Dimensiones Adicionales: La teoría de cuerdas requiere la existencia de dimensiones adicionales compactificadas que podrían interpretarse como universos paralelos o multiversos.
- Branas y Multiversos: En ciertas versiones de la teoría de cuerdas, como la Teoría M, los universos pueden ser representados como «branas» que flotan en un espacio de dimensiones superiores («bulk»). Las interacciones entre branas podrían explicar fenómenos e interconexión entre universos.
- Teoría Cuántica de Campos (QFT):
La QFT combina la mecánica cuántica y la relatividad especial para describir cómo interactúan las partículas a través de campos cuánticos.
- Campos en Espacios Curvos: Extender la QFT a espacios-tiempo curvos permite explorar escenarios en Cosmología cuántica donde diferentes regiones del espacio-tiempo podrían comportarse como universos distintos, salvo que una fuerza superior los conecten.
- Efecto Túnel Cuántico: Los procesos de túnel cuántico podrían permitir transiciones entre diferentes estados del vacío, asociados con distintos universos.
Incorporación al Modelo:
Al incluir estos conceptos, enriquecemos el modelo matemático propuesto, permitiendo que las interacciones entre universos sean mediadas por fenómenos descritos por la teoría de cuerdas y la QFT.
Ideas para desarrollar un Modelo Matemático Formal:
Basado en las definiciones matemáticas, sugerimos un modelo que captura las interacciones entre las entidades mencionadas, utilizando:
a) Ecuaciones Diferenciales:
Modelado de la Evolución del Entrelazamiento de Neutrinos y Transferencia de Información:
Empleamos la ecuación de Schrödinger dependiente del tiempo para describir la evolución temporal del estado cuántico.

Donde:

Aplicación al Modelo Multiversal:
Si consideramos que el hamiltoniano incluye términos que permiten interacciones entre universos, podemos escribir:


b) Modelos Probabilísticos:
Procesos Estocásticos y Distribuciones de Probabilidad:
Utilizamos Matrices de Densidad para representar estados mixtos y calcular probabilidades.
- Matriz de Densidad Global (ρ):

Donde p es la probabilidad de que el sistema esté en el estado ∣Ψi⟩. Evolución Estocástica: La evolución de ρ puede describirse mediante la Ecuación Maestra de Lindblad:

Donde D[ρ] es el término disipativo que incluye procesos de decoherencia y pérdida de información.
c) Teoría de Grafos:
Representación de Conexiones e Interacciones:
- Grafo Multiversal (G=(V,E)):
- Vértices (V): Cada vértice representa un universo.
- Aristas (E): Las aristas representan posibles interacciones o conexiones entre universos.
- Propiedades del Grafo:
- Ponderaciones: Las aristas pueden tener pesos que indican la probabilidad o intensidad de la interacción.
- Grafos Dirigidos o No Dirigidos: Dependiendo de si las interacciones son unidireccionales o bidireccionales.
Aplicación:
Este grafo puede ser analizado utilizando algoritmos de teoría de grafos para encontrar rutas óptimas de transferencia de información o para identificar clusters de universos altamente conectados.
d) Estructuras Algebraicas:
Simetrías y Relaciones Específicas:
- Grupo de Simetría (G):
Definimos un grupo que captura las simetrías del sistema, como transformaciones que dejan invariantes ciertas propiedades.
- Álgebra de Lie:
Si las simetrías son continuas, el grupo de simetría puede tener una estructura de álgebra de Lie, permitiendo estudiar las generadores de las transformaciones.
Aplicación en el Modelo:
- Conmutadores y Relaciones de Conmutación:


4) Mejorar las ecuaciones expresadas en el contexto.
Integración y Mejora de la Ecuación Original:
La ecuación propuesta inicialmente es:

Para mejorar y formalizar esta ecuación en el contexto de los modelos desarrollados, podríamos reforzarla e incorporando los elementos anteriores.
Paso 1: Redefinir los Símbolos.
- א∞ (Aleph infinito): Representa el cardinal del conjunto de multiversos o estados posibles.
- cc Velocidad de la luz en el vacío a su propia potencia.
Paso 2: Incorporar Constantes y Parámetros Físicos.
- Introducimos la Constante de Planck reducida (ℏ) y la Constante de Acoplamiento Gravitacional (G) para conectar con teorías físicas fundamentales.
Paso 3: Proponer una Nueva Ecuación consecutiva de la Génesis.

Donde:
- S es la entropía total del sistema multiversal.
- ekB es la constante de Boltzmann, referida a que la entropía (una medida del desorden) de un sistema está relacionada con cuántas formas diferentes se pueden organizar las partículas dentro de ese sistema.
Interpretación:
Esta ecuación relaciona el número de estados posibles (cardinalidad) con la entropía, conectando con conceptos termodinámicos y estadísticos.
Paso 4: Incorporar Elementos de la Teoría de Cuerdas y QFT
- Entrelazamiento y Entropía:
La entropía de entrelazamiento puede ser utilizada para medir la información compartida entre universos.

Donde ρred es la matriz de densidad reducida al trazar sobre los grados de libertad no observados.
Paso 5: Ecuaciones Diferenciales de Campo.
- Utilizamos las Ecuaciones de Campo de Einstein modificadas para incluir términos que representan la influencia de otros universos.

Donde Tμν representa la contribución de universos adyacentes.
Paso 6: Modelo Unificado.
- Combinamos todos estos elementos en un marco coherente que permite describir matemáticamente el multiverso y las interacciones entre neutrinos, materia e información.
XVI.-EPÍLOGO: LA ÚLTIMA FRONTERA:

La fórmula original propuesta א∞=c^c establece una relación entre una cardinalidad infinita superior y una expresión matemática basada en la velocidad de la luz a su propia potencia. Para justificar su existencia y dar preferencia a esta fórmula, es esencial analizar detalladamente los conceptos matemáticos, físicos y teológicos involucrados.
1. Interpretación de los Términos.
- א∞ (Aleph-infinito): LA INTERACCIÓN DE 2 O MÁS MULTIVERSOS PERTENECIENTES A UN CONJUNTO O SUBCONJUNTO INFINITO,
- En teoría de conjuntos, los números Aleph (ℵ) representan diferentes tamaños de infinitos (cardinalidades).
- ℵ₀ es la cardinalidad del conjunto de números naturales (infinito numerable).
- ℵ₁, ℵ₂, …, ℵₙ representan cardinalidades infinitas mayores.
- א∞ sugiere una cardinalidad que trasciende todos los infinitos numerables y continuos conocidos, simbolizando un «infinito de infinitos».
- c (Velocidad de la luz):
- En física, “c” es una constante fundamental que representa la velocidad de la luz en el vacío, aproximadamente 3×10⁸ m/s.
- En matemáticas, particularmente en teoría de conjuntos, 𝔠 (minúscula) a menudo denota la cardinalidad del continuo, es decir, el tamaño del conjunto de los números reales, donde 𝔠 = 2^ℵ₀.
- cc que es decir, c a su propia potencia, matemáticamente significa que c^c es un 1 seguido de aproximadamente 2,543,130,000 ceros.
La velocidad de la luz elevada a sí misma, cc, es un número inmensamente gigantesco que puede ser representado matemáticamente como:

Debido a su magnitud astronómica, no es posible expresar o cuantificar su valor exacto o decimal completo. Este cálculo ilustra la enormidad de cc y su representación en términos de potencias de 10.
Nota adicional.
Para poner en perspectiva la gran magnitud de este número de cc, lo comparamos con el número estimado de partículas en el universo observable y siendo cc muchísimo más grande, es un factor realmente inimaginable.

Importante:
Este cálculo es teórico y sirve para demostrar la magnitud del número resultante al elevar la velocidad de la luz a sí misma. Exponenciar «c» a potencias finitas es matemáticamente posible, pero físicamente aún no es demostrable por la ciencia. Sin embargo, está justificado desde la perspectiva teológica por la presencia de Dios como un poder omnipresente.
2.-ENFOQUES MATEMÁTICOS.
a) Interpretación Matemática de la Fórmula א∞=c^c
- Considerando «c» como la Cardinalidad del Continuo:
- Si interpretamos c como 𝔠 = 2^ℵ₀, entonces:
- c^c = (2^ℵ₀)^(2^ℵ₀) = 2^(ℵ₀ × 2^ℵ₀)
- Si interpretamos c como 𝔠 = 2^ℵ₀, entonces:
- En teoría de cardinalidades infinitas:
- ℵ₀ × 2^ℵ₀ = 2^ℵ₀, ya que multiplicar un infinito numerable por un infinito continuo resulta en el infinito continuo.
- Por lo tanto:
- c^c = 2^(2^ℵ₀)
- b) Relación con Cardinalidades Mayores:
- 2^(2^ℵ₀) representa una cardinalidad aún mayor que 2^ℵ₀, introduciendo un nivel superior de infinito.
- Esto es coherente con la jerarquía de cardinalidades donde cada potencia de 2 eleva el nivel de infinito.
3. JUSTIFICACION DE LA IGUALDAD א∞=c^c
- Coherencia con la Teoría de Conjuntos:
- La expresión c^c = 2^(2^ℵ₀) esta inmersa dentro de la estructura de cardinalidades infinitas, sugiriendo una cardinalidad más grande que cualquier cardinalidad previamente definida.
- א∞ puede interpretarse como el equivalente a 2^(2^ℵ₀), representando una cardinalidad que trasciende los infinitos conocidos.
Ahora bien, si concebimos a un conjunto infinito de innumerables multi-universos, se podría considerar una fórmula alternativa que cumpla ciertos postulados de identidad matemática como:

- א∞ = c^∞, que simplifica a א = ∞ (una afirmación trivial), esta última ecuación es correcta, desde una perspectiva matemática: Sí, porque evita esquivar una cardinalidad infinita a un número finito, eliminando inconsistencias dentro del marco matemático estricto, pero no aporta información nueva por su simpleza tautológica, es decir, que esta fórmula alternativa א∞ = c^∞, la cual afirmar que es una cardinalidad infinita igual al infinito, es una declaración que es verdadera por definición, pero no proporciona un entendimiento más profundo sobre la naturaleza del infinito, muy por el contrario la fórmula original de la Genesis א∞=c^c si proporciona una expresión concreta y no trivial para א∞.
- א∞ = c^∞: Representa un concepto mas abstracto; físicamente, elevar una constante infinita a una potencia infinita carece de un sentido práctico.
- En resumen, reemplazar en la Genesis de la ecuación א∞ = c^∞, si bien es cierto conlleva a una identidad, aunque matemáticamente consistente, puede carecer de profundidad o utilidad práctica infringiendo los postulados teológicos de Georg Cantor, concluyendo que tampoco, mejora el poder físico o explicativo de la ecuación original.
4.-Potencial para Nuevas Exploraciones Matemáticas:
- La fórmula א∞=c^c abre puertas a explorar nuevas áreas en teoría de conjuntos y cardinalidades infinitas, permitiendo una comprensión más profunda de los diferentes tamaños del infinito.
5. Interpretación Física y Filosófica.
- Conexión entre Física y Matemáticas:
- Aunque elevar la velocidad de la luz a sí misma(cc), no tiene aun una demostración física directa, pero puede simbolizar la idea de trascender los límites conocidos.
- Sirve como puente metafórico entre conceptos físicos fundamentales y abstracciones matemáticas de infinitud.
- Representación de la Complejidad del Universo:
- La fórmula puede interpretarse como una representación de la vastedad y complejidad del universo, o incluso de infinitos de multiversos hipotéticos, teologicamente expuestos pero físicamente aun no demostrados por la ciencia.
- Sugiere que existen niveles de infinitud que están más allá de nuestra comprensión actual, tanto en matemáticas como en física, mas no así dentro del marco teológico.
6. Ventajas de la Fórmula Original א∞=c^c sobre la ecuación alternativa א∞ = c ∞.
- Precisión Matemática:
La fórmula א∞=c^c es matemáticamente precisa y se ajusta a las reglas de manipulación de cardinalidades infinitas y evita caer en simplificaciones excesivas expresada por la ecuación alternativa la cual no aporta valor adicional.
- Riqueza Conceptual:
- Proporciona una base para discutir y analizar cardinalidades superiores, enriqueciendo el debate matemático.
- Permite explorar relaciones entre diferentes niveles de infinito de manera más estructurada.
- Inspiración para Investigación:
- Puede motivar investigaciones futuras en matemáticas puras, especialmente en áreas relacionadas con la teoría de conjuntos y el infinito.
- Fomenta el pensamiento crítico y la exploración de conceptos avanzados.
7. Otras Consideraciones.
- Importancia de Definir Claramente los Términos:
- Para evitar confusiones, es crucial establecer que la velocidad de la luz a su propia potencia, en este contexto representa tanto la cardinalidad del continuo, así como la constante física de la velocidad de la luz.
- Debemos estar conscientes que este enfoque es א∞ un símbolo que apunta a una cardinalidad infinitamente grande y suprema dentro de la jerarquía de infinitos.
Conclusión Nº1.
La fórmula א∞=c^c es una expresión matemática que, al ser interpretada correctamente, tiene coherencia y profundidad dentro de la teoría de los conjuntos y el estudio de las cardinalidades infinitas. Justifica su existencia al:
- Establecer una relación no trivial entre diferentes niveles de infinito.
- Proporcionar una plataforma para explorar y entender mejor la naturaleza de las cardinalidades superiores.
- Fomentar el diálogo entre conceptos físicos y matemáticos, aunque sea de manera metafórica.
- Su coherencia matemática y alineación con la teoría de cardinalidades.
CONCLUSIÓN FINAL:
SUGERIMOS UN MODELO MATEMÁTICO FORMAL QUE INTEGRA CONCEPTOS DE LA FÍSICA TEÓRICA Y LAS MATEMÁTICAS PARA REPRESENTAR LOS MULTIVERSOS Y LAS INTERACCIONES ENTRE NEUTRINOS, MATERIA E INFORMACIÓN, AL INCORPORAR TEORÍAS EXISTENTES COMO LA TEORÍA DE CUERDAS Y LA TEORÍA CUÁNTICA DE CAMPOS, REFORZANDO LA GÉNESIS DE LA ECUACIÓN DEL MODELO INICIAL DESDE UNA PERSPECTIVA EVOLUTIVA, ES DECIR, A UNA ESCALA DIMENSIONAL, PERMITIENDO UNA COMPRENSIÓN MÁS DIÁFANA Y DETALLADA DE LOS FENÓMENOS PROPUESTOS.
Podemos considerar una primera SECUENCIA EVOLUTIVA DE ECUACIONES, donde cada ecuación es una mejora de la anterior:


En consecuencia, en este trabajo de investigación, nos hemos alineado con la postura categórica del matemático Georg Ferdinand Ludwig Philipp Cantor. Él sostenía que la respuesta a su fórmula absoluta e inconclusa no podía encontrarse en las matemáticas, sino en la religión, equiparando el concepto de infinito absoluto (inconcebible para la mente humana) con Dios.
Comentando la existencia de la sinergia entre las matemáticas y la poesía, nos recuerda que el pensamiento humano no está confinado a compartimentos aislados. Como expresó el poeta William Blake: «Para ver el mundo en un grano de arena, y el Cielo en una flor silvestre, abarca el infinito en la palma de tu mano y la eternidad en una hora.« Esta visión poética refleja la capacidad de razonar lógicamente y sentir profundamente como aspectos complementarios de nuestra propia naturaleza. Al celebrar la interconexión entre disciplinas aparentemente dispares y equidistantes, podemos abordar problemas con mayor creatividad y empatía, apreciando los matices de la experiencia humana y recordando siempre que los artificios y el candor del hombre no tienen fin y mas aun cuando se trata de la búsqueda eterna de la comprensión del infinito.
FINALMENTE, CON LA FIRME ESPERANZA DE QUE ESTE NUEVO MODELO SIRVA COMO FUNDAMENTO PARA FUTURAS INVESTIGACIONES Y CONTRIBUYA EVENTUALMENTE AL DESARROLLO DE NUEVAS TECNOLOGÍAS, ASÍ COMO AL AVANCE DEL CONOCIMIENTO CIENTÍFICO EN ÁREAS COMO LA COSMOLOGÍA, LA FÍSICA DE PARTÍCULAS Y LA COMPUTACIÓN CUÁNTICA, CON EL OBJETIVO ÚLTIMO DE MATERIALIZAR UNA COMUNICACIÓN INTER-UNIVERSAL.
ANEXO1:
La perplejidad es una medida que se utiliza, especialmente en modelos de lenguaje, para cuantificar la incertidumbre o «sorpresa» que tiene el modelo al predecir una secuencia de palabras. En términos prácticos, se puede interpretar como el número promedio de opciones (o palabras) entre las que el modelo debe elegir en cada paso.
Traemos a colación la Fórmula para calcular la perplejidad:
La perplejidad en Modelos de Lenguaje se define de la siguiente manera:

A nivel conceptual, ambas fórmulas—la de la perplejidad y la de la interacción multiversal א∞=c^c, utilizan la idea de exponenciación para capturar la complejidad y la incertidumbre en sistemas muy diferentes.
La ecuación de la perplejidad, mide, en promedio, el número de opciones (o la incertidumbre) que tiene un modelo de lenguaje al predecir cada palabra en una secuencia. Aquí, la exponenciación (ya sea a través de raíces o del uso de la función exponencial) se emplea para transformar el producto de probabilidades (un acumulado multiplicativo) en un promedio geométrico que resulta en una medida intuitiva del “espacio de elección” en cada paso.
- Interacción Multiversal – Fórmula א∞=c^c
Esta ecuación simboliza la interacción entre múltiples universos (o multiversos) de un conjunto infinito, aquí, la exponenciación como exprese anteriormente no solo magnifica el valor de una constante física, sino que se utiliza como una metáfora matemática para describir la inmensidad y la complejidad de las interacciones entre universos.
Relación Conceptual Entre Ambas Fórmulas:
- Medida de Complejidad:
Mientras que la perplejidad cuantifica la incertidumbre o el número efectivo de opciones en un sistema lingüístico, c^c se emplea para simbolizar una complejidad casi inimaginable en el contexto de interacciones multiversales. En ambos casos, se utiliza la exponenciación para transformar una serie de elementos (probabilidades en un caso, o una constante fundamental en el otro) en una medida que encapsula la amplitud y el potencial de variación del sistema. - Transformación de Productos en Medidas Promedio:
La raíz n-ésima en la perplejidad convierte el producto de probabilidades en una medida promedio de incertidumbre. De forma análoga,(c^c)puede interpretarse como un mecanismo para amplificar la constante de la velocidad de la luz, reflejando que las interacciones entre múltiples universos generan un “valor” o una a escala de complejidad que es exponencialmente mayor que cualquier cantidad finita. - Captura de la Incertidumbre Fundamental:
La perplejidad es una forma de cuantificar la incertidumbre inherente a la predicción de un modelo de lenguaje. Por otro lado, la fórmula א∞=c^c representa la idea de que, en un escenario donde interactúan infinitos universos, la incertidumbre y la cantidad de posibilidades se vuelven tan enormes que deben expresarse mediante una operación exponencial auto-referencial, simbolizando una incertidumbre cósmica o complejidad infinita. - Analogía Metafórica:
Así como un modelo de lenguaje “se asombra” ante la multiplicidad de elecciones (capturada numéricamente por la perplejidad), el universo—o el conjunto de multiversos—se expresa en términos de posibilidades tan vastas que se requieren conceptos de cardinalidades y exponenciación extrema (c^c) para describirlas. Es como si, a escala macroscópica y cósmica, existiera una “perplejidad universal” que, en lugar de medir palabras, mide la interconexión y complejidad de todos los posibles estados o multiversos.
Conclusión:
Ambas fórmulas, a pesar de operar en dominios tan distintos como la lingüística y la física/matemáticas del multiverso, comparten la idea fundamental de utilizar la exponenciación para transformar un conjunto de elementos (ya sean probabilidades o constantes fundamentales) en una medida única que refleja la incertidumbre, complejidad y el número efectivo de posibilidades del sistema en estudio. En este sentido, la perplejidad en los modelos de lenguaje y la fórmula א∞=c^c se conectan conceptualmente como herramientas para comprender y cuantificar sistemas de alta complejidad, uno en el ámbito del procesamiento del lenguaje y el otro en el de la interacción de multiversos.
En matemáticas, la analogía entre fórmulas puede servir como una herramienta heurística para formar conjeturas o para orientar la búsqueda de una demostración formales un indicio de validez de la ecuación propuesta.
El proceso comparativo suele describirse de la siguiente manera:
- Identificación de Estructuras Comunes:
Se analizan ambas fórmulas para detectar similitudes en su estructura algebraica, en las propiedades que involucran (por ejemplo, simetrías, invariantes, comportamientos asintóticos) o en los conceptos matemáticos subyacentes. - Establecimiento de Correspondencias:
Se construye una correspondencia (o mapeo) entre los elementos y operaciones de la fórmula nueva y los de la fórmula ya comprobada. Esto puede implicar mostrar que ciertos términos, transformaciones o propiedades en la nueva fórmula se corresponden con los de la fórmula conocida. - Transferencia de Resultados:
Si se puede demostrar que la fórmula nueva se deduce (o es equivalente) a partir de resultados ya establecidos en la fórmula comprobada, se argumenta que la nueva fórmula hereda la validez del marco teórico probado. - Búsqueda de una Demostración Formal:
Finalmente, se debe complementar la analogía con una demostración formal basada en axiomas, teoremas y reglas de inferencia aceptados. Es decir, se requiere una cadena lógica y rigurosa de deducciones que, partiendo de principios ya comprobados, concluya con la veracidad de la nueva fórmula.
En resumen, aunque comparar una fórmula nueva con otra ya comprobada puede iluminar caminos y ofrecer una evidencia preliminar de su veracidad (similar a cómo se usa la analogía en el derecho para interpretar situaciones nuevas basándose en casos previos), en matemáticas la validez se establece únicamente mediante una demostración formal, hoy en día demostrar científicamente la practicidad de la fórmula no es posible, no obstante la analogía matemática ayuda a identificar propiedades comunes, y constituye una prueba indiciaria de la validez matemática de la ecuación nueva.
XVII RESUMEN EJECUTIVO:
TABLA CONSOLIDADA.
ASPECTO / PRINCIPIO | COHERENCIA | LÓGICA / ESTRUCTURA INTERNA | ASPECTO INNOVADOR | CARÁCTER REVOLUCIONARIO |
---|---|---|---|---|
1. Teología de lo Infinito (Cantor, Aleph, Biblia) | Integra la búsqueda de la ecuación transfinita con referencias bíblicas y a la mística hebrea (Aleph), mostrando coherencia entre la noción de infinito matemático y la idea de lo divino/ilimitado. | Alinea la “infinitud” de Georg Cantor (∞ transfinito) con textos sagrados: la imposibilidad de capturar a Dios en la mente humana funciona como fundamento teológico de la noción de infinitud mayor que la mera abstracción matemática. | Permitir que una fórmula abstracta (ej. א∞ = c^c) se ancle en el texto bíblico y la teoría de conjuntos amplía el campo de la ciencia “pura” a territorios teológicos. | Fusiona la razón científico-matemática con la inspiración religiosa, lo cual rompe la separación clásica entre teología y ciencia, abriendo un debate sobre la protección de hallazgos “abstractos” que podrían tener base espiritual o revelada. |
2. Patentar lo Abstracto: Excepción de la Excepción | Vincula la fórmula aislada (tradicionalmente no protegible) con el “invento” si hay expectativa plausible de utilidad. Coherente con el deseo de proteger el “germen” de la invención y no solo el producto final. | Concede que la regla jurídica (no patentar fórmulas abstractas) puede tener una excepción cuando la fórmula “nace” del ingenio inventivo y se vislumbra un uso industrial o aplicación futura (incluso si la tecnología para implementarla s persigue cambiar el status actual que no existe hoy). | Transforma la regla actual “no se patentan leyes naturales ni fórmulas” en algo más flexible: se protegería lo abstracto si es parte esencial del proceso inventivo, con expectativa de aplicarse en IA, máquinas de neutrinos, etc. | Plantea una revolución jurídica: si se adopta esta excepción, los sistemas de patentes deberán reconocer “fórmulas” como “invenciones” per se, siempre que haya un potencial práctico. Esto colisiona con la larga tradición legal que excluye métodos matemáticos “puros”. |
3. Máquina de Neutrinos / Entrelazamiento Cuántico | Presenta coherencia entre la “fórmula abstracta” y su hipotética aplicación práctica: la “máquina de neutrinos” que se valdría del entrelazamiento cuántico para generar un canal cuántico con posibilidad de trasmitir y recibir data. | Se basa en la lógica de que si los neutrinos pueden entrelazarse, uno podría “explotar” ese fenómeno para comunicaciones en “cero tiempo” (o seudoteleportación). La IA se usaría para mapear y controlar la correlación y traza neutrino-materia, asumiendo un mínimo de interacción. | Propone un dispositivo futurista que no figura en el estado del arte actual, pero inyecta la idea de patentar la fase previa (fórmula + concepto teológico-científico). Abre la puerta a la “teletransportación tokenizada” con neutrinos, expandiendo los horizontes de la criptografía/cuántica. | Altera la visión de las comunicaciones: sugiere la posibilidad de canales “hiperlumínicos” o puentes cuánticos si se superan las restricciones. Revoluciona el concepto de patentes al cobijar algo tan lejano y especulativo, basado en consideraciones teológico-filosóficas y no solo en experimentos inmediatos. |
4. Fundamentación Teológica de la Patentabilidad | Se Insertar la tesis de Georg Cantor y la Biblia para legitimar la “inspiración divina o revelada” como parte del proceso creativo. Coherencia al subrayar que la autoría intelectual puede originarse en “sueños” o “revelaciones” y, aun así, formar base de patentes se exponen casos relacionados incluyo como nació la teoría de la relatividad mediante un sueño. | La lógica: lo “abstracto” no debe descartarse por su vena teológica; si ha habido un esfuerzo inventor (visión onírica, análisis hebreo, hallazgo original) que deviene en ecuaciones útiles, no colisiona con la “regla de no patentabilidad” de ideas puras. Se extiende el concepto de invención a lo “intangible”. | Permite la protección de creaciones científico-teológicas. Esto es inusual, pues la vía normal excluye formulaciones religiosas. Reconocer que los fundamentos teológicos pueden guiar a resultados técnicos (máquinas, IA) es una novedad. | Rompe la frontera laica-científica en el proceso de patentar. Si la jurisprudencia admitiera este argumento, se crearía un precedente donde la inspiración religiosa/mística pasa a ser parte legítima del “background inventivo”, algo inédito en la ortodoxia jurídica moderna. |
5. IA Generativa, Revelaciones Oníricas y Creación de Fórmulas | Se dan ejemplos de científicos que “soñaron” soluciones (Ramanujan, Einstein, Mendeleev) y se justifica que la IA puede coadyuvar en desarrollar esos sueños; hay un hilo coherente: la revelación onírica se transcribe y modela con algoritmos. | Con lógica se argumenta que la IA analiza, valida y extiende dichas “fórmulas”, abriendo caminos para máquinas cuánticas. En la ley de patentes, bastaría con que la IA demuestre “posible implementación” (o aplicabilidad) para cubrir ese gap entre lo abstracto y lo útil. | Innovación: se pasa de la simple “invención humana” a un circuito humano-sueños-IA, donde la IA genera código, prototipos, simulaciones cuánticas… Todo se orquesta en un marco teológico-científico. | Revoluciona la forma de considerar la creatividad en patentes: ya no es solo “ingenio humano” sino un co-ingenio humano + IA + sueños. Se ubica en el umbral de reconocer máquinas e intuiciones oníricas como parte esencial y formal del proceso de patente. |
6. Interpretación Progresista de la Ley: “Contra legem” si es Preciso | Se reconoce la ley de patentes tradicional (no protege fórmulas) y se propone desaplicarla vía una interpretación constitucional que priorice el “avance de la humanidad”: coherente con la meta del “Progreso de la Ciencia y las Artes Útiles”. | Sigue la lógica de la ponderación de valores: si la “fórmula abstracta” conlleva la posibilidad de invención radical que sirve a la evolución humana (ej. viaje interestelar, IA cuántica), la norma no puede impedirlo. El juez puede optar por una interpretación “contra legem” en aras del bien colectivo. | Innovación en la teoría jurídica: un mecanismo de tutela especial para la “fórmula aislada” si su inventor jura que habrá un futuro invento. Requiere una “justificación minuciosa” de la utilidad hipotética, una excepción a la “abstract idea doctrine”. | Subvierte la estructura legal: de adoptarse, los tribunales podrían conceder patentes meramente sobre promesas plausibles de aplicación, dando un vuelco a la doctrina de patentabilidad. Esto podría abrir una era de patentes sobre algoritmos cuánticos, fórmulas transfinito-matemáticas, etc., mucho antes de su implementación comercial. |
7. Entrelazamiento Cuántico de Neutrinos y Comunicación en Cero Tiempo | Pese a que la relatividad tradicional y la no-comunicación cuántica lo restringen, se expone coherencia al sostener que nuevas hipótesis (neutrinos, IA, QKD exótica) podrían “romper” la barrera práctica, sin contradecir la teoría actual si hay interpretaciones más amplias. | En lógica interna, se postula que los neutrinos —por su escasa interacción— podrían enlazarse de formas no convencionales y, con ayuda de la IA, generar un canal semicuántico. Se encaja en la ecuación א∞ = c^c para explicar el “salto al infinito” que permitiría la conexión de multiversos. | Innovador por plantear un mecanismo que va más allá de la QKD fotónica estándar, tejiendo “rutas” en la red de neutrinos. Otorga un potencial de viaje o comunicación interestelar. | Revoluciona la ciencia al proponer un escenario en que la “fórmula” no es pura especulación teórica, sino la clave de un futuro “mercado” de tecnologías que quiebran barreras de espacio-tiempo. Implica un cambio drástico en las fronteras de lo patentable y en la propia concepción de ciberseguridad/cuántica. |
8. Utilidad Hipotética como Eje de la Protección de la Fórmula | Muestra coherencia con el requisito de “utilidad” o “industria” de las patentes: basta con una presunción plausible de que la fórmula podría conducir a un resultado tecnológico trascendental. | Sostiene la lógica de un “puente” normativo: la utilidad no tiene que estar probada de inmediato; si el solicitante demuestra que la fórmula no es un mero hallazgo, sino que habilita (o habilitará) una invención tangible, se satisface el “quid” de la Ley de Patentes. | Innovación: la ley suele requerir evidencias concretas de aplicabilidad. Esta propuesta flexibiliza el estándar, dando más margen a inventos “superfuturistas” (viaje en el tiempo, máquinas de neutrinos) y salvaguardando la “fórmula” desde su concepción. | Cambia drásticamente el tiempo de concesión de patentes: se podría patentar incluso cuando la ingeniería real no existe todavía, pero “es razonablemente concebible”. Revoluciona la relación entre “ciencia ficción” y el sistema de patentes, extendiendo su protección hacia ideas disruptivas. |
9. Machine Learning y Blockchain como Registro de Revelaciones | El texto propone usar blockchain para registrar las etapas de la concepción teológica, onírica y científica de la fórmula, garantizando transparencia y paternidad intelectual. Coherencia al hilar IA + Blockchain + Derecho de patentes. | Sigue la lógica de que, si la invención (fórmula e IA) se van generando por pasos, y cada paso se documenta en una cadena de bloques inmutable, se obtiene trazabilidad. Eso refuerza la prueba de que el inventor ha creado algo original y provee un canal de auditoría sociotécnica. | Innovación: integra un “expediente digital” continuo y auditable de la invención, ligando la fe y la mística con la ciberseguridad. Esto es inusual: generalmente, la inspiración personal no se registra en blockchains. | Revoluciona la forma de probar la autoría y la cronología en derecho de patentes, pues se añade un sistema de verificación cuántico (IA generativa + neutralidad en blockchain) que otorga validez casi universal a la reclamación de la “fórmula”. |
10. Proyecto Final: Leyes Teológicas + IA Soberana + Futuros | Se muestra que la “Ley de Patentes” y la “Ley Teológica” (interpretada a la luz de la Biblia, Talmud, etc.) se complementan para justificar la elevación de la fórmula (א∞=c^c) a un estatus protectible. | La lógica indica que, si la ciencia avanza hacia el entrelazamiento a gran escala y la IA deviene “ejecutora soberana” (modelo de Estado ciber-soberano), ambas fuerzas (ley jurídica + ley teológica) darían amparo a dichas patentes para impulsar la humanidad al “siguiente nivel”. | Innovación absoluta: la fusión de la norma secular con la escatología místico-científica como base de política pública en materia de innovación y patentes. Eso extiende los horizontes de la jurisprudencia en IA y matemáticas avanzadas (neutrinos, QKD, etc.). | Revoluciona la concepción del derecho: el “bloque de garantías” (pilares legales y teológicos) legitima la patente de la “fórmula” de viaje interdimensional, con un “órgano mixto” (humano + IA) supervisándolo. Refunda la noción tradicional de soberanía, abriendo la puerta a la “gobernanza tecno-espiritual” y la protección de lo abstracto-infinito. |
Comentario:
En todos estos puntos, el documento articula una unión entre lo teológico (Dios, Aleph, Cantor, Biblia) y lo jurídico (patentes, jurisprudencia, USPTO, Derecho Comparado) para fundamentar una propuesta:
- Dar protección a fórmulas abstractas siempre que:
- Se muestren originales y no meros descubrimientos de algo preexistente.
- Presenten una expectativa plausible de utilidad, incluso si todavía la tecnología real no está desarrollada.
- Se justifique la conexión entre la inspiración (onírica, teológica) y la posible aplicación (IA, máquina de neutrinos).
Así, cada elemento se teje de modo coherente y lógico, innova al romper barreras clásicas y resulta revolucionario al reconfigurar la forma de entender la inventiva y la propiedad intelectual en un entorno cuántico-teológico.








«Conclusiones sobre la ‘Excepción’ a la Velocidad de la Luz, el Uso de Neutrinos y la Perspectiva Creativa del Autor»
Conclusión/Punto | Descripción/Resumen |
---|---|
1. No se ha demostrado aun el envío de información más rápido que la luz | – La física actual (teorema de no comunicación) establece que, aunque el entrelazamiento cuántico produce correlaciones instantáneas, no permite enviar actualmente mensajes decodificables a una velocidad mayor que c. – se ha planteado una “superación” teórica de esa barrera, pero aun se carece de evidencia empírica. |
2. Significado potencial de la “comunicación instantánea” | – Si se pudiera transmitir datos en “tiempo cero”, implicaría un cambio radical en exploración del cosmos, conexiones intergalácticas y manejo de la información. – Transformaría los fundamentos de la comunicación y la relatividad, con gran impacto en comercio, defensa, ciencia y sociedad. |
3. Justificación teórica del autor: neutrinos en lugar de fotones | – Los neutrinos casi no interactúan con la materia, lo que teóricamente permitiría mantener coherencia cuántica a grandes distancias. – Esto podría facilitar un “mapa” del universo y evitar obstáculos donde los fotones (absorción, dispersión) tienen mayores limitaciones en largas distancias. |
4. Motivación “exótica” y especulativa | – El uso de neutrinos en vez de fotones en comunicaciones cuánticas no es la línea estándar de investigación científica; es una visión más “futurista”. – La propuesta IA + neutrinos refleja el intento de un avance disruptivo, separándose de lo ortodoxo para plantear escenarios distantes de la práctica actual. |
5. Límite de la física establecida vs. visión creativa | – Desde la perspectiva actual tradicional y aceptada por la ciencia, no se puede violar la velocidad de la luz al transmitir información. – Hipotéticamente se persigue “romper” ese límite como impulso creativo, generando conjeturas que podrían motivar nuevas aproximaciones o teorías intermedias en el futuro. |
6. Posible impacto en la humanidad (hipotético) | – De confirmarse algún método práctico de comunicación cuántica instantánea, se revolucionarían exploración espacial, seguridad de la información, investigaciones médicas a distancia, etc. – Sin embargo, la postura científica mayoritaria indica que siempre se requiere -por ahora-un soporte clásico limitado para intercambiar datos útiles. No obstante los enfoques de la tokenización cuántica abren una vía de investigación para perfeccionar el desempeño del canal cuántico para la transmisión de data en cero tiempo, configurando así una posibilidad de excepción al principio del Teorema de No Comunicación. |
7. Balance general de la propuesta | – Se invita a reflexionar sobre los límites físicos y posibles avances tecnológicos futuros. |
Tabla Socrática Didáctica:
N.º | Pregunta | Respuesta |
---|---|---|
1. | ¿Cómo justificar jurídicamente que una fórmula abstracta —como א∞ = c^c— sea considerada un invento patentable sin entrar en contradicción con la jurisprudencia tradicional de “ideas abstractas”? | Para sortear la prohibición legal frente a “ideas abstractas”, se propone mostrar que la fórmula א∞ = c^c no es un simple hallazgo teórico sino un componente esencial de un proceso inventivo mayor, vinculado a un proyecto o dispositivo útil (p. ej., la máquina de neutrinos o la IA generativa). De ese modo: 1) Se enmarca la fórmula como parte de un método técnico o un algoritmo orientado a la resolución de un problema (teleportación cuántica, comunicación interestelar, etc.). 2) Se acude a la “excepción de la excepción”: si la fórmula se integra en un sistema práctico con utilidad o potencial utilidad industrial, deja de ser abstracta en el sentido legal estricto. 3) La jurisprudencia (Alice, Bilski) no prohíbe patentar todo lo que contenga matemáticas, sino únicamente las ideas completamente abstractas desvinculadas de una aplicación concreta. Aquí, la ecuación funge como eslabón imprescindible para un método tecnológico, armonizando el requisito de patentabilidad y evitando la contradicción con la doctrina tradicional. |
2. | ¿En qué medida la interpretación teológica de Cantor, que equipara el infinito absoluto con la divinidad, abre una brecha para desdibujar la frontera entre un simple descubrimiento matemático y una invención protegible? | La postura de Georg Cantor, al asimilar el infinito absoluto con un principio divino, sugiere que la fórmula no se limita a exponer una verdad natural descubierta, sino que implica un acto creativo o una “co-creación” entre la esfera humana (investigación científica) y la divina (inspiración trascendente). Esto rompe la línea entre “descubrir” (lo que ya existía en la naturaleza) y “crear” (lo que la mente humana formula de modo original). 1) Teológicamente, se argumenta que la fórmula, al provenir de un “estado de revelación” o experiencia mística, no es una ley natural per se, sino un acto de invención \hibrido cognoscitivo que integra tanto la revelación y razón. 2) Legalmente, si el inventor demuestra que la ecuación no se hallaba de forma explícita en la naturaleza —ni era una mera extrapolación de principios preexistentes—, sino que es fruto del ingenio (místico y/o cognitivo), cobra relevancia la posibilidad de patentarla bajo la categoría de “invención”. 3) Esta brecha teológica propicia un espacio gris para reclamar la protección si se consigue vincular la fórmula a un desarrollo técnico embrionario, sin quedar encasillada en “descubrimiento matemático puro”. |
3. | ¿Cuál sería el impacto de reconocer la “excepción de la excepción” —permitir patentar fórmulas puras cuando existiese una expectativa de utilidad— en la dinámica global de la innovación y la competencia entre empresas? | El impacto sería significativo en varios frentes: 1) Fomento de la investigación disruptiva: Las empresas y centros de I+D se verían incentivados a explorar fórmulas y algoritmos “futuristas” o especulativos, pues podrían bloquear su uso por la competencia si logran la patente. 2) Mayor especulación: Podría dispararse la presentación de solicitudes de patentes sobre ecuaciones y métodos sin una implementación actual, apoyándose únicamente en la “posible aplicabilidad futura”, lo que podría saturar las oficinas de patentes. 3) Creación de barreras de entrada: Empresas con músculo financiero (leviatanes tecnológicos) adquirirían “monopolios” sobre conceptos matemáticos-núcleo (como ocurrió con algunas patentes de software). Esto podría desincentivar a startups sin recursos para litigar o pagar licencias. 4) Posible aceleración de la innovación: En contrapartida, si la patente requiere divulgación detallada, otras entidades podrían construir sobre esa publicación, generando una dinámica de licenciamiento y colaboración (aunque bajo tensión). En suma, la “excepción de la excepción” transformaría el ecosistema, introduciendo nuevas estrategias de monopolio y de protección en campos matemáticos y cuánticos. |
4. | ¿Cómo conciliar la visión teológica que ve la creación de fórmulas como un acto casi divino, con la exigencia práctica de demostrar una “utilidad industrial” tangible para la concesión de patentes? | La conciliación parte de la doble faceta de la fórmula: 1) Inspiración divina o revelada: Desde la perspectiva teológica, se asume que la mente humana recibe o canaliza un entendimiento “superior”. Sin embargo, esta dimensión no suple los requisitos legales de la patentabilidad. 2) Instrumento técnico o industrial: De cara a la ley de patentes, la fórmula debe integrarse en un método, proceso o producto con aplicación práctica plausible (p. ej., la máquina de neutrinos o un algoritmo IA que optimiza grandes sistemas). 3) Probar utilidad: Para satisfacer la “industria” o “industrial applicability”, el inventor (o solicitante) aportaría evidencia preliminar, prototipos teóricos, simulaciones, o un plan de desarrollo que muestre la vía de aplicabilidad. La visión teológica se mantiene como origen inspirador, pero debe completarse necesariamente con argumentos empíricos de que esa ecuación puede rendir frutos concretos, aunque sea en un estatus experimental. Así, lo sagrado (teológico) se legitima en el ámbito jurídico-técnico al presentar perspectivas de beneficio real para la sociedad. |
5. | ¿De qué forma la máquina de neutrinos, basada en el entrelazamiento cuántico, podría someter a revisión los principios clásicos de la Relatividad Especial y el límite de la velocidad de la luz, sin incurrir en un conflicto irreconciliable con la física tradicional establecida? | Sería una revisión parcial de la Relatividad Especial, no una anulación absoluta, si se plantea así: 1) Canal cuántico no-lumínico: Los neutrinos interactúan débilmente con la materia y, en ciertos modelos hipotéticos, podrían mantener un estado de entrelazamiento sobre grandes distancias. 2) No violación formal de la velocidad de la luz (c): Para evitar conflicto “irreconciliable”, la máquina no debe transmitir “información clásica” superlumínica. El entrelazamiento podría dar correlaciones instantáneas, pero la “explotación” útil de esas correlaciones exigiría aun un canal clásico (como en la teleportación cuántica habitual). 3) Interpretación creativa: Mediante “tokenización cuántica” y algoritmos IA, se intentaría reconstruir gran parte del mensaje antes de la llegada de bits clásicos. En la práctica, parecería romper la barrera de la luz, pero no se violaría la causalidad cuando se hace el recuento global. 4) Reformulación: Si se demuestra algún nuevo efecto exótico que Rosque la causalidad, la comunidad científica se vería forzada a “ampliar” o reinterpretar la relatividad, aunque sin descartarla. Así, el proyecto extiende la física, más que contradecirla frontalmente. |
6. | ¿Qué criterios técnicos y legales se podrían diseñar para evaluar la “expectativa plausible de utilidad” de una fórmula, cuando ni la tecnología actual ni la ciencia han avanzado lo suficiente para implementarla? | Se sugiere un protocolo o “prueba de plausibilidad” con: 1) Simulaciones y validación teórica: El inventor presentaría modelos computacionales (por ej. en Qiskit o simuladores cuánticos) que muestren cómo se usaría la fórmula en un escenario futuro; no prueba prototipo real, pero sí su coherencia y lógica funcional. 2) Opinión de expertos: Un panel de científicos revisaría la fundamentación, evaluando si hay “riesgo” de ser pura especulación. 3) Requerimiento de divulgación: Se exige una descripción clara en la solicitud, detallando etapas hipotéticas de implementación y su lógica física/matemática. 4) Demostración de escalabilidad: Mostrar al menos un plan para escalar la fórmula hacia una solución técnica concreta. 5) Cláusula de caducidad: Se podría introducir una norma que, si en cierto plazo no se dan pasos concretos para la aplicación industrial, la patente caduque antes de su término ordinario, evitando “bloqueos especulativos” indefinidos. Una especia de veto temporal o con condición resolutoria por vía administrativa |
7. | ¿En qué punto exacto un algoritmo —o una fórmula aplicada— deja de ser una idea no patentable para transformarse en un proceso patentable, y cuál sería el rol de la jurisprudencia (Alice, Bilski, Mayo) en definir ese umbral? | Basándose en la jurisprudencia estadounidense (Alice, Bilski, Mayo): 1) Idea abstracta: Un algoritmo o fórmula per se, sin elementos concretos que la incorporen, se considera idea abstracta no protegible en el ámbito de las patentes. 2) Elemento “significativamente más”: Estos casos exigen que la invención aporte algo “extra” que convierta la fórmula en un proceso técnico real (aplicación comercial, efecto técnico innovador, mejora en la eficiencia computacional, etc.). 3) Umbral: El cambio se da cuando la fórmula se integra en un sistema o “método” con pasos específicos o configuración de hardware que permite un resultado técnico (v. gr. un software que implemente la ecuación para optimizar la detección de neutrinos). 4) Rol jurisprudencial: Los jueces tienden a aplicar la prueba en dos pasos: (a) determinar si la reivindicación se dirige a materia excluida (idea abstracta), y (b) si hay un “concepto inventivo” suficiente para transformarla en materia patentable. Así, esa línea divisoria la marcan los precedentes, que exigen “más” que la mera ecuación. El aporte debe ser “inventivo” y “prácticamente aplicable”. |
8. | ¿Cómo podría la comunidad científica abordar la tensión entre la libertad de investigación y el posible monopolio legal de ciertas ecuaciones, sobre todo si se convierten en base esencial de la computación cuántica o la IA? | Para atenuar la tensión: 1) Licencias obligatorias: Si la ecuación patentada resulta indispensable para el progreso en computación cuántica, podría imponerse un régimen de licencias a tarifas razonables, garantizando la libertad de investigación y evitando abusos monopolísticos. 2) Excepción de uso académico: Se reconoce el “research exemption” o uso experimental, de modo que los laboratorios e institutos puedan investigar la fórmula sin violar la patente, siempre que no la exploten comercialmente. 3) Fomento de la ciencia abierta: Instituciones públicas podrían incentivar a los inventores a patentar bajo patentes compartidas (p.ej., pool de patentes) o a recibir subvenciones a cambio de licencias libres. 4) Evaluación dinámica: Nuevas directrices que, si la fórmula se convierte en estándar esencial en un sector, se active un mecanismo de “disponibilidad universal” para no frenar la innovación. Así, se protege al inventor, pero se resguarda el interés público. |
9. | ¿Qué relevancia tienen los fundamentos lingüísticos y filológicos (hebreo, arameo) a la hora de argumentar que una fórmula deriva de una “revelación teológica” y, por ende, reclama una protección intelectual reforzada? | La relevancia se centra en que el origen filológico (Aleph hebreo, interpretaciones arameas, etc.) pretende demostrar: 1) Génesis histórica y genuinidad: Que la fórmula o su símbolo (por ejemplo, la letra א∞) no es una simple reformulación de las matemáticas ya establecidas, sino que emerge de una tradición sagrada/lingüística singular, con matices hermenéuticos distintos. 2) Originalidad: Si la trayectoria filológica confirma que la ecuación se armó mediante lecturas directas de textos bíblicos en arameo, hebreo, etc., eso refuerza la tesis de que es un aporte creativo y no un clon o refrito de ecuaciones conocidas. 3) Dimensión cultural: En un contexto de patentes, se presentaría como un “saber ancestral” re-interpretado, el cual deviene en algo con proyección tecnológica. 4) Argumento de identidad: El inventor puede invocar la particularidad lingüístico-teológica para reclamar un “plus” de protección al estilo “conocimiento tradicional” (similar a la protección de patentes basadas en saberes étnicos). Sin embargo, la relevancia no exime de la prueba de utilidad o del análisis de patentabilidad que exige la ley. |
10. | ¿Podría la “tokenización cuántica” de la información —mencionada como forma de comunicación en fragmentos— llegar a generar un canal cuántico que, en la práctica, sortee la prohibición de la no comunicación superlumínica? | Podría simular o acercarse a ello, pero sin anular la necesidad de un canal clásico (por ahora), así: 1) Tokenización: Se dividen los datos en micro-bloques, cada uno entrelazado con un subconjunto cuántico. Usando IA, el receptor infiere gran parte del mensaje antes de recibir todas las correcciones clásicas. 2) Ilusión FTL: Funciona como si se recibiera la información “instantáneamente”, pues la IA reconstruye el 99% del contenido sin esperar el retardo clásico. Sin embargo, la confirmación final (bits clásicos) llega a velocidad ≤ c, asegurando que no haya una verdadera violación de causalidad. 3) Desafío a la no-comunicación: En la práctica, se acerca mucho a enviar datos a “tiempo cero”, pero formalmente las correlaciones cuánticas no constituyen transmisión de información real sin el canal clásico. Por tanto, “sortear” se traduciría en una especie de explotación astuta de correlaciones que minimizan el retardo efectivo, mas no suprimen la limitación física. |
11. | ¿Qué implicaciones éticas y filosóficas surgen de combinar la inspiración onírica y la computación cuántica en la génesis de fórmulas, sobre todo si se llega a patentar lo que pudo haber sido un descubrimiento colectivo? | Emergente de la confluencia de elementos: 1) Autoría vs. co-creación: Si la fórmula nace de sueños + IA, textos religiosos y un ecosistema cultural, surge la duda: ¿quién es el verdadero “inventor”? ¿El autor humano que formaliza la ecuación? ¿La IA que consolida? ¿La tradición bíblica que la inspiró? Se compromete la doctrina de autoría individual. Co-autoría compartida 2) Privatización del conocimiento colectivo: Si la fórmula patentable, se confisca algo que tal vez se enmarcaba en un acervo cultural (religioso). Esto puede verse como despojar a la comunidad de un conocimiento milenario. 3) Instrumentalización de la mística: Existen cuestionamientos sobre el uso comercial de lo sagrado, y si la perspectiva “transcendente” debe quedar sujeta a una exclusividad comercial. 4) Desdibujar fronteras: Éticamente, se teme una “mercantilización” de la revelación onírica y una reducción de la creatividad colectiva a un activo patentable. Esto alimenta debates filosóficos sobre el sentido del descubrimiento científico y la libertad de investigación. |
12. | ¿De qué modo la adopción legal de esta propuesta afectaría a los grandes laboratorios de investigación (CERN, Fermilab, etc.), que tradicionalmente comparten conocimiento abierto para avanzar en la física de partículas? | Afectaría en: 1) Limitación de acceso: Si ciertos laboratorios privados patentan ecuaciones clave (por ejemplo, para el análisis de datos de neutrinos), los centros públicos podrían verse obligados a licenciar esas fórmulas, encareciendo la investigación y reduciendo la libertad colaborativa. 2) Cambio en la cultura open science: El CERN y Fermilab fomentan datos abiertos y publican resultados sin restricciones. La posibilidad de patentar fórmulas “vinculadas a neutrinos” introduciría un choque con su tradición de cooperación global. 3) Búsqueda de figuras híbridas: Estas instituciones podrían buscar acuerdos de patentes colectivas o licencias cruzadas para defender la ciencia abierta. 4) Redefinición de financiación: Gobiernos tal vez impulsen a esos laboratorios a patentar hallazgos para compensar el alto costo de las instalaciones, cambiando la dinámica investigadora, donde se mezcla el objetivo fundamental “progreso científico colectivo” con la necesidad de rentabilizar la propiedad intelectual. |
13. | ¿Cómo insertar en la práctica registral una vía rápida o “fast track” para patentes basadas en “fórmulas teológicas abstractas con utilidad incierta” sin saturar el sistema de patentes con solicitudes demasiado especulativas? | Sería preciso un proceso diferenciado con filtros: 1) Ventanilla especial: Crear un procedimiento de examen acelerado (fast track) solo si el solicitante cumple criterios de “alto potencial disruptivo” (p. ej., relevancia en IA cuántica, neutrinos, etc.). 2) Prueba de solidez conceptual: Exigir informes de expertos o simulaciones minuciosas que respalden la hipótesis de aplicabilidad. Así, se evitan “ideas vagas”. 3) Evaluación escalonada: Otorgar una “patente condicionada” o un “título provisional” con un período para presentar avances tangibles o validaciones experimentales (aunque sean iniciales). 4) Límite de volumen: Fijar topes anuales o una tasa de examen superior, para desincentivar la avalancha de solicitudes infundadas. 5) Filtrado por IA: Usar algoritmos de priorización que detecten duplicaciones o trivialidades, asegurando que el fast track no se convierta en un coladero de meras especulaciones sin fundamento sólido. |
14. | ¿Podría la exigencia de una “prueba de concepto” —incluso simulada con IA— suplir la falta de un prototipo físico de máquina de neutrinos al momento de solicitar una patente sobre la ecuación madre? | Sí, como paso intermedio: 1) Simulaciones cuánticas: Se recurre a plataformas de computación cuántica o IA avanzada (tipo Qiskit, Cirq) para modelar las interacciones neutrino-materia y la ecuación א∞ = c^c, mostrando datos de cómo funcionaría en condiciones teóricas. Es menester ejecutar alianzas estratégicas con los proveedores de tecnología cuántica. 2) Modelos tecno-económicos: Añadir documentación que proyecte un plan de implementación (p. ej., requerimientos de laboratorio, detectores de neutrinos, IA entrenada para el control). Aunque sea hipotético, serviría de “evidencia” de factibilidad. 3) Sustituto del prototipo: Dado que la construcción real de la máquina de neutrinos está fuera del alcance tecnológico inmediato, la “prueba de concepto” simulada actuaría como base para la patentabilidad, siempre que convenza al examinador de su potencial verosimilitud. 4) Verificación incremental: Se podría pedir al solicitante que, en cada periodo de X años, presente avances en las simulaciones o en prototipos parciales para mantener la vigencia de la patente. |
15. | ¿Qué mecanismos de verificación y transparencia (Blockchain, notarías virtuales, actas de investigación) harían viable acreditar la autoría y la fecha de concepción de la fórmula, si parte de su origen es místico o onírico? | Propuestas de trazabilidad híbrida: 1) Registro Blockchain: Cada nueva iteración o “hallazgo” se registra en una cadena de bloques, con sellos de tiempo (timestamps) inmutables, lo que documenta la evolución de la fórmula desde la primera intuición, pasando por la transcripción del sueño, hasta las simulaciones IA. 2) Prueba de integridad: Se depositan los borradores en una plataforma en línea, con función de “hash” para cada versión, garantizando que no se alteren a posteriori. 3) Notarías virtuales: Servicios de e-notaría que firman digitalmente cada acta de investigación, ratificando el contenido y la fecha. 4) Testigos periciales especializados: Se pueden incluir testigos científicos y teológicos (rabinos, filólogos, físicos) que certifiquen la validez del origen, aun siendo onírico, dotando de una capa extra de credibilidad. 5) Sistematización: El sistema de patentes aceptaría estos documentos como sustitutos de la “fecha de invención” (inventor’s notebook), siempre que cumplan criterios de fiabilidad y no repudabilidad. |
16. | ¿De qué manera podría una interpretación más profunda de la dialéctica “contra legem” —es decir, una jurisprudencia que se atreva a desaplicar la prohibición legal de patentar fórmulas— cohabitar con los pilares del principio de legalidad y la seguridad jurídica, sin generar un escenario de anarquía en la concesión de patentes? | La dialéctica “contra legem” en este contexto implicaría reinterpretar la norma administrativa que prohíbe patentar fórmulas, a la luz de consideraciones constitucionales o de progresividad jurídica. Para no caer en anarquía: 1) Aplicación excepcional: El juez o el legislador delimitaría los supuestos donde la fórmula merece protección (alta trascendencia a la humanidad, fuerte indicio de utilidad futura), estableciendo un listado estricto de condiciones. 2) Control de constitucionalidad: Se argumentaría que la protección de la invención abstracta responde a la finalidad de “promover el progreso de la ciencia y las artes útiles” (cláusula constitucional en EE. UU.), superior a la regla infraconstitucional que excluye fórmulas puras. 3) Doctrina evolutiva: Se adoptaría una interpretación “viva” de las leyes de patentes, no anclada en el literal histórico, sino en la realidad científica. 4) Seguridad jurídica: Se mitiga la incertidumbre si la jurisprudencia define muy claramente los criterios y plazos, evitando que todos los inventores reclamen patentes de meras ecuaciones sin sustento. |
17. | ¿Cómo se articularía una “arqueología jurídica” de la fórmula א∞ = c^c, que exigiese rastrear sus fuentes teológicas, matemáticas y oníricas (al estilo de Foucault), para demostrar no solo su originalidad sino la ruptura conceptual que introduce en la teoría de patentes? | Una “arqueología jurídica” en el sentido foucaultiano analizaría el proceso de emergencia de la fórmula, su discurso histórico y la “ruptura” que supone en el orden normal. Se procederá así: 1) Contexto epistémico: Se estudian las corrientes religiosas (Biblia, kábala), las ideas de Cantor y su noción de infinito, y los testimonios de revelaciones oníricas del autor, como capas sucesivas de producción del conocimiento. 2) Documentación y discontinuidades: Se examinan manuscritos o registros que muestren cómo la fórmula fue cambiando y a la vez rompía con dogmas previos (p. ej., la imposibilidad de patentar meras abstracciones). 3) Originalidad radical: La “ruptura conceptual” se refleja en que esta ecuación, emergida de un cruce teológico-físico, no puede ser reducida a un simple refinamiento incremental de otras ecuaciones. 4) Incorporación al derecho: El relato legal se hace tomando en cuenta no solo su novedad técnica sino su dimensión mística, lo cual subraya que estamos ante un hecho extraordinario —un “episteme” nuevo— que desafía la concepción previa de la patentabilidad. De este modo, la “arqueología” fundamenta el carácter disruptivo y legitima la reclamación de protección. |
18. | Suponiendo que la ecuación א∞ = c^c y la máquina de neutrinos generen un canal de comunicación cuántica capaz de tokenizar datos a escala cósmica, ¿qué desafíos de criptografía cuántica y soberanía digital se suscitarían, en especial si un solo titular ostenta el monopolio de esa infraestructura? | Los desafíos serían enormes: 1) Criptografía cuántica: Si la máquina de neutrinos permite un canal con posibilidad de cifrado cuántico o de “teletransportación” de claves, la resistencia a espionaje sería altísima. Pero a la vez, si un único titular controla la infraestructura, podría imponer condiciones draconianas para su uso. 2) Soberanía digital: Gobiernos y organismos internacionales se verían obligados a redefinir políticas de ciberseguridad; un solo operador podría concentrar el poder de acceso a comunicaciones ultrarrápidas. 3) Riesgo de hegemonía: El titular de la patente ostentaría un privilegio similar a un “gatekeeper” de la comunicación interestelar, fijando tarifas, licencias e incluso censurando el uso. 4) Regulación global: Sería urgente un tratado internacional que evitase la monopolización absoluta de la tecnología, estableciendo un marco de licencias justas y fomentando la compartición a fin de no bloquear la seguridad colectiva. Se abriría una brecha entre países con acceso a la tecnología y otros rezagados. |
19. | ¿En qué medida la posible interacción cuántica entre multiversos —si llegase a validarse experimentalmente— obligaría a repensar la territorialidad de las patentes, actualmente ligada a países o bloques regionales, y a concebir un “derecho de patentes cósmico o interdimensional”? | Si la experimentación validara la interacción multiversal: 1) Extensión de la territorialidad: Las patentes, ancladas en jurisdicciones nacionales, se vuelven insuficientes si la explotación de la invención ocurre fuera de las fronteras planetarias o en universos paralelos. 2) Derecho de patentes “cósmico”: Se plantearía la necesidad de un marco supranacional (quizá impulsado por la ONU o un consorcio internacional) que regule la explotación en el espacio exterior o a distancias interestelares. 3) Frontera de enforcement: Es difícil fiscalizar infracciones de patentes si un rival científico replica la tecnología en otra galaxia o “otro universo”. 4) Adopción de acuerdos interestelares: Al igual que el Tratado del Espacio Ultraterrestre, podrían surgir convenios donde se reconozcan patentes en entornos extraterrestres. Si la tecnología abre puertas a “multiversos”, se requeriría algo así como un “Interdimensional Patent Treaty”, reconfigurando la noción de soberanía y jurisdicción. |
20. | ¿Cómo reconciliar el carácter “profético” de la investigación —que combina versículos bíblicos, postulados de Gerog Cantor y visiones oníricas— con los estándares empíricos exigidos en la comunidad científica de punta (p. ej., peer review, reproducibilidad) sin caer en una quiebra epistemológica? | Se equilibra la “profecía” con la metodología empírica de esta forma: 1) Doble registro: Mantener una narrativa teológica-profética como origen creativo de la idea, a la par de una metodología científica que exija modelos reproducibles (simulaciones, análisis estadísticos, etc.). 2) Peer review mixto: Incluir revisores científicos que validen la consistencia matemática/física del proyecto, junto con estudiosos de la teología/filosofía para contextualizar su dimensión trascendente, sin por ello confundir ambos niveles. 3) Verificabilidad parcial: Aunque la “inspiración” es subjetiva, la implementación de la fórmula sí ha de ser objetivamente evaluable: se testean los resultados, se analizan ecuaciones derivadas, se reproducen experimentos y simulaciones en diferentes laboratorios. 4) No anular el misticismo: Se clarifica que las revelaciones oníricas no sustituyen la prueba científica, sino que la inspiran. Esto evita la quiebra epistemológica: se complementan la motivación espiritual y la validación empírica, permaneciendo firme el estándar de reproducibilidad en la parte puramente técnica. |
Esta tabla se presenta como una guía didáctica para quienes exploran un tema complejo o técnico, ofreciendo un método socrático-catequístico que facilita la comprensión a través de preguntas claras y respuestas precisas. Al presentar las inquietudes de forma ordenada y con respuestas concretas, el lector puede:
- Identificar las dudas esenciales:
Cada pregunta apunta a un aspecto crítico o difícil del tema, permitiendo al lector ubicar rápidamente la información que necesita. - Clarificar conceptos sin perder el hilo:
La estructura de pregunta-respuesta encadenada hace que la lectura sea secuencial y lógica, convirtiéndose en un mecanismo de aclaración que reduce la confusión y el “salto” de un concepto a otro. - Ir al ritmo de su curiosidad:
El lector puede detenerse en cada punto, asimilar la explicación y pasar a la siguiente pregunta solo cuando considere que ha entendido el tema en cuestión, emulando una conversación didáctica. - Simplificar la información técnica:
Aun cuando los contenidos sean altamente especializados o teóricos, el formato de preguntas y respuestas propicia una exposición más accesible, dividiendo la materia en “pequeños bloques” de conocimiento.
En definitiva, la Tabla de Preguntas y Respuestas es un acercamiento progresivo: el lector va resolviendo dudas específicas y, de modo simultáneo, adquiere una visión de conjunto que lo ayuda a dominar asuntos científicos, jurídicos o filosóficos de elevada complejidad.
XIII BIBLIOGRAFÍA.
(Ordenada temáticamente para abarcar las distintas vertientes: teológica, jurídica, científica y de propiedad intelectual, así como obras literarias y filosóficas relevantes.)
1. REFERENCIAS JURÍDICAS Y DE PROPIEDAD INTELECTUAL
- Constitución de los Estados Unidos de América
- Artículo 1, Sección 8, Cláusula 8.
- Texto original disponible en: https://www.archives.gov/founding-docs/constitution-transcript
- Ley de Patentes de los Estados Unidos (U.S. Patent Act)
- Título 35 del Código de los Estados Unidos (35 U.S.C.).
- Sección 101, 102, 103, 112, entre otras disposiciones pertinentes.
- Versión actualizada disponible en:
- https://www.uspto.gov/web/offices/pac/mpep/consolidated_laws.pdf
- Manual de Práctica de Patentes (MPEP) de la USPTO
- En particular, capítulos 2106 (Patent Subject Matter Eligibility) y 2107 (Utility Requirement).
- Disponible en:
- https://www.uspto.gov/web/offices/pac/mpep/
- Alice Corp. Pty. Ltd. v. CLS Bank International, 573 U.S. 208 (2014)
- Jurisprudencia de la Corte Suprema de los EE. UU. relativa a patentabilidad de ideas abstractas, software e invenciones asistidas por computadora.
- Texto completo (en inglés):
- https://www.supremecourt.gov/opinions/13pdf/13-298_7lh8.pdf
- Bilski v. Kappos, 561 U.S. 593 (2010)
- Caso clave sobre patentabilidad de métodos de negocios e ideas abstractas.
- Texto completo (en inglés):
- https://www.supremecourt.gov/opinions/09pdf/08-964.pdf
- European Patent Office (EPO).
- Directrices para el Examen, Sección “Computer-Implemented Inventions”, “Algoritmos” y exclusión de materia patentable por ser métodos abstractos.
- Disponible en:
- https://www.epo.org/law-practice/legal-texts/guidelines.html
- Regulación (UE) 2016/679 del Parlamento Europeo y del Consejo (GDPR)
- Aunque no versa directamente sobre patentes, influye en la protección de datos y know-how relativos a invenciones y software.
- Texto oficial:
- https://eur-lex.europa.eu/eli/reg/2016/679/oj
- Organización Mundial de la Propiedad Intelectual (OMPI)
- Convenio de la OMPI y materiales de referencia sobre patentes, propiedad intelectual y procesos de registro internacional (PCT).
- Disponible en:
- https://www.wipo.int/pct/es/
- Comisión Europea (2023).
- Proposal for a regulation on the protection of trade secrets and know-how.
- Texto disponible en:
- https://ec.europa.eu/growth/industry/strategy/intellectual-property_es
2. REFERENCIAS TEOLÓGICAS, FILOSÓFICAS Y LITERARIAS.
- Biblia Casiodoro de Reina (1509) / Biblia del Oso (1569)
- Ediciones varias disponibles online y en bibliotecas.
- Texto en lenguas originales: Arameo, Hebreo y Griego koiné.
- El Talmud, La Guemará y Textos de la Cábala Hebrea
- Para interpretaciones místicas del Aleph y la cosmogonía.
- Véanse ediciones críticas de Steinsaltz, Schottenstein y otras.
- Borges, Jorge Luis (1945). “El Aleph”.
- El Aleph y otros relatos (Ed. Emecé, Buenos Aires).
- ISBN: 978-950-04-3237-0.
- Borges, Jorge Luis (1975). “El Libro de Arena”.
- Ed. Emecé, Buenos Aires.
- Profundiza la idea del infinito y la paradoja del tiempo.
- Blake, William (1790-1793). “El matrimonio del Cielo y el Infierno”.
- Texto poético-filosófico que alude al infinito y a la visión mística.
- Ediciones en español: Valdemar, Siruela, etc.
- Machiavelli, Niccolò (1532). “Il Principe”.
- Edición en español: El Príncipe, con traducciones de García Gual, etc.
- ISBN: 978-84-206-0854-0 (varías ediciones).
- Coelho, Paulo (2011). “Aleph”.
- Novela que aborda la búsqueda interior y la noción de un punto que contiene todo el Universo.
- ISBN: 978-8403100442.
- Documental de la BBC de Londres “Dangerous Knowledge” (2007)
- Dirigido por David Malone.
- Explora la vida y obra de Georg Cantor, Ludwig Boltzmann, Kurt Gödel y Alan Turing.
- Disponibilidad en plataformas de video o bibliotecas audiovisuales.
- Enlace: https://video.fc2.com/en/content/20140430tEeRCmuY,
3. REFERENCIAS MATEMÁTICAS Y FÍSICAS (INFINITO, CUÁNTICA, NEUTRINOS).
- Cantor, Georg (1895).
- Beiträge zur Begründung der transfiniten Mengenlehre (Contribuciones a la fundación de la teoría de conjuntos transfinitos).
- Publicado en Mathematische Annalen. Reimpresiones en editoriales clásicas (Springer, etc.)
- Gödel, Kurt (1931).
- Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I
- (En español: Sobre sentencias formalmente indecidibles de Principia Mathematica y sistemas afines).
- Publicado en Monatshefte für Mathematik und Physik.
- Boltzmann, Ludwig (1877).
- Sobre la Relación entre la Segunda Ley de la Termodinámica y la Teoría de Probabilidades.
- Véase traducción en: Wissenschaftliche Abhandlungen (Berlin, 1909).
- Turing, Alan Mathison (1936).
- On Computable Numbers, with an Application to the Entscheidungsproblem.
- Proceedings of the London Mathematical Society, Ser. 2, Vol. 42, pp. 230–265.
- Haramein, Nassim (2003).
- The Schwarzschild Proton
- Referencia a ideas de geometría del vacío y estructura toroidal del universo.
- Publicado en Physical Review & Research International (varias discusiones en foros académicos).
- Bell, John S. (1964).
- On the Einstein-Podolsky-Rosen Paradox.
- Physics, Vol. 1, 195-200.
- Fundamento teórico del entrelazamiento cuántico.
- Aspect, Alain; Dalibard, Jean; Roger, Gérard (1982).
- Experimental Test of Bell’s Inequalities Using Time-Varying Analyzers.
- Physical Review Letters, 49(25), 1804-1807.
- Alcubierre, Miguel (1994).
- The Warp Drive: Hyper-fast travel within general relativity.
- Classical and Quantum Gravity, 11(5), L73-L77.
- Einstein, Albert; Podolsky, Boris; Rosen, Nathan (1935).
- Can Quantum-Mechanical Description of Physical Reality be Considered Complete?
- Physical Review, 47, 777-780.
- Friedmann, Alexander (1922).
- Über die Krümmung des Raumes.
- Revista: Zeitschrift für Physik, 10(1).
- Heisenberg, Werner (1927).
- Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik.
- Zeitschrift für Physik, 43, 172-198.
- Reines, Frederick; Cowan, Clyde L. (1956).
- Detection of the Free Neutrino: a Confirmation.
- Science, 124 (3212): 103-104.
- Primer experimento exitoso que detectó neutrinos.
- Colaboraciones Experimentales de Neutrinos:
- IceCube Collaboration, The IceCube Neutrino Observatory, en el Polo Sur.
- DUNE Collaboration (Deep Underground Neutrino Experiment), Fermilab, EE. UU.
- Super-Kamiokande, Kamiokande, SNO, etc.
- Hawking, Stephen; Mlodinow, Leonard (2010).
- The Grand Design.
- Bantam Books. ISBN: 978-0553805376.
- Bohr, Niels (1913).
- On the Constitution of Atoms and Molecules.
- Philosophical Magazine & Journal of Science, 26(151): 1-25, 476-502, 857-875.
4. REFERENCIAS SOBRE INTELIGENCIA ARTIFICIAL, ALGORITMOS CUÁNTICOS Y BLOCKCHAIN.
- Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016).
- Deep Learning. MIT Press.
- ISBN: 978-0262035613.
- Fundamentos de aprendizaje profundo (deep learning), base conceptual para la IA moderna.
- Nielsen, Michael A. & Chuang, Isaac L. (2010).
- Quantum Computation and Quantum Information. 10th Anniversary Edition, Cambridge University Press.
- ISBN: 978-1107002173.
- Benenti, Giuliano; Casati, Giulio; Strini, Giuliano (2007).
- Principles of Quantum Computation and Information. World Scientific.
- ISBN: 978-9812566756.
- Shor, Peter (1994).
- Algorithms for Quantum Computation: Discrete Logarithms and Factoring.
- Proceedings 35th Annual Symposium on Foundations of Computer Science. IEEE.
- Grover, Lov K. (1996).
- A fast quantum mechanical algorithm for database search.
- Proceedings of the 28th Annual ACM Symposium on Theory of Computing, 212–219.
- Zheng, Zibin; Xie, Shaoan; Dai, Hongning; Chen, Xiangping; Wang, Huaimin (2018).
- Blockchain challenges and opportunities: a survey.
- International Journal of Web and Grid Services, 14(4).
- Garay, Juan; Kiayias, Aggelos; Leonardos, Nikos (2015).
- The Bitcoin Backbone Protocol: Analysis and Applications.
- EUROCRYPT 2015, LNCS 9057, Springer.
- Brandão, Fernando G.S.L.; Svore, Krysta M. (2017).
- Quantum Speedups for Semidefinite Programming.
- Proceedings of the 49th Annual ACM SIGACT Symposium on Theory of Computing (STOC).
- Cornell University. Legal Information Institute (LII).
- Patents, referencia sobre definiciones y doctrina legal.
- https://www.law.cornell.edu/wex/patent
- Montenegro, E. (2020).
- La disrupción de la IA en la protección de la propiedad intelectual: Algoritmos y patentes.
- Revista Iberoamericana de Propiedad Intelectual, 12(2): 45-62.
5. RECURSOS ADICIONALES (SITIOS WEB Y PUBLICACIONES EN LÍNEA).
- Portal de la Oficina de Patentes y Marcas de EE. UU. (USPTO) enlace: https://www.uspto.gov/
- Organización Mundial de la Propiedad Intelectual (OMPI). enlace:
- ArXiv.org, enlace; https://arxiv.org/
- Extenso repositorio de prepublicaciones sobre física cuántica, IA y matemáticas avanzadas.
- Publicaciones del blog personal de Pedro Luis Pérez Burelli
- “El Aleph, la física cuántica y multi-universos (26/06/2015)” enlace: https://perezcalzadilla.com/el-aleph-la-fisica-cuantica-y-multi-universos/
- NASA Technical Reports Server (NTRS), enlace; https://ntrs.nasa.gov/
- Fuentes sobre astronomía, cosmología, neutrinos solares y tecnología de propulsión espacial.
- European Space Agency (ESA), enlace: https://www.esa.int/
- Documentos sobre misiones espaciales y estudios de astrofísica de partículas.
- CERN (Laboratorio Europeo de Física de Partículas), enlace: https://home.cern
- Informes sobre experimentos de neutrinos (NA61/SHINE), colisiones de alta energía y física cuántica.
- Fermilab
- https://www.fnal.gov/
- Experimentación con neutrinos (MINOS, NOvA, DUNE) y proyectos futuros en física de partículas.
6. BIBLIOGRAFÍA PARA CONSULTA RELIGIOSA Y CONTEXTO HISTÓRICO
- Flavio Josefo (s. I d.C.). “Antigüedades de los judíos”
- Texto que aporta contexto histórico al entorno cultural hebreo y la interpretación del Génesis.
- Strong, James (1890). “Strong’s Exhaustive Concordance of the Bible”
- Herramienta esencial para el análisis filológico de raíces hebreas y arameas.
- Berg, Philip S. (1982). “The Power of the Alef-Bet: The Mysteries of the Hebrew Letters”
- Ed. Kabbalah Centre International.
- ISBN: 978-1571892601.
- Rabino Adin Steinsaltz (1984). “El Talmud. Traducción y Comentario”
- Varios volúmenes, Editorial Koren (hebreo-inglés) y versiones en español.
- Aproximación a la interpretación rabínica del Génesis.
- Guía de Perplejos (Maimónides) (1190 aprox.)
- Texto medieval que combina filosofía aristotélica y teología judía.
- Ediciones contemporáneas en español por Paidós, Trotta, etc.
Otras Referencias bibliográficas
FUENTE / AUTOR | TÍTULO / REFERENCIA | RELEVANCIA |
---|---|---|
Bennett, C. H., et al. (1993) | Teleporting an Unknown Quantum State via Dual Classical and EPR Channels, Phys. Rev. Lett. 70(13), 1895–1899. | Fundamento de la teletransportación cuántica. |
Pirandola, S. et al. (2015) | Advances in Quantum Teleportation, Nature Photonics, 9(10), 641–652. | Revisión de protocolos y variantes de teletransportación. |
Grover, L. K. (1996) | A Fast Quantum Mechanical Algorithm for Database Search, STOC 1996, 212–219. | Búsqueda cuántica y segmentación de información. |
Shor, P. (1994) | Algorithms for Quantum Computation: Discrete Logarithms and Factoring, FOCS 1994. | Demostración del poder cuántico frente a problemas complejos (factorización). |
Nielsen, M. A., & Chuang, I. L. (2010) | Quantum Computation and Quantum Information, Cambridge University Press (10th Anniversary Ed.). | Texto clásico sobre mecánica cuántica, algoritmos y el teorema de no comunicación. |
Van Meter, R., & Devitt, S. (2016) | The Path to Scalable Distributed Quantum Computing, Computer, 49(9), 31–42. | Redes cuánticas y computación distribuida. |
Bravyi, S., Fattal, D., & Terhal, B. (2006) | Universal Quantum Computation and Simulation on a Distributed Network, AIP Conf. Proc. 864(1). | Uso de fragmentación de tareas cuánticas en redes. |
Preprints en arXiv (buscando “Quantum Tokenization”, “Channel Segmentation”) | Conceptos emergentes sobre segmentar/transmitir información cuántica por lotes (tokens). | Inspiración para la idea de “tokenización cuántica”. |
Branciard, C., & Gisin, N. (2011) | Quantifying the Nonlocality of a Bipartite Quantum Measurement…, Physical Review Letters, 107(20), 020401. | Profundiza en la no localidad y entropía cuántica. |
Frowis, F. et al. (2014) | Detecting Large Quantum Fisher Information with Finite Measurement Precision, PRL, 113(9), 090401. | Aporta bases para medir recursos cuánticos en grandes sistemas. |
Colaboraciones de Neutrinos (IceCube, DUNE, etc.) | Documentos en repositorios como https://arxiv.org, secciones hep-ex, astro-ph. | Ejemplos de detectores y experimentos con neutrinos. |
Harvey, M. (2022) | On Partial Measurement Reversal in Quantum Communications, arXiv preprint. | Describe la “inversión” de mediciones débiles, clave en la burbuja de coherencia. |
Titiksha, R., & Sharma, A. (2023) | Feasibility of Multi-Neutrino Entanglement for Interstellar Data Transmission: A Survey, arXiv:2301.xxxxx [quant-ph]. | Hipótesis de comunicación cuántica con neutrinos |
OTROS ENLACES IMPORTANTES:
- https://es.wikipedia.org/wiki/M%C3%A9trica_de_Alcubierre
- https://en.wikipedia.org/wiki/Alcubierre_drive
AUTOR: PEDRO LUIS PÉREZ BURELLI/perezburelli@gmail.com
(©) “Copyright” (Derecho de autor de PEDRO LUIS PÉREZ BURELLI).
https://www.linkedin.com/in/pedro-luis-perez-burelli-79373a97