Tuesday, May 23, 2006

El GCP (Proyecto de la Conciencia Global) y los GNA's (Generadores de números aleatorios)


Por cierto, aprovecho para comentar aquí que estoy terminando un gran libro sobre programación para los amantes de las viejas computadoras en el que revelo todos mis "algoritmos de computación más preciados". Llevo trabajando más de dos años en el libro y ya os adelanto que tendrá unas 400 páginas y un precio aproximado de 40-50 euros. También os adelanto que la obra será personalizada para el lector, es decir, incluirá sus datos personales y en todo momento me dirigiré a él expresamente por su propio nombre para explicarle y detallarle la metodología de programación empleada en sus más de 60 aplicaciones prácticas. Sólo espero que sea una obra a tener en cuenta y que logre su principal objetivo que no es otro que introducir al lector en la apasionante aventura de la programación de computadoras.



A pesar de que algunos documentos de reconocida rigurosidad científica (Investigación de operaciones - Hamdy A. Taha 1997) reconocen a los generadores electrónicos como puramente aleatorios, quizá basando su criterio en la imposibilidad de duplicar la misma secuencia de números por su impredecibilidad, lo cierto es que algunos investigadores han descubierto que la generación de variables aleatorias mediante métodos electrónicos presentan sesgos y dependencias, es decir, fluctuaciones irregulares en determinados puntos de una serie (The Logic of Statitistical Inference - I. Hacking 1967) tal y como se citaba con anterioridad.
Al hilo de este tema y en relación con los generadores electrónicos de números aleatorios, curiosas investigaciones como el Proyecto de la Conciencia Global - GCP ( www.noosphere.princeton.edu ) podrían llegar a arrojar luces sobre estos generadores aleatorios si los investigadores son capaces de aislar e identificar las variables que provocan dichos sesgos y de qué modo interfieren en el azar, siempre al margen del sensacionalismo que los medios y otros círculos profanos puedan atribuir a este tipo de investigaciones.
A juzgar por el enfoque de ciertos medios e incluso del website oficial, no podemos negar que el proyecto esté impregnado de cierto halo metafísico, pero tampoco debemos precipitarnos en un dictamen carente de fundamento.
Resumen y citas literales del Artículo de Eduardo Martínez del 20 de febrero de 2005 sobre el GCP.
Artículo completo publicado en: http://www.tendencias21.net
“Una red mundial de generadores de números aleatorios muestra anomalías de funcionamiento cuando se producen acontecimientos que afectan a millones de personas, según un experimento iniciado en 1998 y que hoy tiene presencia en países de todos los continentes. La red se llama The Global Consciousness Project (GCP) y representa el primer esfuerzo internacional para explotar si la atención social que comparten millones de personas cuando ocurren determinados acontecimientos relevantes, puede ser medida y validada científicamente. La red GCP lleva operando desde hace 35 años y tiene presencia en 65 países, desde Alaska a las islas Fidji. Funciona en todos los continentes del globo y en todas las franjas horarias. En ella trabajan 75 investigadores, analistas e ingenieros.
Aunque está alojada oficialmente en la Universidad de Princeton (http://noosphere.princeton.edu/) y muchos de los investigadores participantes forman parte del estrato académico, la red GCP no está financiada por subvenciones universitarias, sino por una serie de patrocinadores. Entre ellos destacan The Princeton Engineering Anomalies Research (http://www.princeton.edu/%7Epear/) y The Linux Documentation Project (http://www.ibiblio.org/mdw/index.html).
The Princeton Engineering Anomalies Research (PEAR) fue creado en 1979 por el decano de la Escuela de Ingeniería y Ciencia Aplicada de la Universidad de Princeton, Robert G. Jahn (http://www.princeton.edu/%7Epear/jahn.html), con la finalidad de estudiar científicamente la interacción entre la conciencia humana y los instrumentos mecánicos y físicos. Entre los artículos explicativos de esta experiencia destaca el publicado por la revista Foundations of Physics Letters (el texto integro ha sido difundido por GCP http://noosphere.princeton.edu/ )
Robert G. Jahn ha dedicado un equipo de ingenieros, físicos, sicólogos y humanistas a desarrollar una serie de experimentos y elaborar modelos teóricos que contribuyan a explicar el papel que juega la conciencia en el establecimiento de la realidad física.
Los generadores funcionan constantemente, generando millones de números y gráficos segundo a segundo, día a día, extraídos del ruido cuántico. La mayoría del tiempo, el gráfico que refleja los resultados de este juego aleatorio se mantiene más o menos en una línea plana, que refleja la probabilidad. Sin embargo, el 6 de septiembre de 1996, cambió, el gráfico subió hacia arriba, registrando un cambio repentino. Los científicos lo achacaron a la atención centrada de millones de personas en el entierro de Diana de Gales en la abadía de Westminster. En otros momentos, importantes acontecimientos sucedidos en el mundo hicieron variar las fluctuaciones aleatorias derivadas de las máquinas GNA: el bombardeo de la OTAN sobre Yugoslavia, la tragedia submarina del Kursk, las vísperas de año nuevo.
Sin embargo, lo más sorprendente estaba aún por llegar. El 11 de septiembre de 2001, cuatro horas antes de que las torres gemelas sufrieran el ataque terrorista de dos aviones suicidas, los gráficos comenzaron a trastocarse, como si la conciencia humana previera que algo terrible, impactante e importante para la comunidad global fuera a suceder.
Las desviaciones registradas el 11S en las pulsiones aleatorias no pueden atribuirse a alteraciones electromagnéticas o excesivo uso de los móviles, tal como explican los protagonistas de esta experiencia en el Journal of Scientific Exploration http://noosphere.princeton.edu/papers/jseNelson.pdf.
En aquel momento, las variaciones en el orden numérico parecieron un fruto del mero azar, pero en diciembre de 2004, las máquinas parecieron volverse locas de nuevo. Veinticuatro horas antes de que sucediera el inmenso terremoto del Océano Índico que tanto afectara al Asia suroriental, devastando las costas y matando a 250 mil personas, los gráficos se trastocaron de nuevo.
Algunos científicos insisten en que todo puede ser casualidad, a pesar de que el equipo de Princeton señala que es muy difícil cambiar el orden aleatorio de los números al azar, sin que haya causa de peso para ello.
La investigación, aunque tiene ya 35 años, está todavía en sus primeros pasos y no puede considerarse concluyente, si bien sugiere que una relación todavía desconocida para la ciencia existe entre el mundo físico y el mundo de la conciencia.
El dr. Nelson, miembro del euqipo de Princeton, en declaraciones a RedNova (http://www.rednova.com/news/display/?id=126649 ) señala sin embargo que la importancia de los resultados registrados en los gráficos radicaría en que, a pesar de que todos funcionemos como individuos, parece ser que hay algo mayor, un elemento común en nuestras conciencias, un elemento global, si bien cuando se habla de conciencia global se trata únicamente de una metáfora.
Eduardo Martínez del 20 de febrero de 2005
Cuando oí hablar por primera vez del G.C.P. (www.noosphere.princeton.edu ) me interesé rápidamente por conocer los entresijos de este proyecto así como la metodología y sistema empleado en la obtención de las variables aleatorias objeto del estudio. En una primera reflexión lógica con la escasa información disponible y apoyado en mi experiencia con el azar y de las computadoras adquirida en el desarrollo de mi programa SIMULA ( comentado en el capítulo anterior), por la falta de datos pude deducir únicamente que no podía tratarse de generadores pseudoaleatorios (basados en algoritmos determinísticos) sino que debía tratarse de generadores electrónicos, hecho que pude corroborar con posterioridad en la web oficial y en otros artículos relativos al proyecto.
Al profundizar un poco más en el asunto y tras la búsqueda en La Red y lectura de varios artículos que versaban sobre el tema, tuve la percepción de que parecía no tratarse de un grupo de astrólogos en busca de la combinación ganadora del sorteo de la próxima semana y, pese a que debo confesar cierto escepticismo sobre el enfoque a priori, también he de confesarles que el proyecto despertó en mí un especial interés por abrazar el siempre apasionate mundo de la aleatoriedad. Es por ello que quiero expresar algunas objeciones al respecto.
Para introducir al incrédulo absoluto en la saludable duda les contaré algo acerca del cerebro humano y sus frecuencias de trabajo.
El cerebro funciona a distintas frecuencias dependiendo de su estado. Aunque coexisten varias frecuencias en un mismo estado, normalmente se asocia el estado mental a la frecuencia predominante. En la tabla siguiente se da una breve explicación de las distintas frecuencias y su estado asociado:
ONDA FRECUENCIA hz (*) ESTADO
Beta 13-40 Despierto, alerta. Es el estado normal de funcionamiento consciente.
Las frecuencias más elevadas son asociadas a estados de stress y ansiedad.

Alfa 7-13 Estado relajación, concentración, super aprendizaje.
Theta 3.5-7 Relajación prfunda hipnosis.
Delta 0-3.5 Sueño profundo inconsciencia.
(*) No existen unos límites claros entre unas frecuencias y otras. La clasificación dada es comúnmente aceptada, aunque los límites de frecuencias pueden variar de unos autores a otros http://www.brainled.tk
La expectación, la inquietud, la ansiedad y el nerviosismo son estados que, de forma demostrada, pueden producir variaciones en la frecuencia cerebral pasando de los 7-13 hz propios de un estado de relajación y concentración a registros que pueden rebasar en ocasiones los 40 hz. Las frecuencias altas también se caracterizan por su bajo voltaje (menor recorrido en la oscilación gráfica del electro encéfalo grama EGG) frente a las frecuencias bajas o de alto voltaje.
También es sabido que es posible alterar la frecuencia predominante del cerebro mediante inducción. Este sistema es el utilizado por curiosos trabajos como www.brainled.tk en el que mediante un software y unos auriculares convencionales se aplican sonidos de diferente frecuencia a cada oído, consiguiendo que el cerebro se ajuste por interpolación a la frecuencia intermedia de ambas señales.
Tampoco deberíamos obviar la característica del aire como elemento continuo (carente de vacío) y a través del cual se vienen desarrollando continuamente nuevos sistemas de comunicaciones de señales que aprovechan las cualidades de este medio. Con esto, no pretendo convecerles de que todos los humanos disponen en su cerebro de un dispositivo bluetooth formando una malla de conexión global, ni mucho menos, pero en investigación creo que es importante no descartar posibilidades por extrañas que puedan resultarnos si consideramos que pueden estar sustentadas en un fundamento lógico por muy leve que sea nuestra intuición.
A mi juicio, y sin descartar la investigación basada en la asociación a eventos significativos de ámbito global, podríamos establecer una clara línea de análisis en la búsqueda de posibles variables potenciales con capacidad de provocar sesgos e irregularidades manifiestas en la secuencia aleatoria sometiendo a los GNA’s a una batería de pruebas. A tal efecto, se me ocurre que podríamos enumerar grosso modo posibles factores determinantes en la influencia de fluctuaciones y a los que debería de someterse de forma prioritaria a estos generadores:
- Colapso en vías de comunicación: satélite, telefonía fija y móvil, radiofrecuencia, diferentes combinaciones de éstas.
- Alteraciones en campo magnético terrestre producidos por desplazamiento de placas tectónicas, terremotos, etc.
- Alteraciones climatológicas bruscas: tormentas eléctricas, huracanes, radiación solar, variaciones significantes de parámetros climáticos (temperatura, humedad relativa, etc.)
- Alteraciones anímicas colectivas provocadas (ansiedad, inquietud, miedo, stress, etc) mediante simulacros sin conocimiento previo por parte de los sujetos experimentales, efectuándose en grupos diversos y bajo diferentes condiciones.
- Pruebas experimentales de tipo térmicas sometiendo los generadores a temperaturas extremas así como a ciclos.
- Proyección constante e intermitente de sonidos de diferentes frecuencias sobre los generadores a diferentes intensidades
- También deberían evaluarse por separado y de forma simultánea generadores aislados al vacío frente a otros sin aislamiento.
En definitiva, se trataría de someter a los GNAs a una batería de pruebas para lograr aislar las variables implicadas en las fluctuaciones.
Acerca del GCP, con la escasa información que he podido recopilar y aprovechando el descubrimiento en La Red de este potente compilador (FreeBasic32) gracias a un viejo amigo, he desarrollado una pequeña aplicación que podría destinarse al análisis continuo del muestreo aleatorio de los GNAs. Su nombre es pcgNORM. El programa simula de forma continua un muestreo aleatorio de 200 bits (ceros ó unos) por segundo emitidos por un GNA (generador de números aleatorios), pero que en realidad son generados de forma pseudoaleatoria, y elaborando una serie de pruebas básicas encaminadas a la detección de posibles sesgos e irregularidades, como son la representación gráfica de los resultados y el análisis de desviaciones medias en ventanas de 5 y 15 minutos.
El programa utiliza un algoritmo determinístico (el integrado en el propio compilador), por lo que difícilmente podremos dedicarlo a la investigación de los generadores aleatorios electrónicos mientras no pueda hacerme con el esquema de un GNA auténtico. Por ello, y al objeto de poder observar un sesgo en la generación aleatoria, he desarrollado una versión modificada denominada pcgSIM (igualmente disponible en la web) en la que se produce una fluctuación irregular provocada hacia el cero o el uno de forma indistinta y en cualquier momento a lo largo de cada ciclo de 12 horas.
http://inicia.es/de/elpatron/hipotesis/img/pcgSIM.gif
Programa TEST-PGCSIM compilado para plataformas Windows 32 bits (9x/ME/NT/2000/XP) en el que se muestra y una fluctuación provocada en la generación de bits aleatorios. Ejecutable en:
http://inicia.es/de/elpatron/hipotesis/pcgNORM.exe
(versión normal)
http://inicia.es/de/elpatron/hipotesis/pcgSIM.exe
(versión modificada en la que se producen sesgos provocados como el de la imagen).
Para ejecutar directamente seleccione ABRIR en el cuadro de diálogo que le muestre el sistema al hacer click! Sobre el enlace

CONCLUSIONES DEL AUTOR
Mi conclusión es determinante y en parte determinista, en ella caben y se fusionan dos niveles conceptuales definidos y delimitados pero interconectados de forma subyacente.
1.- En un primer nivel conceptual, enmarcado en el plano filosófico, el azar puro como concepto teórico no existe, es más un invento del ser humano, una especie de cajón desastre donde encajar todos los sucesos que escapan de su control y de un análisis determinista en el que todas las variables implicadas puedan ser identificadas, calibradas e interpretadas de forma tangible y objetiva. Así, mi reflexión, como en otras muchas ocasiones, vuelve a conducirme hasta el mismo punto, principio básico universal de la ciencia “Todo efecto posee una causa natural que lo provoca”, un enunciado sobre el que recae, al menos para mí, el sentido absoluto de la existencia.
2.- Sin embargo, y situados ahora en el plano meramente práctico y material, aunque sólo sea de forma objetiva lanzando un dado o una moneda al aire. Estos procesos aparentemente simples encierran una complejidad tal que nos permiten afirmar que en dicho tipo de sucesos, por el número y tipo de variables implicadas, la predecibilidad de los resultados escapan de forma absoluta a cualquier tipo de control y estudio, accediendo de este modo, al menos en un plano objetivo, práctico, matemático y material, a un azar “puro” contextualizado, es decir, en el marco de su propio contexto.
Podemos afirmar que matemáticamente, en la mayoría de las situaciones, resulta posible “emular” el azar y prueba de ello es que experimentos como los descritos con anterioridad funcionan de forma convincente y parecen ajustarse con fidelidad a los dictados de las leyes de la probabilidad, pero el azar continuará siendo apasionante y retorcido. Podremos acercarnos a él recurriendo a ingeniosas fórmulas pero tal vez jamás consigamos alcanzar su plenitud.

Rafael Lomeña Varo

El programa SIMULA y los juegos de azar. Lotería Primitiva, bonoloto, etc

Mi primer contacto con el azar y la simulación se remonta aproximadamente al año 1984 cuando, empujado por mi padre y con apenas 13 años de edad, inicié la búsqueda de un método que nos permitiera conocer las posibilidades reales de acierto en el juego de la Lotería, nuevo en España por aquel entonces. Así, sin incluir una sola fórmula de combinatoria en el programa y amparándome únicamente en la generación pseudoaleatoria de sorteos y en el control estadístico de éstos llegaba, casi sin darnos cuenta, a la simulación matemática. Nuestro mayor inconveniente tal vez fue confiar toda nuestra idea e ilusión a un hardware de la época realmente limitado, a mi añorado y siempre querido Sinclair ZX-Spectrum. El fruto de esa idea se llamó SIMULA, pero la escasa capacidad de cálculo de los microordenadores de 8 bits no permitían gran cosa por ello, algunos años más tarde (1987) volví a rescribir el programa para mi entonces flamante Commodore Amiga-500 y posteriormente, ya en los años ’90, volvía a adaptar el código fuente a compiladores de MS-Dos para poder rodar la aplicación en plataformas compatibles y de algún modo no perderla definitivamente como consecuencia de la siempre problemática migración de aplicaciones derivada de la rápida evolución de los sistemas informáticos. Después de tantos años y tantas horas de dedicación, resulta gratificante saber que aún hoy (según he podido comprobar en algún foro y por parte expresa de usuarios) siguen utilizando algunos amantes del juego de azar como programa referencia en cuanto a simulación y análisis de juegos de azar se refiere. No puedo ocultar una inmensa alegría al recibir alguna llamada de algún usuario desde cualquier punto de España interesándose por posibles actualizaciones y felicitándome por el trabajo. El saber del reconocimiento a un trabajo que, padre e hijo diseñamos con la maravillosa sensación de haber descubierto algo nuevo, una ilusión inculcada por él que, 14 años después de su muerte, aún conservo intacta, no exactamente en los juegos de azar, pero sí como filosofía de vida aplicable a cualquier cosa que haga.


Por cierto, aprovecho para comentar aquí que estoy terminando un gran libro sobre programación para los amantes de las viejas computadoras en el que revelo todos mis "algoritmos de computación más preciados". Llevo trabajando más de dos años en el libro y ya os adelanto que tendrá unas 400 páginas y un precio aproximado de 40-50 euros. También os adelanto que la obra será personalizada para el lector, es decir, incluirá sus datos personales y en todo momento me dirigiré a él expresamente por su propio nombre para explicarle y detallarle la metodología de programación empleada en sus más de 60 aplicaciones prácticas. Sólo espero que sea una obra a tener en cuenta y que logre su principal objetivo que no es otro que introducir al lector en la apasionante aventura de la programación de computadoras.

La simulación nos ofrece respuestas a problemas en los que la incertidumbre o el desconocimiento no permiten el uso de algoritmos determinísticos. Así, SIMULA puede encuadrarse en lo que hoy se denomina “computación aleatorizada” al basar, todo su funcionamiento en un algoritmo probabilístico. Los algoritmos probabilísticos se utilizan en casos en los que, o bien se desconocen las fórmulas determinísticas, o bien no resulta factible su aplicación por resultar poco eficiente. He de confesar que, tanto mi padre como yo mismo, desconocíamos las fórmulas de combinatoria necesarias para conseguir nuestros objetivos cuando desarrollé la 1ª versión del programa hacia 1984, pero la simulación, y en definitiva el uso de un algoritmo probabilístico, nos permitió en aquel momento alcanzar respuestas contundentes al problema que no era otro que conocer las posibilidades reales de acierto con diferentes sistemas de juego para intentar acercarnos, de alguna forma, a un sistema de máximo rendimiento a través de lo que yo denominaría métodos de alto riesgo (en los que se desecha la mayor parte de los números para conseguir aumentar las posibilidades de premios).

La última versión que diseñé del programa Simula (software de experimentación aleatoria destinado al juego de azar) es totalmente gratuita y se encuentra disponible en una de mis webs:

http://calentamientoglobalacelerado.net/simula

Incluye sistema automatizado de instalación/desinstalación, documentación completa integrada y es compatible con todas las versiones Windows incluida XP. También corre fácilmente sobre sistemas linux mediante emulación tipo Wine, etc.
El desarrollo de Simula me ayudó a comprender mejor el azar y sus peculiaridades, la simulación y el análisis e interpretación de datos, y también a adquirir un mayor conocimiento sobre la generación de variables pseudoaleatorias en modernos compiladores y diversos lenguajes. En el caso de Simula se emplea el algoritmo determinístico de generación aleatoria integrado en el propio compilador, con ello se garantiza la máxima optimización y rendimiento haciendo posible el lanzamiento de varios millones de sorteos en apenas un minuto incluso en procesadores lentos y superando además todas las pruebas de contraste realizadas no sólo mediante formulas de combinatoria, sino con archivos históricos reales. Bajo mi experiencia, el algoritmo determinístico integrado en el compilador no resta ni un solo ápice de fiabilidad en las predicciones del programa. Los resultados gozan de una precisión encomiable y resulta fiable en cualquier situación y en todos sus cálculos. A mi juicio, SIMULA puede superar prácticamente cualquier prueba de aleatoriedad a la que sea sometido.
Por otro lado, SIMULA me ha llevado (y puede conducir a cualquiera que trabaje con él) a conclusiones drásticas sobre los juegos de azar, tal y como intentaré demostrar a continuación. Para conseguir clarificar al máximo mis ideas, he preparado un pequeño programa de ejemplo que, pese a su sencillez, puede resultar bastante esclarecedor. Consiste en un sencillo algoritmo formado por varios bucles anidados capaz de desarrollar en algunos minutos (el ejemplo de la imagen está ejecutado en un “lento” procesador Pentium III a 450 Mhz) todas las combinaciones posibles del juego de la lotería primitiva, basado en variaciones con repetición de 49 elementos tomados de 6 en 6.
Al ejecutar este programa y si es usted el afortunado poseedor de un ordenador de última generación (de no ser así tendrá que esperar un poco más), en pocos minutos desfilará ante sus ojos la combinación ganadora del próximo sorteo de la lotería primitiva, sí una combinación que podría llevarle a ganar varios millones de euros o incluso más. Ésta que hago es una afirmación categórica e incuestionable pero la conclusión a la que pretendo llevarle no lo es menos, y es que haga usted lo que haga, juegue con el sistema que juegue, utilice los medios que utilice (software, hardware) y aplique los métodos que aplique, SIEMPRE deberá enfrentarse de forma irrefutable a los casi 14 millones de combinaciones posibles.
Con esta afirmación quiero rebatir algunas de las falsas “teorías” que se han desarrollado a lo largo la historia sobre este tipo de juegos. Debemos así admitir que jugar un número determinado de combinaciones, independientemente del modo en el que se distribuyan éstas, nuestras posibilidades de premios serán siempre las que le correspondan al número total de combinaciones jugadas frente al total de combinaciones posibles. Puede ésta ser una postura desalentadora y cuestionada por los apasionados de este u otros juegos de azar similares, pero no podemos luchar contra las leyes de la combinatoria.
El programa SIMULA nos ofrece, siempre a través de la simulación y nunca mediante fórmulas de combinatoria, la posibilidad de plantear diferentes situaciones en el juego de azar. Los resultados arrojados por el programa son, en cualquier caso, determinantes.
Última versión del programa SIMULA (DOS/Win9x/ME/NT/2000/XP). Programa completo instalable en:

http://calentamientoglobalacelerado.net/simula

Monday, May 22, 2006

GENERACIÓN DE NÚMEROS ALEATORIOS (GNA's)


Por cierto, aprovecho para comentar aquí que estoy terminando un gran libro sobre programación para los amantes de las viejas computadoras en el que revelo todos mis "algoritmos de computación más preciados". Llevo trabajando más de dos años en el libro y ya os adelanto que tendrá unas 400 páginas y un precio aproximado de 40-50 euros. También os adelanto que la obra será personalizada para el lector, es decir, incluirá sus datos personales y en todo momento me dirigiré a él expresamente por su propio nombre para explicarle y detallarle la metodología de programación empleada en sus más de 60 aplicaciones prácticas. Sólo espero que sea una obra a tener en cuenta y que logre su principal objetivo que no es otro que introducir al lector en la apasionante aventura de la programación de computadoras.


Si bien existen diversos métodos para la generación de números aleatorios como por ejemplo el lanzamiento de monedas o dados, ruletas, etc., estos sistemas manuales resultan, por razones obvias, ineficaces en labores de investigación y aplicaciones informáticas, en cuyas tareas suelen emplearse métodos informáticos basados en hardware o software.
1) Hardware: entre los métodos hardware encontramos los sistemas basados en excitación de átomos radiactivos, el recuento de partículas emitidas, el ruido blanco producido por circuitos electrónicos, el ruido térmico de un diodo semiconductor, etc. Un buen ejemplo de ruido aleatorio pueden ser los puntos blancos y negros que muestra una televisión cuando no tiene sintonizado ningún canal, en tal caso, los puntos negros podrían equivaler a ceros y los puntos blancos a unos. En todos estos métodos, las salidas aleatorias suelen ser registradas por ordenador al objeto de poder recuperar la secuencia en un momento determinado, así como someterla a los tests pertinentes que certifiquen la validez de dichos sistemas. A pesar de poseer características propias inalcanzables por los generadores basados en algoritmos determinísticos (principalmente período infinito en las series e impredecibilidad absoluta) que le permiten rozar la aleatoriedad absoluta, sin embargo, y pese a que dichos fenómenos físicos puedan ser considerados como verdaderamente aleatorios e incluso superar cualquier prueba de contraste a la que se les someta, ¿creen realmente que dichos generadores pueden mostrarse absolutamente insensibles bajo cualquier circunstancia? Seguramente no, algo distinto es que los factores condicionantes escapen de nuestro control y la posibilidad de ser identificados. De hecho, existen trabajos en este sentido como “The Logic of Statistical Interference” (I. Hacking 1967) que revelan sesgos e irregularidades en algunos de estos mecanismos. Además, entre los principales inconvenientes para su uso en simulación, podemos destacar:
- Una considerable lentitud de generación que dificulta la simulación de procesos complejos en los que se requiera el cálculo con millones de variables aleatorias.
- La imposibilidad de reproducir la misma secuencia de variables en el caso que sea necesario para, por ejemplo, la corrección de errores en un algoritmo.
- Su absoluta impredecibilidad en cualquier circunstancia.
2) Software: Los generadores aleatorios basados en software utilizan algoritmos determinísticos para la generación de números “pseudoaleatorios” y constituyen un pilar básico en investigación, no en vano, el campo de la simulación (aplicable a multitud de disciplinas) se alimenta de dichos generadores al contar éstos con importantes ventajas frente a los generadores aleatorios basados en fenómenos físicos. Entre sus ventajas más destacables cabe citar la enorme velocidad de generación que ofrecen, limitada prácticamente a la capacidad de cálculo de los sistemas informáticos. Otra característica no menos baladí que ofrecen al investigador es la posibilidad de reproducir la misma secuencia cuantas veces sea necesario empleando el mismo algoritmo y la misma semilla. Las variables pseudoaleatorias generadas mediante algoritmos numéricos determinísticos plenamente previsibles simulan de algún modo el azar, sin embargo, y como era de esperar, los generadores algorítmicos no son perfectos: antes o después suelen caer en ciclos infinitos (periodo finito) de repetición de la serie, en otros casos, pueden caer en repetición periódica de un mismo número y en cualquier caso, podrían presentar sesgos y dependencias que les aleja de los criterios de calidad óptimos deseables para un generador aleatorio.
Algunos sencillos generadores de ejemplo muy empleados en calculadoras científicas pueden ser del tipo siguiente:
Ni+1 = FRC (Ni * 9281 + 0.211327)
Ni+1 = FRC (Ni * 2939 + Pi)
Ni+1 = FRC [ (Ni + Pi)5 ]
Ni+1 = FRC (Ni * 7 + 0.13)
* El comando FRC toma sólo la parte decimal ignorando la parte entera.
Pese a que pueden ser útiles en condiciones de poca exigencia, los algoritmos incluidos en los modernos lenguajes de programación suelen ser de mayor complejidad consiguiendo así un período mayor (el período es el tamaño máximo de la serie que puede ofrecer un determinado algoritmo determinístico antes de volver a repetir los valores).
Entre las principales ventajas de los generadores algorítmicos en simulaciones complejas destacan:
- La enorme velocidad de generación limitada únicamente por la capacidad del hardware empleado siendo posible la generación de series de millones de variables por segundo.
- La posibilidad de reproducir idéntica serie en cualquier circunstancia.
Existen al respecto numerosos modelos de pruebas de contraste encaminadas a evaluar la calidad del algoritmo, evidentemente, no basta con que la secuencia parezca aleatoria y deben cumplirse las leyes de la probabilidad. Los más sencillos tests que puedo ponerles como ejemplo, al margen de detectar el período máximo que nos llevaría a repetir la serie de nuevo, serían:
- Media aritmética de los valores de la serie: Por ejemplo, si simulamos el lanzamiento de un dado diez mil veces, debemos obtener una media global próxima a 3.5, que sería la media exacta de los seis valores posibles del espacio muestral (1,2,3,4,5,6) partiendo del enunciado:
Media = (1+2+3+4+5+6)/6
Así en nuestra prueba de contraste sumaríamos en un acumulador el valor de los diez mil lanzamientos y lo dividiríamos por 6.
- Regularidad comprobable en las frecuencias absolutas de cada uno de los valores posibles durante todo el período.
Continuando con el ejemplo anterior, en los diez mil lanzamientos del dado, comprobaríamos que cada uno de los valores posibles (1,2,3,4,5,6). En nuestro ejemplo, con 10000 lanzamientos simulados, la frecuencia absoluta esperada para cada uno de los valores posibles sería 10000/6.
Este podría ser más o menos el código en Basic de un sencillo test para comprobar si nuestro algoritmo cumple las leyes de la probabilidad:

dim f(7) : dim n,d as integer ‘ n -> bucles y d valores de 1 a 6
dim nl, media as double ‘ nl -> número de lanzamientos
? "SIMULADOR DE LANZAMIENTO DE DADOS"
? "================================="
input "NUMERO DE LANZAMIENTOS = "; nl
randomize (timer) ‘ altera semilla del algoritmo RND
for n=1 to nld=int(rnd(1)*6)+1 ‘ simula lanzamiento y almacena en d
f(d)=f(d)+1 ‘ acumula las frecuencias en vector f
media=media+d ‘ acumulador global para cálculo media
next
?:? "MEDIA ARITMETICA GLOBAL = "; media/(nl-1) ‘ imprime media
?
for n=1 to 6 ‘ bucle para imprimir contadores de frecuencia
? "frecuecia absoluta de "; n; " = "; f(n)
next
end


* Ejecutable disponible en: http://inicia.es/de/elpatron/hipotesis/dados.exe
Para ejecutar directamente seleccione ABRIR en el cuadro de diálogo que le muestre el sistema al hacer click! Sobre el enlace

Pero, tal y como anotábamos con anterioridad, la variables pseudoaleatorias no dejan de ser una solución a medias, por lo que a medida que aumenta la complejidad en los experimentos de simulación el investigador puede no disponer de mecanismos fiables que le permitan garantizar la normalidad de la simulación y la calidad suficiente del generador empleado.
Si bien en la actualidad existen diversos modelos de generación pseudoaleatoria empleados con cierto éxito en procesos de simulación, siguen siendo los obtenidos mediante generadores electrónicos los únicos procedimientos considerados puramente aleatorios, pese a que tampoco están exentos de inconvenientes como hemos detallado con anterioridad.
La generación aleatoria de variables para las matemáticas es hoy una asignatura pendiente en pleno vigor, una brecha abierta que probablemente jamás termine de cerrar. Como ustedes pueden ya imaginar la cuestión no es baladí y las soluciones actuales al problema distan bastante de alcanzar la “verdad absoluta” o un “estado definitivo”. Cualquier método conocido consiste en una solución a medias, un subterfugio transitorio que nos conduce a la generación de las denominadas variables “pseudoaleatorias” cuyo prefijo alude, de forma meridiana, a la falta de pureza en su génesis y a su predecibilidad.
Otras líneas de investigación han apuntado en sentidos distintos como por ejemplo la lista infinita de decimales del número PI ó E (que surgen al ampliar la precisión de estas constantes), que si bien pueden parecer aleatorias y podrían superar los test de probabilidad necesarios además de contar con un periodo infinito, no debemos olvidar que este tipo de series siempre serán predecibles mediante un sencillo cálculo.
El ingenio de ingenieros y matemáticos no cesa en la búsqueda de nuevas e inéditas fórmulas que nos acerquen un poco más al azar puro, prueba de ello son algunos de los destacados trabajos con que cada cierto tiempo nos sorprenden algunos expertos, como por ejemplo el trabajo conjunto de Pedro Mª Alcocer Garau, José Mª García Carrasco y Luis Hernández Encinas, desarrolladores de un ingenioso y efectivo generador de bits aleatorios basado en entradas por teclado. Sin embargo, y como ellos mismo llegan a afirmar en su trabajo, “no se dispone de ninguna prueba matemática que asegure de forma categórica la aleatoriedad de una secuencia de bits”.
Los interesados en este trabajo de investigación pueden encontrar más información sobre este generador aleatorio en:
http://inicia.es/de/evr2/novatica05.pdf

El azar, ese eterno paradigma


Por cierto, aprovecho para comentar aquí que estoy terminando un gran libro sobre programación para los amantes de las viejas computadoras en el que revelo todos mis "algoritmos de computación más preciados". Llevo trabajando más de dos años en el libro y ya os adelanto que tendrá unas 400 páginas y un precio aproximado de 40-50 euros. También os adelanto que la obra será personalizada para el lector, es decir, incluirá sus datos personales y en todo momento me dirigiré a él expresamente por su propio nombre para explicarle y detallarle la metodología de programación empleada en sus más de 60 aplicaciones prácticas. Sólo espero que sea una obra a tener en cuenta y que logre su principal objetivo que no es otro que introducir al lector en la apasionante aventura de la programación de computadoras.


¿ Existe en realidad el azar? ¿Qué hay de cierto en el proyecto de la conciencia global basado en los generadores aleatorios de ceros y unos ?

INTRODUCCIÓN
Observe las siguientes series de números:
1ª serie) 2 – 4 – 6 – 8 – 10 - 12
2ª serie) 1 – 2 – 6 – 7 – 11 - 18
3ª serie) 1 – 2 – 3 – 4 – 5 - 6
Si tuviéramos que decidir de forma intuitiva cuál de estas reducidas series (compuestas sólo por cinco variables) es aleatoria, nos decantaríamos casi con total seguridad por la segunda, pero a la hora de ofrecer alguna explicación y tratar de responder a la pregunta de ¿porqué?, caeríamos en la duda y tras una profunda reflexión llegaríamos a la conclusión de que cualquiera de las tres series puede ser aleatoria. El azar, tan simple y tan complejo, tan exacto y tan impredecible, tan accesible y tan inalcanzable, matemáticos y filósofos prosiguen su búsqueda hacia el azar en estado puro, en busca de su esencia.
No podemos obviar que algo tan intrascendente como lanzar una moneda al aire ha decidido en ocasiones (y lo seguirá haciendo), el curso de la historia. En un acto tan aparentemente sencillo subyace la esencia del azar. El azar está presente en nuestras vidas, en la sociedad, en la ciencia, pero ¿es realmente azar? ó ¿se trata en realidad de sucesos en los que se ven involucradas un número de variables imposibles de totalizar?
La proyección práctica del azar en matemáticas e informática nos conduce irremediablemente a la generación de variables aleatorias y más ampliamente al campo de la simulación en supuestos de incertidumbre aplicables en física, ingeniería, biología, medicina, etc. En este cometido, el investigador vuelve a chocar nuevamente contra la confusión de un concepto ambiguo y con interpretaciones tan diversas entre las que cabe incluso la de llegar a negar su propia existencia. Partiendo de este precepto determinante, los matemáticos vuelven a plantearse la pregunta ¿cómo podemos alcanzar una solución a un problema que tal vez no exista o que al menos somos incapaces de definir objetivamente desde una ciencia exacta como las matemáticas?