MI
ÚLTIMO PROYECTO INFORMÁTICO:
GUTENBERG 3.0 es un sencillo y potente software Gestor Documental para Windows (x86/x64) completamente gratuito:
... y ya a está listo !!!
· · · · · · · · · · · · · · · · · · · · ·
· · · · · · · |
Esta obra está bajo una licencia
de Creative Commons.
El
azar nos hace conocer personas que pueden convertirse en
lo más importante de nuestra vida, el azar provoca castástrofes
históricas que podían no haber ocurrido jamás, el azar nos
da el amor, la tristeza, la felicidad, nos da la vida y
nos la quita, y parece regir todos y cada unos de los aspectos
de nuestra vida y la del mundo, pero ...
¿Existe realmente el azar?
Este es un trabajo independiente no vinculado
con el Proyecto de la Conciencia Global - GCP (The Global
Consciousness Project).
"Sólo la investigación desde el más
sesudo escepticismo nos permitirá alcanzar conclusiones
objetivas."
Rafael Lomeña
Varo
Observe las siguientes
series de números:
1ª serie) 2 4
6 8 10 - 12
2ª serie) 1 2
6 7 11 - 18
3ª serie) 1 2
3 4 5 - 6
Si tuviéramos que decidir de forma
intuitiva cuál de estas reducidas series (compuestas sólo
por seis variables) es aleatoria, nos decantaríamos casi
con total seguridad por la segunda, pero a la hora de ofrecer
alguna explicación y tratar de responder a la pregunta de
¿porqué?, caeríamos en la duda y tras una profunda reflexión
llegaríamos a la conclusión de que cualquiera de las tres
series puede ser aleatoria. El azar, tan simple y tan complejo,
tan exacto y tan impredecible, tan accesible y tan inalcanzable,
matemáticos y filósofos prosiguen su búsqueda hacia el azar
en estado puro, en busca de su esencia.
No podemos obviar que algo tan intrascendente
como lanzar una moneda al aire ha decidido en ocasiones
(y lo seguirá haciendo), el curso de la historia. En un
acto tan aparentemente sencillo subyace la esencia del azar.
El azar está presente en nuestras vidas, en la sociedad,
en la ciencia, pero ¿es realmente azar? ó ¿se trata en realidad
de sucesos en los que se ven involucradas un número de variables
imposibles de totalizar?
La proyección práctica del azar en
matemáticas e informática nos conduce irremediablemente
a la generación de variables aleatorias y más ampliamente
al campo de la simulación en supuestos de incertidumbre
aplicables en física, ingeniería, biología, medicina, etc.
En este cometido, el investigador vuelve a chocar nuevamente
contra la confusión de un concepto ambiguo y con interpretaciones
tan diversas entre las que cabe incluso la de llegar a negar
su propia existencia. Partiendo de este precepto determinante,
los matemáticos vuelven a plantearse la pregunta ¿cómo podemos
alcanzar una solución a un problema que tal vez no exista
o que al menos somos incapaces de definir objetivamente
desde una ciencia exacta como las matemáticas?
GENERACIÓN DE NÚMEROS ALEATORIOS (GNA's)
|
Si bien existen diversos
métodos para la generación de números aleatorios como por
ejemplo el lanzamiento de monedas o dados, ruletas, etc.,
estos sistemas manuales resultan, por razones obvias, ineficaces
en labores de investigación y aplicaciones informáticas,
en cuyas tareas suelen emplearse métodos informáticos basados
en hardware o software.
1) Hardware: entre
los métodos hardware encontramos los sistemas basados en
excitación de átomos radiactivos, el recuento de partículas
emitidas, el ruido blanco producido por circuitos electrónicos,
el ruido térmico de un diodo semiconductor, etc. Un buen
ejemplo de ruido aleatorio pueden ser los puntos blancos
y negros que muestra una televisión cuando no tiene sintonizado
ningún canal, en tal caso, los puntos negros podrían equivaler
a ceros y los puntos blancos a unos. En todos estos métodos,
las salidas aleatorias suelen ser registradas por ordenador
al objeto de poder recuperar la secuencia en un momento
determinado, así como someterla a los tests pertinentes
que certifiquen la validez de dichos sistemas. A pesar de
poseer características propias inalcanzables por los generadores
basados en algoritmos determinísticos (principalmente período
infinito en las series e impredecibilidad absoluta) que
le permiten rozar la aleatoriedad absoluta, sin embargo,
y pese a que dichos fenómenos físicos puedan ser considerados
como verdaderamente aleatorios e incluso superar cualquier
prueba de contraste a la que se les someta, ¿creen realmente
que dichos generadores pueden mostrarse absolutamente insensibles
bajo cualquier circunstancia? Seguramente no, algo distinto
es que los factores condicionantes escapen de nuestro control
y la posibilidad de ser identificados. De hecho, existen
trabajos en este sentido como The Logic of Statistical
Interference (I. Hacking 1967) que revelan sesgos
e irregularidades en algunos de estos mecanismos. Además,
entre los principales inconvenientes para su uso en simulación, podemos
destacar:
- Una considerable lentitud de generación
que dificulta la simulación de procesos complejos en los
que se requiera el cálculo con millones de variables aleatorias.
- La imposibilidad de reproducir
la misma secuencia de variables en el caso que sea necesario
para, por ejemplo, la corrección de errores en un algoritmo.
- Su absoluta impredecibilidad en
cualquier circunstancia.
2) Software: Los generadores
aleatorios basados en software utilizan algoritmos determinísticos
para la generación de números pseudoaleatorios
y constituyen un pilar básico en investigación, no en vano,
el campo de la simulación (aplicable a multitud de disciplinas)
se alimenta de dichos generadores al contar éstos con importantes
ventajas frente a los generadores aleatorios basados en
fenómenos físicos. Entre sus ventajas más destacables cabe
citar la enorme velocidad de generación que ofrecen, limitada
prácticamente a la capacidad de cálculo de los sistemas
informáticos. Otra característica no menos baladí que ofrecen
al investigador es la posibilidad de reproducir la misma
secuencia cuantas veces sea necesario empleando el mismo
algoritmo y la misma semilla. Las variables pseudoaleatorias
generadas mediante algoritmos numéricos determinísticos
plenamente previsibles simulan de algún modo el azar, sin
embargo, y como era de esperar, los generadores algorítmicos
no son perfectos: antes o después suelen caer en ciclos
infinitos (periodo finito) de repetición de la serie, en
otros casos, pueden caer en repetición periódica de un mismo
número y en cualquier caso, podrían presentar sesgos y dependencias
que les aleja de los criterios de calidad óptimos deseables
para un generador aleatorio.
Algunos sencillos generadores de
ejemplo muy empleados en calculadoras científicas pueden
ser del tipo siguiente:
Ni+1 = FRC (Ni
* 9281 + 0.211327)
Ni+1 = FRC (Ni
* 2939 + Pi)
Ni+1 = FRC [ (Ni
+ Pi)5 ]
Ni+1 = FRC (Ni
* 7 + 0.13)
* El comando FRC toma sólo la parte
decimal ignorando la parte entera. |
Pese a que pueden
ser útiles en condiciones de poca exigencia, los algoritmos
incluidos en los modernos lenguajes de programación suelen
ser de mayor complejidad consiguiendo así un período mayor
(el período es el tamaño máximo de la serie que puede ofrecer
un determinado algoritmo determinístico antes de volver
a repetir los valores).
Entre las principales
ventajas de los generadores algorítmicos en simulaciones
complejas destacan:
- La enorme velocidad
de generación limitada únicamente por la capacidad del hardware
empleado siendo posible la generación de series de millones
de variables por segundo.
- La posibilidad
de reproducir idéntica serie en cualquier circunstancia.
Existen al respecto
numerosos modelos de pruebas de contraste encaminadas a
evaluar la calidad del algoritmo, evidentemente, no basta
con que la secuencia parezca aleatoria y deben cumplirse
las leyes de la probabilidad. Los más sencillos tests que
puedo ponerles como ejemplo, al margen de detectar el período
máximo que nos llevaría a repetir la serie de nuevo, serían:
- Media aritmética
de los valores de la serie: Por ejemplo, si simulamos el
lanzamiento de un dado diez mil veces, debemos obtener una
media global próxima a 3.5, que sería la media exacta de
los seis valores posibles del espacio muestral (1,2,3,4,5,6)
partiendo del enunciado:
Media
= (1+2+3+4+5+6)/6
Así en nuestra prueba
de contraste sumaríamos en un acumulador el valor de los
diez mil lanzamientos y lo dividiríamos por 6.
- Regularidad comprobable
en las frecuencias absolutas de cada uno de los valores
posibles durante todo el período.
Continuando con el
ejemplo anterior, en los diez mil lanzamientos del dado,
comprobaríamos que cada uno de los valores posibles (1,2,3,4,5,6).
En nuestro ejemplo, con 10000 lanzamientos simulados, la
frecuencia absoluta esperada para cada uno de los valores
posibles sería 10000/6.
Este podría ser más
o menos el código en BASIC de un sencillo test para comprobar
si nuestro algoritmo cumple las leyes de la probabilidad:
dim f(7) : dim n, d as integer n -> bucles y d valores
de 1 a 6
dim nl, media as double nl -> número de lanzamientos
? "SIMULADOR DE LANZAMIENTO DE DADOS"
? "================================="
input "NUMERO DE LANZAMIENTOS = ";
nl
randomize (timer) altera semilla del algoritmo
RND
for n=1 to nl
d=int(rnd(1)*6)+1 simula lanzamiento y almacena
en d
f(d)=f(d)+1 acumula las frecuencias en vector
f
media=media+d acumulador global para cálculo
media
next
?:? "MEDIA ARITMETICA GLOBAL = ";
media/(nl-1) imprime media
?
for n=1 to 6 bucle para imprimir contadores
de frecuencia
? "frecuecia absoluta de "; n; "
= "; f(n)
next
end
|
* Ejecutable disponible en:
https://calentamientoglobalacelerado.net/dados.exe
Para ejecutar directamente seleccione
ABRIR en el cuadro de diálogo que le muestre
el sistema al hacer click! Sobre el enlace |
|
Pero, tal y como
anotábamos con anterioridad, la variables pseudoaleatorias
no dejan de ser una solución a medias, por lo que a medida
que aumenta la complejidad en los experimentos de simulación
el investigador puede no disponer de mecanismos fiables
que le permitan garantizar la normalidad de la simulación
y la calidad suficiente del generador empleado.
Si bien en la actualidad existen diversos
modelos de generación pseudoaleatoria empleados con cierto
éxito en procesos de simulación, siguen siendo los obtenidos
mediante generadores electrónicos los únicos procedimientos
considerados puramente aleatorios, pese a que tampoco están
exentos de inconvenientes como hemos detallado con anterioridad.
La generación aleatoria de variables para
las matemáticas es hoy una asignatura pendiente en pleno
vigor, una brecha abierta que probablemente jamás termine
de cerrar. Como ustedes pueden ya imaginar la cuestión no
es baladí y las soluciones actuales al problema distan bastante
de alcanzar la verdad absoluta o un estado
definitivo. Cualquier método conocido consiste en
una solución a medias, un subterfugio transitorio que nos
conduce a la generación de las denominadas variables pseudoaleatorias
cuyo prefijo alude, de forma meridiana, a la falta de pureza
en su génesis y a su predecibilidad.
Otras líneas de investigación han apuntado
en sentidos distintos como por ejemplo la lista infinita
de decimales del número PI ó E (que surgen al ampliar la
precisión de estas constantes), que si bien pueden parecer
aleatorias y podrían superar los test de probabilidad necesarios
además de contar con un periodo infinito, no debemos olvidar
que este tipo de series siempre serán predecibles mediante
un sencillo cálculo.
El ingenio de ingenieros y matemáticos no
cesa en la búsqueda de nuevas e inéditas fórmulas que nos
acerquen un poco más al azar puro, prueba de ello son algunos
de los destacados trabajos con que cada cierto tiempo nos
sorprenden algunos expertos, como por ejemplo el trabajo
conjunto de Pedro Mª Alcocer
Garau, José Mª García Carrasco y Luis Hernández Encinas, desarrolladores
de un ingenioso y efectivo generador de bits aleatorios
basado en las entradas por teclado. Sin embargo, y como
ellos mismo llegan a afirmar en su trabajo, no se
dispone de ninguna prueba matemática que asegure de forma
categórica la aleatoriedad de una secuencia de bits.
Los interesados en este trabajo de investigación
pueden encontrar más información sobre este generador aleatorio
en:
https://calentamientoglobalacelerado.net/novatica05.pdf
DEL AZAR A LA SIMULACIÓN.
PRÁCTICAS EXPERIMENTALES
|
En el campo de la
simulación por computador, la generación de series de números
aleatorios se realiza normalmente (dadas sus ventajas descritas
en el apartado de los GNA) mediante algoritmos determinísticos.
Con estos generadores, también denominados pseudoaleatorios,
el investigador puede reproducir en cualquier momento la
serie empleando el mismo algoritmo y la misma semilla.
Tal y como hemos
visto en el apartado de GNAs, existen multitud de
algoritmos destinados a tal fin y aunque matemáticos y otros
expertos continúan trabajando en nuevas soluciones, lo cierto
es que cualquiera de nosotros, incluso con escasos conocimientos
de programación, puede acceder a estos generadores algorítmicos
de forma sencilla, ya que todos los intérpretes suelen integrar
entre sus comandos un generador aleatorio de calidad suficiente
para la experimentación. El archiconocido RND, implementado
incluso en calculadoras científicas, consiste en un algoritmo
determinístico que cada fabricante decide incorporar.
El siguiente ejemplo
nos acerca a la simulación por el conocido método de Monte
Carlo y se trata de una adaptación propia del modelo expuesto
en el libro Investigación de operaciones (Hamdy
A. Taha 1997) por considerarla
más flexible y de mayor sencillez de implementación (codificación).
La simulación de
Monte Carlo nos permite alcanzar los resultados de un experimento
de forma estimada mediante el uso de un muestreo aleatorio
y el análisis de los resultados obtenidos con dicho muestreo.
Es considerado el precursor por excelencia de la simulación
moderna.
Así, en el programa
del siguiente ejemplo, de forma estimada se calcula un área
rectangular circunscrita en un área mayor. Describo el código
a grandes rasgos la zona de comentarios para intentar llegar,
en la medida de lo posible, a los profanos en la programación.
Yo he utilizado para
el desarrollo un potente compilador (con entorno integrado)
llamado FreeBASIC (por el tipo de sintaxis propia del lenguaje
basic) que genera un código ejecutable de altísimo rendimiento.
La aplicación es de licencia pública y está disponible en:
http://www.freebasic.net
DECLARACION DE VARIABLES |
EL PRESENTE PROGRAMA
CALCULA EL AREA DEL RECTANGULO MENOR MEDIANTE SIMULACION
POR EL METODO DE MONTECARLO.
EL ÚNICO DATO CONOCIDO
ES EL ÁREA RECTANGULAR MAYOR , APARTIR DE AHÍ,
EL ALGORITMO INCLUIDO EN EL PROGRAMA ESTIMA EL
AREA MENOR BASÁNDOSE EN EL PORCENTAJE DE PIXELS
ALEATORIOS QUE CAEN EN EL INTERIOR DE DICHA ÁREA
DURANTE LA SIMULACION.
|
X=80
Y=100
X1=300
Y1=240 |
SE ESTABLECE LAS
COORDENADAS DEL ÁREA MAYOR
(ESQUINA SUPERIOR IZDA. E INFERIOR DERECHA) |
bx = INT (RND (1) * 100)
+ 90
by = INT (RND (1) * 50) + 110
bx1 = INT (RND (1) * 100) + bx +30
by1 = INT (RND (1) * 50 ) + 180 |
SE ESTABLE AREA
MENOR ACOTADA PERO ALEATORIA DE FORMA QUE LA SIMULACIÓN
SIEMPRE CALCULA ÁREAS DIFERENTES
(ESQUINA SUPERIOR IZDA. E INFERIOR DERECHA) |
LINE (X, Y) - (X1, Y1),,b
LINE (bx, by) - (bx1, by1),, b |
TRAZA AREA RECTANGULAR
MAYOR
TRAZA ÁREA RECTANGULAR MENOR QUE DEBEMOS CALCULAR |
INPUT "> ENTRE
TAMAÑO DE LA MUESTRA DE LA SIMULACION : ";
mues |
SE PIDE AL USUARIO
QUE ESTABLEZCA EL NÚMERO DE ITERACIONES |
RANDOMIZE TIMER |
SENCILLA PERO EFICAZ.
ESTABLECE LA SEMILLA PARA LA SERIE PSEUDOALEATORIA
QUE GENERARÁ EL ALGORITMO DETERMINISTICO IMPLEMENTADO
POR EL FABRICANTE DEL COMPILADOR . ES UNA VIEJA
ARGUCIA MUY UTILIZADA EN PROGRAMACIÓN. TIMER ES
UNA VARIABLE DEL SISTEMA QUE ALMACENA UN VALOR SECUENCIAL
TOMADO DEL RELOJ INTERNO DEL SISTEMA, LO CUAL OTORGA
UNA GARANTÍA CASI ABSOLUTA DE QUE CADA VEZ QUE SE
INICIA LA SEMILLA PARA EL COMANDO RND ESTA TENDRÁ
UN VALOR DIFERENTE, EVITÁNDOSE ASÍ LA POSIBLE REPETICIÓN
DE LA SERIE. |
aremay= (X1 - X) * (Y1
- Y)
aremen= (bx1 - bx) * (by1 - by) |
CALCULA EL AREA
MAYOR REAL POR FÓRMULA DE GEOMÉTRIA: ÁREA= BASE
x ALTURA.
CALCULA EL AREA MENOR REAL POR FÓRMULA DE GEOMÉTRIA
(IDEM) SOLO PARA CONTRASTAR CON EL AREA ESTIMADA
POR SIMULACIÓN |
dentro = 0
fuera = 0 |
ESTAS VARIABLES
ACTÚAN A MODO DE ACUMULADORES Y NOS SIRVEN PARA
CONTABILIZAR LOS PIXELS QUE CAEN DENTRO O FUERA
DEL ÁREA RECTANGULAR MENOR. EN BASE A ESTAS VARIABLES
SE CALCULA EL PORCENTAJE QUE APLICAREMOS EN LA ESTIMACION
DEL ÁREA MENOR |
for n = 1 to mues |
INICIA EL BUCLE
DE ITERACIONES PARA SIMULACIÓN QUE REPETIRÁ EL ALGORITMO |
sx = int (rnd (1) * (X1
- X)) + X
sy = int (rnd (1) * (Y1 - Y)) + Y
pset (sx , sy ) |
ESTABLECE LAS COORDENADAS
DEL PIXEL EN EL ÁREA CIRCUNSCRITA POR EL RECTÁNGULO
MAYOR DE FORMA PSEUDOALEATORIA Y DIBUJA EL PIXEL
EN LAS COORDENADAS |
IF sx>=bx AND sx<=bx1
AND sy>by AND sy<by1 THEN
dentro = dentro + 1
ELSE
fuera = fuera + 1
END IF |
SE COMPRUEBA SI
EL PIXEL ESTÁ DENTRO O FUERA DEL ÁREA RECTANGULAR
MENOR. SI ESTA DENTRO SE INCREMENTA LA VARIABLE
dentro , SI NO SE INCREMENTA LA VARIBLE
fuera' |
porcen = (dentro * 100)
/ n
amensim = ((porcen/100) * aremay) |
CALCULA EL PORCENTAJE
DEL TOTAL DE PIXELS QUE CAEN DENTRO DEL ÁREA MENOR
RECTANGULAR.
CALCULA EL AREA MENOR EN FUNCIÓN DEL PORCENTAJE
OBTENIDO Y LO ALMACENA EN LA VARIABLE amensim |
NEXT n |
CIERRA EL BUCLE
DE ITERACIONES. TODO EL CÓDIGO ENCERRADO ENTRE EL
FOR
TO Y EL NEXT SE REPITE N VECES |
|
Captura del programa de simulación de Monte
Carlo para el cálculo estimado del área. Ejecutable
y código fuente original disponible en:
https://calentamientoglobalacelerado.net/simulacion.exe
Para ejecutar directamente seleccione
ABRIR en el cuadro de diálogo que le muestre
el sistema al hacer click! Sobre el enlace |
|
EL PROGRAMA SIMULA Y LOS JUEGOS
DE AZAR
|
Mi primer contacto con el azar y la simulación
se remonta aproximadamente al año 1984 cuando, empujado
por mi padre y con apenas 13 años de edad, inicié la búsqueda
de un método que nos permitiera conocer las posibilidades
reales de acierto en el juego de la Lotería, nuevo en España
por aquel entonces. Así, sin incluir una sola fórmula de
combinatoria en el programa y amparándome únicamente en
la generación pseudoaleatoria de sorteos y en el control
estadístico de éstos llegaba, casi sin darnos cuenta, a
la simulación matemática. Nuestro mayor inconveniente tal
vez fue confiar toda nuestra idea e ilusión a un hardware
de la época realmente limitado, a mi añorado y siempre querido
Sinclair ZX-Spectrum. El fruto de esa idea se llamó SIMULA,
pero la escasa capacidad de cálculo de los microordenadores
de 8 bits no permitían gran cosa por ello, algunos años
más tarde (1987) volví a rescribir el programa para mi entonces
flamante Commodore Amiga-500 y posteriormente, ya en los
años 90, volvía a adaptar el código fuente a compiladores
de MS-Dos para poder rodar la aplicación en plataformas
compatibles y de algún modo no perderla definitivamente
como consecuencia de la siempre problemática migración de
aplicaciones derivada de la rápida evolución de los sistemas
informáticos. Después de tantos años y tantas horas de dedicación,
resulta gratificante saber que aún hoy (según he podido
comprobar en algún foro y por parte expresa de usuarios)
siguen utilizando algunos amantes del juego de azar como
programa referencia en cuanto a simulación y análisis de
juegos de azar se refiere. No puedo ocultar una inmensa
alegría al recibir alguna llamada de algún usuario desde
cualquier punto de España interesándose por posibles actualizaciones
y felicitándome por el trabajo. El saber del reconocimiento
a un trabajo que, padre e hijo diseñamos con la maravillosa
sensación de haber descubierto algo nuevo, una ilusión inculcada
por él que, 14 años después de su muerte, aún conservo intacta,
no exactamente en los juegos de azar, pero sí como filosofía
de vida aplicable a cualquier cosa que haga.
La simulación nos ofrece respuestas a problemas
en los que la incertidumbre o el desconocimiento no permiten
el uso de algoritmos determinísticos. Así, SIMULA puede
encuadrarse en lo que hoy se denomina computación
aleatorizada al basar, todo su funcionamiento en un
algoritmo probabilístico. Los algoritmos probabilísticos
se utilizan en casos en los que, o bien se desconocen las
fórmulas determinísticas, o bien no resulta factible su
aplicación por resultar poco eficiente. He de confesar que,
tanto mi padre como yo mismo, desconocíamos las fórmulas
de combinatoria necesarias para conseguir nuestros objetivos
cuando desarrollé la 1ª versión del programa hacia 1984,
pero la simulación, y en definitiva el uso de un algoritmo
probabilístico, nos permitió en aquel momento alcanzar respuestas
contundentes al problema que no era otro que conocer las
posibilidades reales de acierto con diferentes sistemas
de juego para intentar acercarnos, de alguna forma, a un
sistema de máximo rendimiento a través de lo que yo denominaría
métodos de alto riesgo (en los que se desecha la mayor parte
de los números para conseguir aumentar las posibilidades
de premios)
La última versión que desarrollé del programa
SIMULA (software de experimentación aleatoria destinado
al juego de azar) es totalmente gratuita y se encuentra
disponible en una de mis webs:
https://calentamientoglobalacelerado.net/ia/software
Esta versión incluye
sistema automatizado de instalación/desinstalación,
documentación completa integrada y es compatible
con todas las versiones Windows incluida XP y
Vista. También corre fácilmente sobre sistemas
LiNuX mediante emulación tipo Wine, etc.
|
El desarrollo de
Simula me ayudó a comprender mejor el azar y sus peculiaridades,
la simulación y el análisis e interpretación de datos, y
también a adquirir un mayor conocimiento sobre la generación
de variables pseudoaleatorias en modernos compiladores y
diversos lenguajes. En el caso de Simula se emplea el algoritmo
determinístico de generación aleatoria integrado en el propio
compilador, con ello se garantiza la máxima optimización
y rendimiento haciendo posible el lanzamiento de varios
millones de sorteos en apenas un minuto incluso en procesadores
lentos y superando además todas las pruebas de contraste
realizadas no sólo mediante formulas de combinatoria, sino
con archivos históricos reales. Bajo mi experiencia, el
algoritmo determinístico integrado en el compilador no resta
ni un solo ápice de fiabilidad en las predicciones del programa.
Los resultados gozan de una precisión encomiable y resulta
fiable en cualquier situación y en todos sus cálculos. A
mi juicio, SIMULA puede superar prácticamente cualquier
prueba de aleatoriedad a la que sea sometido.
Por otro lado, SIMULA
me ha llevado (y puede conducir a cualquiera que trabaje
con él) a conclusiones drásticas sobre los juegos de azar,
tal y como intentaré demostrar a continuación. Para conseguir
clarificar al máximo mis ideas, he preparado un pequeño
programa de ejemplo que, pese a su sencillez, puede resultar
bastante esclarecedor. Consiste en un sencillo algoritmo
formado por varios bucles anidados capaz de desarrollar
en algunos minutos (el ejemplo de la imagen está ejecutado
en un lento procesador Pentium 3 @ 450 Mhz)
todas las combinaciones posibles del juego de la lotería
primitiva, basado en variaciones con repetición de 49 elementos
tomados de 6 en 6.
Captura del programa modelo de combinatoria
compilado para plataformas Windows 32 bits (9x/ME/NT/2000/XP).
Ejecutable en:
https://calentamientoglobalacelerado.net/variaciones.exe
Para ejecutar directamente seleccione
ABRIR en el cuadro de diálogo que le muestre
el sistema al hacer click! Sobre el enlace |
|
Al ejecutar este programa y si es usted el
afortunado poseedor de un ordenador de última generación
(de no ser así tendrá que esperar un poco más), en pocos
minutos desfilará ante sus ojos la combinación ganadora
del próximo sorteo de la lotería primitiva, sí una combinación
que podría llevarle a ganar varios millones de euros o incluso
más. Ésta que hago es una afirmación categórica e incuestionable
pero la conclusión a la que pretendo llevarle no lo es menos,
y es que haga usted lo que haga, juegue con el sistema que
juegue, utilice los medios que utilice (software, hardware)
y aplique los métodos que aplique, SIEMPRE deberá enfrentarse
de forma irrefutable a los casi 14 millones de combinaciones
posibles.
Con esta afirmación
quiero rebatir algunas de las falsas teorías
que se han desarrollado a lo largo la historia sobre este
tipo de juegos. Debemos así admitir que jugar un número
determinado de combinaciones, independientemente del modo
en el que se distribuyan éstas, nuestras posibilidades de
premios serán siempre las que le correspondan al número
total de combinaciones jugadas frente al total de combinaciones
posibles. Puede ésta ser una postura desalentadora y cuestionada
por los apasionados de este u otros juegos de azar similares,
pero no podemos luchar contra las leyes de la combinatoria.
El programa SIMULA
nos ofrece, siempre a través de la simulación y nunca mediante
fórmulas de combinatoria, la posibilidad de plantear diferentes
situaciones en el juego de azar. Los resultados arrojados
por el programa son, en cualquier caso, determinantes.
EL GCP (Proyecto de la Conciencia Global)
Y LOS GNAs
|
A pesar de que algunos documentos de reconocida
rigurosidad científica (Investigación de operaciones
- Hamdy A. Taha 1997) reconocen a los generadores electrónicos
como puramente aleatorios, quizá basando su criterio en
la imposibilidad de duplicar la misma secuencia de números
por su impredecibilidad, lo cierto es que algunos investigadores
han descubierto que la generación de variables aleatorias
mediante métodos electrónicos presentan sesgos y dependencias,
es decir, fluctuaciones irregulares en determinados puntos
de una serie (The Logic of Statitistical Inference -
I. Hacking 1967) tal y como se citaba con anterioridad.
Al hilo de este tema
y en relación con los generadores electrónicos de números
aleatorios, curiosas investigaciones como el Proyecto de
la Conciencia Global - GCP ( www.noosphere.princeton.edu ) podrían llegar
a arrojar luces sobre estos generadores aleatorios si los
investigadores son capaces de aislar e identificar las variables
que provocan dichos sesgos y de qué modo interfieren en
el azar, siempre al margen del sensacionalismo que los medios
y otros círculos profanos puedan atribuir a este tipo de
investigaciones.
A juzgar por el enfoque
de ciertos medios e incluso del website oficial, no podemos
negar que el proyecto esté impregnado de cierto halo metafísico,
pero tampoco debemos precipitarnos en un dictamen carente
de fundamento.
Resumen y citas literales del
Artículo de Eduardo Martínez del 20 de febrero de
2005 sobre el GCP.
Artículo completo publicado en:
http://www.tendencias21.net
Una red mundial de generadores
de números aleatorios muestra anomalías de funcionamiento
cuando se producen acontecimientos que afectan
a millones de personas, según un experimento iniciado
en 1998 y que hoy tiene presencia en países de
todos los continentes. La red se llama The Global
Consciousness Project (GCP) y representa el primer
esfuerzo internacional para explotar si la atención
social que comparten millones de personas cuando
ocurren determinados acontecimientos relevantes,
puede ser medida y validada científicamente. La
red GCP lleva operando desde hace 35 años y tiene
presencia en 65 países, desde Alaska a las islas
Fidji. Funciona en todos los continentes del globo
y en todas las franjas horarias. En ella trabajan
75 investigadores, analistas e ingenieros.
Aunque está alojada oficialmente
en la Universidad de Princeton (http://noosphere.princeton.edu/) y muchos de los investigadores
participantes forman parte del estrato académico,
la red GCP no está financiada por subvenciones
universitarias, sino por una serie de patrocinadores.
Entre ellos destacan The Princeton Engineering
Anomalies Research (http://www.princeton.edu/%7Epear/) y The Linux Documentation
Project (http://www.ibiblio.org/mdw/index.html).
The Princeton Engineering Anomalies
Research (PEAR) fue creado en 1979 por el
decano de la Escuela de Ingeniería y Ciencia Aplicada
de la Universidad de Princeton, Robert G. Jahn
(http://www.princeton.edu/%7Epear/jahn.html), con la finalidad de estudiar
científicamente la interacción entre la conciencia
humana y los instrumentos mecánicos y físicos.
Entre los artículos explicativos de esta experiencia
destaca el publicado por la revista Foundations
of Physics Letters (el texto integro ha sido
difundido por GCP http://noosphere.princeton.edu/ )
Robert G. Jahn ha dedicado un equipo
de ingenieros, físicos, sicólogos y humanistas
a desarrollar una serie de experimentos y elaborar
modelos teóricos que contribuyan a explicar el
papel que juega la conciencia en el establecimiento
de la realidad física.
Los generadores funcionan constantemente,
generando millones de números y gráficos segundo
a segundo, día a día, extraídos del ruido cuántico.
La mayoría del tiempo, el gráfico que refleja
los resultados de este juego aleatorio se mantiene
más o menos en una línea plana, que refleja la
probabilidad. Sin embargo, el 6 de septiembre
de 1996, cambió, el gráfico subió hacia arriba,
registrando un cambio repentino. Los científicos
lo achacaron a la atención centrada de millones
de personas en el entierro de Diana de Gales en
la abadía de Westminster. En otros momentos, importantes
acontecimientos sucedidos en el mundo hicieron
variar las fluctuaciones aleatorias derivadas
de las máquinas GNA: el bombardeo de la OTAN sobre
Yugoslavia, la tragedia submarina del Kursk, las
vísperas de año nuevo.
Sin embargo, lo más sorprendente
estaba aún por llegar. El 11 de septiembre de
2001, cuatro horas antes de que las torres gemelas
sufrieran el ataque terrorista de dos aviones
suicidas, los gráficos comenzaron a trastocarse,
como si la conciencia humana previera que algo
terrible, impactante e importante para la comunidad
global fuera a suceder.
Las desviaciones registradas el
11S en las pulsiones aleatorias no pueden atribuirse
a alteraciones electromagnéticas o excesivo uso
de los móviles, tal como explican los protagonistas
de esta experiencia en el Journal of Scientific
Exploration http://noosphere.princeton.edu/papers/jseNelson.pdf.
En aquel momento, las variaciones
en el orden numérico parecieron un fruto del mero
azar, pero en diciembre de 2004, las máquinas
parecieron volverse locas de nuevo. Veinticuatro
horas antes de que sucediera el inmenso terremoto
del Océano Índico que tanto afectara al Asia suroriental,
devastando las costas y matando a 250 mil personas,
los gráficos se trastocaron de nuevo.
Algunos científicos insisten en
que todo puede ser casualidad, a pesar de que
el equipo de Princeton señala que es muy difícil
cambiar el orden aleatorio de los números al azar,
sin que haya causa de peso para ello.
La investigación, aunque tiene
ya 35 años, está todavía en sus primeros pasos
y no puede considerarse concluyente, si bien sugiere
que una relación todavía desconocida para la ciencia
existe entre el mundo físico y el mundo de la
conciencia.
El dr. Nelson, miembro del euqipo
de Princeton, en declaraciones a RedNova
(http://www.rednova.com/news/display/?id=126649 ) señala sin embargo que la importancia
de los resultados registrados en los gráficos
radicaría en que, a pesar de que todos funcionemos
como individuos, parece ser que hay algo mayor,
un elemento común en nuestras conciencias, un
elemento global, si bien cuando se habla de
conciencia global se trata únicamente de una metáfora.
Eduardo Martínez del 20 de febrero
de 2005
|
Cuando oí hablar
por primera vez del G.C.P. (www.noosphere.princeton.edu ) me interesé rápidamente
por conocer los entresijos de este proyecto así como la
metodología y sistema empleado en la obtención de las variables
aleatorias objeto del estudio. En una primera reflexión
lógica con la escasa información disponible y apoyado en
mi experiencia con el azar y de las computadoras adquirida
en el desarrollo de mi programa SIMULA ( comentado en el
capítulo anterior), por la falta de datos pude deducir únicamente
que no podía tratarse de generadores pseudoaleatorios (basados
en algoritmos determinísticos) sino que debía tratarse de
generadores electrónicos, hecho que pude corroborar con
posterioridad en la web oficial y en otros artículos relativos
al proyecto.
Al profundizar un
poco más en el asunto y tras la búsqueda en La Red y lectura
de varios artículos que versaban sobre el tema, tuve la
percepción de que parecía no tratarse de un grupo de astrólogos
en busca de la combinación ganadora del sorteo de la próxima
semana y, pese a que debo confesar cierto escepticismo sobre
el enfoque a priori, también he de confesarles que el proyecto
despertó en mí un especial interés por abrazar el siempre
apasionate mundo de la aleatoriedad. Es por ello que quiero
expresar algunas objeciones al respecto.
Para introducir al
incrédulo absoluto en la saludable duda les contaré algo
acerca del cerebro humano y sus frecuencias de trabajo.
El cerebro funciona
a distintas frecuencias dependiendo de su estado. Aunque
coexisten varias frecuencias en un mismo estado, normalmente
se asocia el estado mental a la frecuencia predominante.
En la tabla siguiente se da una breve explicación de las
distintas frecuencias y su estado asociado:
Onda |
Frecuencia
(*) |
Estado |
Beta |
13-40 Hz |
Despierto, alerta. Es el estado normal de
funcionamiento consciente. Las frecuencias más elevadas
pueden ser síntomas de stress y ansiedad. |
Alfa |
7-13 Hz |
Estado de relajación, concentración, super
aprendizaje. |
Theta |
3.5-7 Hz |
Relajación profunda, hipnosis. |
Delta |
0-3.5 Hz |
Sueño profundo, inconsciencia. |
(*) No existen
unos límites claros entre unas frecuencias y otras.
La clasificación dada es comúnmente aceptada, aunque
los límites de frecuencias pueden variar de unos
autores a otros http://www.brainled.tk/ |
La expectación, la
inquietud, la ansiedad y el nerviosismo son estados que,
de forma demostrada, pueden producir variaciones en la frecuencia
cerebral pasando de los 7-13 hz propios de un estado de
relajación y concentración a registros que pueden rebasar
en ocasiones los 40 hz. Las frecuencias altas también se
caracterizan por su bajo voltaje (menor recorrido en la
oscilación gráfica del electro encéfalo grama EGG) frente
a las frecuencias bajas o de alto voltaje.
También es sabido
que es posible alterar la frecuencia predominante del cerebro
mediante inducción. Este sistema es el utilizado por curiosos
trabajos como www.brainled.tk en el que mediante
un software y unos auriculares convencionales se aplican
sonidos de diferente frecuencia a cada oído, consiguiendo
que el cerebro se ajuste por interpolación a la frecuencia
intermedia de ambas señales.
Tampoco deberíamos
obviar la característica del aire como elemento continuo
(carente de vacío) y a través del cual se vienen desarrollando
continuamente nuevos sistemas de comunicaciones de señales
que aprovechan las cualidades de este medio. Con esto, no
pretendo convecerles de que todos los humanos disponen en
su cerebro de un dispositivo bluetooth formando una malla
de conexión global, ni mucho menos, pero en investigación
creo que es importante no descartar posibilidades por extrañas
que puedan resultarnos si consideramos que pueden estar
sustentadas en un fundamento lógico por muy leve que sea
nuestra intuición.
A mi juicio, y sin
descartar la investigación basada en la asociación a eventos
significativos de ámbito global, podríamos establecer una
clara línea de análisis en la búsqueda de posibles variables
potenciales con capacidad de provocar sesgos e irregularidades
manifiestas en la secuencia aleatoria sometiendo a los GNAs
a una batería de pruebas. A tal efecto, se me ocurre que
podríamos enumerar grosso modo posibles factores determinantes
en la influencia de fluctuaciones y a los que debería de
someterse de forma prioritaria a estos generadores:
- Colapso en
vías de comunicación: satélite, telefonía fija y móvil,
radiofrecuencia, diferentes combinaciones de éstas.
- Alteraciones
en campo magnético terrestre producidos por desplazamiento
de placas tectónicas, terremotos, etc.
- Alteraciones
climatológicas bruscas: tormentas eléctricas, huracanes,
radiación solar, variaciones significantes de parámetros
climáticos (temperatura, humedad relativa, etc.)
- Alteraciones
anímicas colectivas provocadas (ansiedad, inquietud, miedo,
stress, etc) mediante simulacros sin conocimiento previo
por parte de los sujetos experimentales, efectuándose
en grupos diversos y bajo diferentes condiciones.
- Pruebas experimentales
de tipo térmicas sometiendo los generadores a temperaturas
extremas así como a ciclos.
- Proyección
constante e intermitente de sonidos de diferentes frecuencias
sobre los generadores a diferentes intensidades
- También deberían
evaluarse por separado y de forma simultánea generadores
aislados al vacío frente a otros sin aislamiento.
En definitiva, se
trataría de someter a los GNAs a una batería de pruebas
para lograr aislar las variables implicadas en las fluctuaciones.
Acerca del GCP, con
la escasa información que he podido recopilar y aprovechando
el descubrimiento en La Red de este potente compilador (FreeBASIC32)
gracias a un viejo amigo, he desarrollado una pequeña aplicación
que podría destinarse al análisis continuo del muestreo
aleatorio de los GNAs. Su nombre es pcgNORM. El programa simula
de forma continua un muestreo aleatorio de 200 bits (ceros
ó unos) por segundo emitidos por un GNA (generador de números
aleatorios), pero que en realidad son generados de forma
pseudoaleatoria, y elaborando una serie de pruebas básicas
encaminadas a la detección de posibles sesgos e irregularidades,
como son la representación gráfica de los resultados y el
análisis de desviaciones medias en ventanas de 5 y 15 minutos.
El programa utiliza
un algoritmo determinístico (el integrado en el propio compilador),
por lo que difícilmente podremos dedicarlo a la investigación
de los generadores aleatorios electrónicos mientras no pueda
hacerme con el esquema de un GNA auténtico. Por ello, y
al objeto de poder observar un sesgo en la generación aleatoria,
he desarrollado una versión modificada denominada pcgSIM
(igualmente disponible en la web) en la que se produce una
fluctuación irregular provocada hacia el cero o el uno de
forma indistinta y en cualquier momento a lo largo de cada
ciclo de 12 horas.
Captura del programa TEST-PGCSIM compilado
para plataformas Windows 32 bits (9x/ME/NT/2000/XP)
en el que se muestra una fluctuación provocada
en la generación de bits aleatorios. Ejecutable
en:
https://calentamientoglobalacelerado.net/pcgNORM.exe
(versión normal)
https://calentamientoglobalacelerado.net/pcgSIM.exe
(versión modificada en la que se producen
sesgos provocados como el de la imagen).
BREVES
INSTRUCCIONES SOBRE EL SOFTWARE
Para ejecutar directamente seleccione
ABRIR en el cuadro de diálogo que le muestre
el sistema al hacer click! Sobre el enlace.
Para finalizar el experimento, pulse
la barra ESPACIADORA.
Si desea cambiar de tarea y dejar
el programa corriendo en segundo plano,
pulse la combinación ALT + TAB
. La tecla TAB puede estar representada
por los símbolos:
|<-
->|
Si desea ejecutar el programa en modo
ventana pulse la combinación de teclas ALT
+ ENTER . La tecla ENTER es el
retorno de carro.
|
|
Mi conclusión es
determinante y en parte determinista, en ella caben y se
fusionan dos niveles conceptuales definidos y delimitados
pero interconectados de forma subyacente.
1.- En un primer nivel conceptual,
enmarcado en el plano filosófico, el azar puro como concepto
teórico no existe, es más un invento del ser humano, una
especie de cajón desastre donde encajar todos los sucesos
que escapan de su control y de un análisis determinista
en el que todas las variables implicadas puedan ser identificadas,
calibradas e interpretadas de forma tangible y objetiva.
Así, mi reflexión, como en otras muchas ocasiones, ( www.calentamientoglobalacelerado.net ), vuelve a conducirme
hasta el mismo punto, principio básico universal de la ciencia
Todo efecto posee una causa natural que lo provoca,
un enunciado sobre el que recae, al menos para mí, el sentido
absoluto de la existencia.
2.- Sin embargo, y situados ahora
en el plano meramente práctico y material, aunque sólo sea
de forma objetiva lanzando un dado o una moneda al aire.
Estos procesos aparentemente simples encierran una complejidad
tal que nos permiten afirmar que en dicho tipo de sucesos,
por el número y tipo de variables implicadas, la predecibilidad
de los resultados escapan de forma absoluta a cualquier
tipo de control y estudio, accediendo de este modo, al menos
en un plano objetivo, práctico, matemático y material, a
un azar puro contextualizado, es decir, en el
marco de su propio contexto.
Podemos afirmar que matemáticamente,
en la mayoría de las situaciones, resulta posible emular
el azar y prueba de ello es que experimentos como los descritos
con anterioridad funcionan de forma convincente y parecen
ajustarse con fidelidad a los dictados de las leyes de la
probabilidad, pero el azar continuará siendo apasionante
y retorcido. Podremos acercarnos a él recurriendo a ingeniosas
fórmulas pero tal vez jamás consigamos alcanzar su plenitud.
27.11.2006 > Al hilo de este trabajo y en estrecha
relación con el mismo, os aporto unos mensajes
de email que mantuve recientemente con un buen
amigo acerca del asunto de la Conciencia Global.
Sent: Thursday, September 28, 2006
7:09 PM
Subject: Códigos secretos y tal
Hola Rafa, creo recordar que me comentaste una
vez que hay códigos ocultos en la Biblia... acabo
de leer esto http://www.kriptopolis.org/node/1789
(es una noticia vieja) y ciertamente no sé que
decir.
¿Tú has encontrado alguna de esas cosas? ¿Me podrías
decir el qué?
Yo creo que es algo como el Número Pi, que depende
de cómo lo interpretes, te puede dar también alg
unas palabras.
Por cierto, madre mía lo incoherente que es la
Biblia... hace años cuando hice la comunión mis
padres me regalaron una y hace unos años me deshice
de ella... ahora recientemente estoy leyendo fragmentos
como el Génesis y vaya incoherencias que hay...
es impresionante como millones de personas pueden
estar engañadas. Me dan ganas de hacer una página
web para demostrar ese gran fraude al que llaman
Dios... bueno, también existen los Gnósticos para
eso (mira en http://books.google.es/ el libro
"La Religión Prohibida")
Y referente a la noticia vieja de kriptopolis.org...
yo me apuesto mi coche a que este año 2006 no
es el fin del mundo.
Espero respuesta, un abrazo Miguel.
[ MI RESPUESTA a Miguel Angel ]
Hola Miguel, qué tal?
Te cuento, yo particularmente, soy muy reacio
a creerme cosas que racionalemente no puedo asimilar
y que además, sí soy capaz de darle, al menos
a grandes rasgos o de forma abstracta, una explicación
convicente (por ej. hipótesis del ciclo infinito
)
Esta actitud frente a los "grandes
enigmas de la humanidad" me ha conducido
y mantenido en el ateísmo prácticamente desde
que tengo uso de razón. Por este motivo, siempre
busco en los misterios una base empírica aún cuando
existan variables que escapen a mi conocimiento
o de mi control.
El caso del Proyecto de la Conciencia
Global es un caso similar al de los códigos secretos
de la biblia, los analizas un poco a fondo y los
medios empienzan a dar noticias impactactes, a
citar nombres de honorables científicos que están
detrás de la investigación, y así empiezas a plantearte,
ufffffff!!! esto debe ser más serio de lo que
yo pensaba. Luego, intrigrado, sigues excavando
en el asunto y comiezas a descubrir versiones
y posturas contrapuestas.
En ese punto, cuando lees y analizas
una de las versiones contrapuestas, irrevocablemente,
empujado por tu condición empírica, te vas pasando
al lado de la oposición, lugar donde sueles acabar
en la mayoría de los casos, al menos a mí me ocurre.
Te comento esto, porque hace unos días, contactaron
conmigo la televisión Canal SUR para consultarme
acerca del proyecto GCP a raíz de mi trabajo sobre
el azar ( http://inicia.es/de/elpatron/hipotesis/azar.htm
) y mi respuesta fue, como no podía ser de otra
forma, sensata y argumentada en mi escasa experiencia.
Te adjunto los mensajes por si tienes ganas de
leer, en ellos doy una respuesta a medias a la
cuestión, no descarto la existencia de variables,
fuerzas, elementos ni fenómenos desconocidos,
pero tampoco me lanzo a la piscina de lo enigmático,
metafísico y paranormal. Te explico esto, porque
según he podido conocer acerca de los códigos
secretos de la biblia, el tema es muy parecido
y mi respuesta se puede ajustar al dedillo a este
caso. Ahí va el copypaste....
-----
Original Message -----
From: "Carmen XXXX" To:
Sent: Tuesday, September 19, 2006 5:30 PM
Subject: proyecto de conciencia global.
> Hola Rafael, mi nombre es Carmen XXX y
soy redactora de un nuevo programa que está
preparando Canal Sur. Nos encontramos inmersos
en la busqueda de temas y nos interesa el proyecto
de conciencia global. Me gustaría pedirte ayuda
para encontrar a las personas en españa que
nos pudieran hablar de este tema con rigor científico.
Si estás interesado en lo que te cuento, mándame
un correo con tu número de teléfono y te llamo
y hablamos tranquilamente. De todos modos te
dejo el teléfono de la productora por si lo
estimas oportuno, es el XXXXXXXXX .
Espero que te parezca buena idea, muchas gracias
de antemano.
[ MI RESPUESTA
]
> Hola Carmen, soy Rafael. Sin
duda el tema resulta apasionante, desde cualquier
punto de vista, científico, social, humano.
A mí me lo pareció la primera vez que oí hablar
de este proyecto, el GCP (creo que fue en el
programa la "Rosa de los vientos"
de Onda Cero) y seguramente, si el tema es bien
introducido, pocos pueden escapar a su magia.
Con motivo de un documento que escribí hace
algunos meses para algunos portales digitales
de ciencia, estuve documentándome sobre el tema
y la cuestión es muy controvertida.
Es una lástima que mi falta de
tiempo y sobre todo de medios me impidiera llegar
a una conclusión más concreta sobre el proyecto
GCP. Solo puedo afirmarte algo desde una disyuntiva,
y es que podemos estar ante la mayor línea de
investigación científica de la historia del
hombre o ante un proyecto sin sentido de unos
cuantos científicos que intentan darle forma
a sus experimentos y buscar causas y efectos
que justifiquen sus tesis.
Leí una interesante entrevista
a un responsable del proyecto por parte de un
prestigioso periodista científico estadounidense
que apuntaban más a un error de base que a una
verdadera línea de investigación, es como si
cada vez que se produjera una alteración significativa
en los GNA's (generadores de ceros y unos) se
buscaran eventos trascendentales para asociarlos
a dichas alteraciones. El mundo está bastante
agitado últimamente con las guerras, las tensiones,
catástrofes, y cualquier tipo de evento que
puede ser magnificado por la globalización en
la que vivimos, por eso, cada vez que se produce
un sesgo en las gráficas estadísticas de ceros
y unos, no resulta demasiado complicado asociarlo
a un evento concreto con el que se pretende
luego relacionar dicha alteración.
Desarrollé un programa como puedes
ver en una web personal que tengo: http://inicia.es/de/elpatron/hipotesis
, pero lo ideal hubiera sido sin duda conectar
este software a un GNA auténtico, que por otro
lado no resultaría nada complicado de realizar
y mucho menos costoso. De esta forma, podrían
realizarse experimentos de control y quizá llegar
a concretar algo más las causas de dichas alteraciones.
Probablemente, el proyecto GCP quede para siempre
en la frontera de la pseudociencia para acabar
ocupando espacios privilegiados en programas
de paracientíficos, pero lo cierto es que dicha
frontera, a veces es tan difusa que no existe,
y lo que unos pueden calificar de pseudociencia
o paraciencia, cualquier día puede acabar convirtiéndose
en una teoría sostenible o al menos interesante
y argumentada.
Bueno Carmen, espero haberte aclarado
algo más sobre el tema, pero si quieres información
más detallada al respecto, te recomiendo que
leas en mi web el documento: "EL AZAR.
ETERNO PARADIGMA", ya que profundiza de
forma algo más técnica (no demasiado) que las
noticias que puedas encontrar en medios de difusión.
Ya de paso, y como parte de tu
búsqueda de contenidos, permíteme recomendarte
que leas un documento en mi web que se titula
"PROYECTO 0'7. ERRADICAR EL HAMBRE EN EL
MUNDO", tal vez te resulte interesante,
y lo más curioso, es que al poco tiempo de terminar
este documento contactó conmigo una persona
que me felicitó por el trabajo y que me comentó
su proyecto, www.teaming.info , sin duda, una
idea apasionante y que podría alcanzar una envergadura
trascendental si los medios le apoyaran como
se merece.
[ RESPUESTA DE
CARMEN ]
----- Original Message -----
From: "Carmen XXX"
To: " elpatron@ono"
Sent: Thursday, September 21, 2006 10:38 AM
Subject: Re: proyecto de conciencia global
> Hola Rafael, muchas gracias
por contestar; sí que me ha servido de ayuda
tu respuesta, es más, me gustaría que hablaramos
por teléfono para preguntarte algunas cuestiones
más y por eso te he pedido un teléfono donde
localizarte. El caso es que estamos buscando
a un experto que nos pueda hablar de este tema
y no sé si me podrías ayudar a encontrarlo.
Espero tu respuesta con esperanza.
[ MI RESPUESTA
]
> De nada Carmen, te explico.
Los medios a través de los cuales yo conocí
el proyecto, no han tratado el tema en profundidad
sino como hilo de debate entre los contertulios
del programa, este tipo de programas como la
rosa de los vientos (onda cero), milenio 3 (la
ser), cuarto milenio (la cuatro) y algún que
otro, creo que no han conseguido a ningún experto
sobre el proyecto, sino a un periodista o persona
documentada sobre el tema con conocimientos
para aclarar ciertos términos.
Cuando hablamos de expertos, creo
que te refieres a personas implicadas directamente
en la investigación, y bajo este extremo, yo
no sé de ninguno en España. Toda la información
que yo he recopilado principalmente ha partido
de la web oficial del GCP, cuyo enlace ya conocerás
( en mi web personal lo tienes en el documento
sobre EL AZAR), y es cierto que existen muchos
investigadores independientes, según reza en
la web oficial, cuya relación y resultados se
ofrecen en el propio site, pero ninguno, al
menos hasta hace 4 meses cuando yo es tuve revisando
los contenidos del site, es español ni reside
en España. En este sentido, lo más aconsejable
es que dirijas un mensaje a través del site
para consultar si hay algún investigador adjunto
o independiente al proyecto aquí en España,
o en su defecto, alguna Universidad española
que se haya anexionado al mismo.
Te dije en mi mensaje anterior
que dado que mi estudio no me ha permitido llegar
a una conclusión más profunda (principalmente
por falta de medios y tiempo) solo puedo darte
una disyuntiva como respuesta, "podemos
estar ante la mayor línea de investigación científica
de la historia del hombre o ante un proyecto
sin sentido de unos cuantos científicos que
intentan darle forma a sus experimentos y buscar
causas y efectos que justifiquen sus tesis."
El "timo" queda descartado a mi juicio,
pero la segunda de las opciones que apunto,
y en un ejercicio de crítica siempre constructiva
al trabajo de los investigadores, sí cobra cierta
fuerza bajo mis reflexiones, máxime cuando los
sesgos en las g ráficas estadísticas de los
GNA's han sido vinculados a eventos relativamente
transcendentales con cierta asincronía, tal
es el caso de las alteraciones que se registraron
el 11-S, que según tengo entendido, se produjeron
unas cuatro horas antes de que tuvieran lugar
los atentados. Ciertamente, yo no he podido
contrastar toda esta información y no me encuentro
en disposición de afirmar que dicha antelación
pueda deberse incluso a la diferencia de huso
horaria entre el lugar del evento y la ubicación
de los diferentes GNA's, en definitiva a un
error de registro e interpretación por parte
de algunos medios que se apresuraron a lanzar
la noticia: "la cajita que adivina el futuro",
en alusión a los GNA's del proyecto interconectados
a través de La Red.
Aunque según tengo entendido las
alteraciones se produjeron realmente con algunas
horas de antelación, el hecho de que en otros
registros documentados ocurra lo contrario me
ha llevado a fortalecer la segunda línea de
mi disyuntiva de forma tangible y argumentada.
Ahora, a medida que la noticia
alcanza mayores niveles de distorsión e intoxicación,
ya he leído que la conciencia global puede alterar
los resultados obtenidos en el lanzamiento de
monedas al aire!! Imagínate.
En fin, no sé si me he explicado
de forma lo suficientemente clara. Mi móvil
es el XXXXXXXX, por si quieres consultarme algo
más acerca del tema, espero poder ayudarte.
Un saludo.
[ MI RESPUESTA
al primer email de Miguel Angel]
> Volviendo al caso de los códigos
secretos de la biblia, mi posición es bastante
similar, es más, en mi web tengo anunciado hace
algún tiempo que iba a desmontar tal misterio,
y creo que no sería demasiado difícil hacerlo,
te explico por donde iba encaminada mi línea
argumental: Según los defensores de este enigma
cuasi divino y misterioso que alegan que todo
nuestro futuro puede estar encriptado en los
libros sagrados (concretamente creo que es en
el antiguo testamento (biblia judía) del que
hablan) mi experimento pasaba por desarrollar
un software que sea capaz de extraer códigos
secretos no sólo de la biblia, sino de cualquier
libro. En definitiva, porque los mecanismos
que se utilizan para extraer dichos códigos
son siempre ambiguos.
Por ejemplo, si pensamos que en
esta década puede desatarse un conflicto nuclear
internacional, buscamos los patrones:
IRAN
BOMBA
NUCLEAR
ARMA
todas estas palabras o algunas
deben aparecer en una misma página o tabla de
letras (estos extremos habría que confirmarlos
pero son básicamente así)
Para ello, el software rastrea
los textos de la biblia dispuestos a modo de
matrices o mallas (como en una sopa de letras)
y en cualquier dirección, después, comienza
a arrojar las páginas donde se ha encontrado
algo relevante, por ejemplo,
- la palabra IRAN aparece en 40
páginas dispuesta de diferentes formas, en diferentes
direcciones y sentido, de este modo, la búsqueda
se acota bastante y el software rastrea ahora
todas sólo estas páginas en busca del resto
de palabras.
- con el resto de palabras se repite
el proceso y finalmente se muestran los informes
de resultados con las páginas candidatas. Pero
no podemos obviar un dato relevante, y es que
también se buscan palabras sinónimas o asociadas,
por ejemplo: IRAN, PERSIA, TEHERAN, ASIA CENTRAL,
ETC...... BOMBA, ARTEFACTO, EXPLOSIVO, URANIO,
DEFLAGRACION, ETC..... y así por siempre jamás.
¿A dónde pretendo llegar con esto??
a que cualquier cosa que pensemos, es susceptible,
en la gran mayoría de los casos, de que encontremos
códigos ocultos, o sea, el fin del mundo, la
3ª guerra mundial, el final de la humanidad,
grandes eventos pasados como atentados (11-s,
11-m, 7-j) y catástrofes (tsunami asiático),
etc.
Pero yo voy más allá, y es que,
casi con total certeza, pese a no haber hecho
ninguna prueba experimental al respecto (no
he podido meterle mano al programa que pienso
crear), probablemente nuestro magnífico y archipopular
obra "El Quijote" encierre dentro
tantos códigos o más que la propia biblia.
Bueno Miguel, espero no aburrirte
con estas historias, por ahora tengo que dejarte,
pero seguiremos.
|
BIBLIOGRAFÍA Y FUENTES
Ed. Prentice Hall.
Investigación de operaciones. 6ª edición
Hamdy A. Taha © 1997
Ed. Ra-Ma. Simulación.
Métodos y aplicaciones.
David Ríos Insua, Sixto Ríos Insua y Jacinto Martín
© 1997
Ed. MARCOMBO, S.A.
109 programas para ordenadores personales y calculadoras.
Ramón Ferrando Boix © 1983
Ediciones Siglo Cultural.
Enciclopedia práctica de la Informática aplicada.
Jesús Salcedo © 1986
Ed. Mc Graw Hill.
Matemáticas especiales para computación.
José Luis García Valle © 1988
Rafael Lomeña Varo ©©
2006
|