Mostrando entradas con la etiqueta ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta ciencia. Mostrar todas las entradas

23/10/13

Norman Ernest Borlaug

Norman Ernest Borlaug (Cresco, Iowa,
Estados Unidos, 25 de marzo de 1914
- 12 de septiembre de 2009) fue un
ingeniero agrónomo, genetista,
fitopatólogo, humanista, y es
considerado por muchos el padre de
la agricultura moderna y de la
revolución verde.
Sus esfuerzos en los años 1960 para
introducir las semillas híbridas a la
producción agrícola en Pakistán e
India provocaron un incremento
notable de la productividad agrícola,
y algunos lo consideran responsable
de haber salvado más de 100
millones de vidas humanas.
Premio Nobel de la Paz en 1970,
también se le concedió el Padma
Vibhushan, el segundo mayor honor
civil de la India.

7/10/13

ERWIN SCHRÖDINGER.- MI CONCEPCIÓN DEL MUNDO

Supón que estás sentado sobre un
banco en un camino de un paraje de
los Alpes Altos. (...) Delante tuyo las
cimas coronadas de nieve. Todo esto
que ven tus ojos ha estado aquí, con
pequeños cambios, desde hace
milenios. Dentro de un ratito -no
mucho tiempo- tú ya no estarás
mientras que el bosque, las rocas y el
cielo seguirán así invariables después
de ti.
¿Qué es eso que te ha reclamado
repentinamente de la nada para que
goces un rato de este espectáculo
que ni siquiera repara en ti? Todas
las condiciones de tu ser son casi tan
viejas como estos Alpes, como estas
rocas. Desde hace milenios los seres
humanos han ambicionado, sufrido,
criado; las mujeres han parido con
dolor. A lo mejor hace cien años otro
estaba sentado en este mismo lugar y
contempló al igual que tú, con
idéntico recogimiento y melancolía en
el corazón, esas lomas candentes. Ese
otro hombre había sido engendrado
por un hombre y nacido de una
mujer, igual que tú. Sentía alegría y
dolor como tú. ¿Era otro acaso? ¿No
eras tú mismo? ¿Qué significa este tú
mismo? ¿Qué condiciones hacen falta
para que este engendrado se
convierta en ti, justamente tú y no
otro? Si la que es hoy tu madre
hubiera cohabitado con otro y le
hubiera dado un hijo, y de igual
manera tu padre, ¿hubieses llegado a
ser tú? ¿O quizás tú en ellos, en el
padre de tu padre ... ya desde hace
milenios? (...)
... es imposible que el sentir y querer
que tú llamas tuyo hayan salido de la
nada en un cierto momento (no hace
mucho tiempo); más bien, este
reconocer, sentir y querer es
esencialmente eterno e invariable en
todos los hombres, o mejor dicho en
todos los seres sensibles. (...) por
muy incomprensible que parezca al
intelecto común, tú -e igualmente
cada ser consciente tomado por
separado- eres todo en todo. Por ello,
tu vida, la que tu vives, no es un
fragmento del acontecer mundial,
sino en cierto sentido, la totalidad.
Así, puedes echarte al suelo,
apretarte contra la madre tierra, con
el seguro convencimiento de que tú
eres uno con ella y ella una contigo.
(...) Tan seguro como que ella te
tragará mañana, tan seguro como que
te parirá de nuevo para renovadas
ambiciones y sufrimientos. Y no sólo
algún día: ahora, hoy, a diario te da a
luz, no una vez sino miles y miles de
veces, como también te devora miles
y miles de veces a diario. Porque
eternamente y siempre es sólo ahora,
este único y mismísimo ahora, el
presente es lo único que nunca se
acaba.
... me parece que mi angustia e
inquietud, ambición y preocupación
no son sino lo mismo que las de
miles de hombres y mujeres que
vivieron antes que yo, y puedo creer
que transcurridos miles de años
todavía podrá cumplirse aquello que
yo había implorado hace miles de
años por vez primera. Ninguna idea
germina en mí, que no sea la
continuación de la de un ancestro y
por lo tanto no es un germen joven,
sino el desarrollo de un brote del
vetusto y sagrado árbol de la vida.
Fragmento de: S.Schrödinger. Mi
concepción del mundo. Barcelona,
Tusquets, 1988., p. 44-46

7/4/13

El efecto mariposa

La teoría del caos o “efecto
mariposa”, es uno de los paradigmas científicos más influyentes del siglo XX, junto con la teoría de la relatividad y la mecánica cuántica.
Su autor fue Edward Lorenz,
fallecido en 2008, en la edición de
marzo de 1963 del Journal of
Atmospheric Sciences publicó su
trabajo “Flujo determinista no
periódico”. Pasó inadvertido, hasta
que logró divulgarlo con una
pregunta famosa: ¿Puede el aleteo
de una mariposa en Brasil provocar
un tornado en Texas?
Mientras que es difícil encontrar
vincular la teoría de la relatividad y
de la mecánica cuántica con la vida
cotidiana, la teoría del caos es más
cercana a nosotros.
“De las tres teorías revolucionarias
del siglo 20, la revolución del caos
se aplica al universo que vemos y
tocamos a escala humana”, cuenta
James Gleick en su libro Caos.
El clima es un sistema caótico. Esa
es la razón por la que los
meteorólogos nunca dan pie con
bola con los pronósticos.
De hecho, Lorenz era meteorólogo y
descubrió la dinámica del caos por
casualidad, mientras trataba de
generar un modelo para predecir el
tiempo. Para ello utilizaba una
computadora primitiva.
El accidente ocurrió cuando Lorenz
decidió volver a ejecutar el modelo.
Tecleó los números directamente de
una impresión anterior y dejó a la
computadora calculando. Cuando
regresó, el resultado era
completamente diferente. Había
caos.
La computadora no estaba rota. Lo
que ocurrió es que los números
impresos tenían sólo tres decimales
y no seis como los números
utilizados en el primer cálculo.
Lorenz, como cualquier científico
clásico, nunca sospechó que esa
diferencia ínfima (una parte por mil)
sería tan contundente.
A partir de ese momento, la
revolución de caos se extendió a
todas las ciencias. El estudio del
desplazamiento del plancton por los
mares, el movimiento de los astros,
el funcionamiento del corazón, el
retraso de los aviones, la
sincronización de las neuronas, la
dinámica de las poblaciones o
cualquier sistema donde haya un
fluido (gas o líquido). En todos reina
el caos.
No obstante, aunque parezcan lo
mismo, caos no es azar. Un sistema
caótico tiene sensibilidad a las
condiciones iniciales, pero si se
conocieran todas estas variables
iniciales se podrían predecir las
consecuencias.
Pero ocurre que los sistemas
caóticos son muy complejos, por lo
que es imposible conocer todas las
condiciones iniciales. En el clima,
por ejemplo, deberíamos conocer la
temperatura, velocidad y otras
variables de cada molécula de la
atmósfera, unos 100 septillones, un
uno seguido de 44 ceros.
Como otra gran revolución
científica, la teoría del caos mostró
su doble cara. Por un lado, puso en
evidencia la complejidad de lo que
nos rodea, pero a la vez nos señaló
un nuevo camino por recorrer en la
aventura científica.
Imagen: Representación gráfica de
la teoría del caos forma una
mariposa.

1/4/13

RICHARD FEYNMAN.

Richard Feynman fue una de las
grandes mentes del siglo XX que
revolucionó la Física Cuántica.
Nació en Nueva York el 11 de Mayo
de 1918. Su padre le transmitió la
curiosidad por la naturaleza. Desde
niño se tornó especialista en reparar
radios, máquinas de escribir y
resolver acertijos de todo tipo.
Era excepcional en matemáticas y
en ciencias, pero no le gustaba la
presión académica. No leía mucho,
ni tenía una gran cultura.
En 1935 entró al instituto de
tecnología de Massachusetts (MIT).
Su tesis titulada “Fuerzas y tensiones
en las moléculas” fue un presagio
de su brillantez.
En 1939 se mudó a Princeton, y
trabajó con John Wheeler, líder en
el desarrollo de la física nuclear.
Se doctoró en 1942 con un trabajo
titulado “El principio de mínima
acción en la mecánica cuántica”.
Con poco más de 20 años ya era
uno de los principales físicos-
teóricos de EEUU.
Fue reclutado para trabajar en el
proyecto Manhattan en el desarrollo
de la bomba atómica, por lo que en
1943 se mudó a Los Álamos, Nuevo
México. Introdujo una serie de
técnicas únicas en el cálculo
complejo relativo a la difusión de
neutrones a través de una masa
crítica. Estuvo presente en la 1era
prueba de la bomba en julio de
1945. Él dijo: “siempre tuve
desconfianza de los cálculos
teóricos ya que nunca estoy seguro
de lo que la naturaleza va a hacer.
Sin embargo, corroboramos que ella
hizo lo que habíamos calculado”.
En 1945 aceptó el cargo de profesor
en la universidad de Cornell. Allí
dirigió su atención a la
electrodinámica cuántica. A pesar
de que la teoría existía y era
acertada, los cálculos eran muy
complicados de realizar. Por lo
general las aproximaciones de 1er
orden funcionaban, pero cuando se
intentaban aproximaciones de
mayor orden, cantidades infinitas
comenzaban a aparecer. Feynman
desarrolló un método especial que
involucraba una serie de
representaciones, denominadas más
tarde diagramas de Feynman, las
cuales permitían seguir los
electrones y/o fotones, y también la
absorción/emisión de fotones por
los electrones. Los diagramas
concretaban los cálculos abstractos,
de modo de renormalizar los
números, permitiendo eliminar los
infinitos no deseados. Como
consecuencia de este método de
camino integral, la electrodinámica
cuántica se revitalizó totalmente y
hoy permite que los cálculos
alcancen una increíble precisión.
En 1951 se mudó al Instituto
Tecnológico de California (CalTech),
donde pasó a ser uno de los físicos-
teóricos más productivos del
mundo. Entre sus trabajos está la
explicación atómica de las extrañas
propiedades del Helio en estado
líquido, que a temperaturas muy
bajas desafía las leyes de la
gravedad. Esto le permitió estar
cerca de entender los fenómenos
relacionados con la superconductivi
dad.
También hizo adelantos sobre el
comportamiento de la interacción
débil, ejemplificada por la gradual
desintegración de los elementos
radiactivos. El descubrimiento de
Feynman de que la ley de
conservación de la paridad había
sido rota en la interacción débil lo
llevó en un momento a decir: “es la
primera y única vez en mi carrera
en que yo supe una ley de la
naturaleza que nadie más sabía”.
Junto con Murray Gell-Mann
desarrollaron la teoría general de la
fuerza débil en 1958. Feynman
también contribuyó en el desarrollo
de la teoría de Gell-Mann de la
cromodinámica cuántica, que da
una explicación de la estructura
interna de las partículas
subatómicas.
En 1965 Feynman recibió el premio
Nobel de Física por sus aportes a la
electrodinámica cuántica.
Era un profesor fuera de lo común
que muchas veces daba clases con
estilo vivaz y humorístico mientras
tocaba el bongó. En 1963 dio un
curso de introducción a la física en
el CalTech que más tarde fue
publicado como “las conferencias de
Feynman sobre Física”, el cual se
volvió un trabajo de física básica y
que utilizamos hoy como libro de
texto en la mayoría de las
Universidades.
A partir de 1985 se volvió famoso
para el público general después de
publicar una memoria
autobiográfica que se convirtió en
un best-seller, titulada “Realmente
Ud. está bromeando, Sr. Feynman”
En 1986 se incorporó a la comisión
Rogers, encargada de investigar la
explosión ocurrida en el
transbordador Challenger. La
comisión descubrió que la causa
principal de la tragedia se debió al
endurecimiento de los sellos de
goma por el frío. Feynman hizo
duras críticas a las presiones
burocráticas ejercidas a los
científicos e ingenieros de la Nasa
después del desastre del Challenger.
Como muchos de los científicos del
siglo XX, él era ateo. Algunas de sus
observaciones sobre la religión
fueron censuradas en una emisora
de TV en California. La más famosa:
“No me parece que este universo,
fantásticamente maravilloso, este
tremendo conjunto de tiempo y
espacio y de diferentes tipos de
animales, y todos los diferentes
planetas, y todos estos átomos, con
todos sus movimientos, y todo lo
demás, que todo ese aparato tan
complicado sea meramente un
escenario para permitir que dios
pueda ver a los seres humanos
luchando entre el bien y el mal. Este
escenario es muy grande para sólo
ese drama”.
Feynman se casó 3 veces. Tuvo 2
hijos del 3er matrimonio.
En 1978 tuvo su primer diagnóstico
de un tumor cancerígeno que fue
removido en una cirugía. Otra
forma de cáncer se le diagnosticó
en 1986 en la región abdominal.
Feynman no consideraba que estos
tumores estuviesen relacionados
con su exposición a la radiación
durante la 2da guerra. Feynman
murió el 15 de Febrero de 1988.
Durante sus últimos años intentó
visitar Tannú Tuba, un lugar
ubicado en Rusia cerca de Mongolia.
Durante la década del 80, junto con
Ralph Leighton pidió autorización
para poder ir al lugar. Dos semanas
antes de su muerte recibió el
permiso para viajar. Su amigo Ralph
hizo el viaje por él en el mes de
julio de 1988, es por eso que se
puede encontrar una placa dedicada
a Richard Feynman en el
monumento del “Centro de Asia”, en
Kyzyl.

14/3/13

LA TEORIA M. 1

1. INTRODUCCION

M es el nombre de la teoría que
pretende explicar todo el universo,
desde las partículas elementales y
los átomos hasta las galaxias y el big
bang. ¿Por qué M, un título tan
breve para un objetivo tan
ambicioso? Hay varias acepciones
posibles, según las preferencias del
físico que lo justifica. La M de
madre refleja la intención de ser el
origen de todas las explicaciones o
de contener las leyes primordiales
de la física. La M de magia, misterio
o milagro refiere, en cambio, al
asombro que despiertan sus
propiedades y su aparente
capacidad de unificar todas las
interacciones o fuerzas
fundamentales de la naturaleza, una
meta perseguida durante mucho
tiempo y considerada quizás
inalcanzable. La más modesta M de
membrana ilustra ciertas
características técnicas de la teoría.
¿En qué sentido pretende M explicar
todo? La física busca verdades
universales sobre la naturaleza.
Cuando estas verdades se
encuentran, se trata de explicarlas
apelando a principios más
profundos, a verdades más
fundamentales a partir de las cuales
se puedan deducir las anteriores.
Estas certezas más esenciales, a su
vez, se tratan de entender
recurriendo a razones todavía más
básicas. Y así sucesivamente.
Siguiendo las cadenas de
explicación, desde la vida cotidiana
hasta el mundo microscópico, varias
de las preguntas más antiguas (¿Por
qué el cielo es azul? ¿Por qué el
agua es líquida y se evapora al
hervir?) se han respondido en
términos de las propiedades de los
átomos y de la luz. Estas
propiedades, por su parte, se
deducen de sus componentes, las
partículas elementales, cuyas
propias peculiaridades se pueden
deducir a partir de estructuras más
simples. El punto inicial de todas las
explicaciones es lo que se entiende
por la teoría madre. Este
reduccionismo o búsqueda de
principios cada vez más
elementales, más básicos, se ha
dado en la física históricamente a
través de unificaciones de teorías.
La tendencia a la descripción
unificada de fenómenos
considerados previamente
independientes, la búsqueda de
principios aglutinadores, permitió a
lo largo del desarrollo de la
disciplina explicar más hechos que
los contenidos originalmente en las
partes que se intentaba amalgamar y
se convirtió en la guía orientadora
de la evolución de esta ciencia.
La idea de encontrar un principio
fundamental a partir del cual
derivar las leyes del universo no es
reciente. La humanidad ha buscado
desde épocas muy remotas
comprender las diversas
manifestaciones de la naturaleza
como diferentes aspectos de un
mismo fenómeno (o conjunto de
fenómenos). En Occidente, el origen
de estas ideas se remonta a los
presocráticos, quienes buscaban las
explicaciones de todos los
fenómenos naturales en términos de
algún elemento fundamental: agua,
aire, tierra o fuego. La primera
teoría madre, elaborada por Leucipo
y Demócrito en el siglo V a.C.,
postulaba que los
constituyentes últimos e indivisibles
de la materia eran los átomos. Esos
átomos eran muy diferentes de los
que conocemos hoy, pero hay una
diferencia más importante entre
aquellas teorías antiguas y la ciencia
moderna: la actual exigencia de
verificación experimental. Una
explicación científica moderna debe
contener una comprensión
cuantitativa de los fenómenos.
¿Cuánto progresamos en el
conocimiento de la naturaleza si
aceptamos que el agua o los átomos
son los constituyentes
fundamentales de la materia, si no
podemos calcular propiedades como
la densidad, la resistencia o la
conductividad eléctrica? Y por lo
tanto, sin la capacidad de hacer
predicciones experimentales, nunca
podríamos comprobar si la
explicación presocrática o la de
Demócrito es la acertada.
En la actualidad, los cuatro siglos de
desarrollo de la física han permitido
acumular gran cantidad de
información y reducir drásticamente
el número de principios
fundamentales. Hoy sabemos que
todos los fenómenos naturales, por
más variados y diferentes que
parezcan, se pueden explicar en
términos de cuatro interacciones o
fuerzas fundamentales: la
gravitatoria, la electromagnética y
las subatómicas fuerte y débil. Pero
a pesar de haber logrado restringir
tan abruptamente la complejidad del
problema, todavía no se ha
encontrado la teoría original, la que
unifica estas cuatro interacciones
fundamentales. Sólo hay algunos
indicios que guían la búsqueda.
Estas son las pistas que trata de
organizar la teoría M y que nosotros
intentaremos describir en este
artículo. Como el tema es muy
técnico, introducimos algunos
conceptos e ideas que resultan
necesarios a través de una breve
historia de la física. Este recorrido
histórico, con especial atención a
las unificaciones logradas, nos
ayudará a explicar por qué la
búsqueda de la teoría madre se
realiza en el contexto de la física de
altas energías. En la segunda parte
describimos la teoría M, indicando
sus logros y debilidades y
resumiendo la manera en que
resuelve los problemas que
presentan teorías previas.
(continuará)

12/3/13

NIKOLA TESLA (1856-1943) UN MUNDO SIN TESLA

"Siempre hemos estado fascinados
por los genios. Y siempre hemos
tendido a exagerar sobre ellos. No
nos basta que Arquímedes penetrara
en los secretos de la esfera,
descubriera el principio del empuje
hidrostático -el "momento eureka"
por antonomasia- y fuera uno de los
mayores matemáticos de la historia.
Además queremos que destruyera la
flota romana quemando sus velas
con un ingenioso sistema de espejos
que concentraban la poderosa luz
del sol del Mediterráneo, y que esa
genialidad le costara la vida. Una
bella y dramática historia que, a
diferencia de las fórmulas de la
esfera, tiene todas las papeletas
para ser mentira, pues los intentos
modernos de reproducir la hazaña
no han logrado quemar ni un
pañuelo a esa distancia.
Lo mismo pasa con Tesla. Sus
grandes aportaciones a la tecnología
de la electricidad, citadas arriba, no
les deben parecer suficientes a sus
admiradores, que además quieren
ver al inventor como un alma de
cántaro, un altruista obsesionado
por ayudar a la humanidad, "el
genio al que robaron la luz", el
Prometeo moderno que sufrió el
eterno castigo del olvido por haber
arrebatado la energía
electromagnética a las oscuras
fuerzas del poder y la industria para
entregársela al pueblo llano libre de
todo costo, el descubridor de los
nexos ocultos entre la física y la
psique y la clave secreta de todas
las conspiraciones y contubernios
de los que se pueda conversar en un
taxi. Historias no solo falsas, sino
tan feas como Edison. La realidad es
mucho más interesante que todo
eso.
El descubrimiento esencial que
disparó la revolución de la energía
eléctrica no fue obra de Tesla, ni
pudo serlo, pues ocurrió
exactamente 25 años antes de su
nacimiento. Su nombre técnico no
carece de cierto lirismo -inducción
magnética-, y es uno de los mayores
hitos no solo de la tecnología, sino
también de la ciencia, pues permitió
entender el fenómeno de la
electricidad y el magnetismo con
una profundidad y elegancia
matemática que la ciencia no había
conocido desde la teoría gravitatoria
de Newton, y que no volvería a
conocer hasta la teoría de la
relatividad de Einstein. La historia
demuestra que ese tipo de
entendimiento profundo precede a
todas las revoluciones tecnológicas.
En 1831, Michael Faraday, que pese
a ser un científico aficionado sin
educación formal ha pasado a la
historia como el mejor
experimentalista de todos los
tiempos, descubrió que un campo
magnético cambiante es capaz de
crear una corriente eléctrica en un
cable. Podía hacerlo moviendo un
imán cerca de un cable, o moviendo
el cable cerca del imán. En
cualquier caso, la corriente eléctrica
era siempre más fuerte cuanto más
rápido fuera el movimiento. Este
simple hecho mostró que la
electricidad y el magnetismo no
eran dos cosas, sino dos formas de
mirar a una sola. Todos los grandes
saltos en la comprensión científica
del mundo se basan en unificaciones
de ese tipo. Nuevos nexos ocultos
entre conceptos dispares.
Literalmente, nuevas metáforas.
Tesla tampoco inventó las
aplicaciones tecnológicas de ese
avance del conocimiento puro. El
descubrimiento de Faraday sugería
de inmediato una forma de
convertir la energía mecánica -los
movimientos del imán- en energía
eléctrica, y no había pasado ni un
año cuando el primer generador
eléctrico se presentó en París. Hacia
la mitad del siglo, con Tesla aún sin
nacer, varios países fabricaban ya
generadores eléctricos comerciales.
El descubrimiento de Faraday
también indicaba la posibilidad
contraria: convertir la energía
eléctrica en energía mecánica, es
decir, construir un motor eléctrico.
Tampoco fue Tesla, sino de nuevo
Faraday, quien descubrió la
corriente alterna.
Tesla fue más bien el Steve Jobs de
la revolución eléctrica, el visionario
con mentalidad emprendedora, y el
más hábil para llevar a la práctica
las ideas científicas de otros, y muy
en particular las del propio Faraday.
La otra parte del mito, o del Tesla
que protagoniza los tebeos y los
videojuegos, es la del genio
incomprendido, el innovador
altruista "al que le robaron la luz".
Este cliché tiene unos fundamentos
tan endebles como el primero, pero
también sirve para ilustrar la
íntima, fructífera y turbulenta
relación de la innovación con las
finanzas.
En 1885, solo un año después de
desembarcar en el puerto de Nueva
York con una libreta llena de
cálculos, unos cuantos poemas y
cuatro centavos en el bolsillo, Tesla
encontró justo lo que había ido a
buscar a América: un empresario
interesado en sus ideas. George
Westinghouse se interesó en la gran
idea del inventor, el motor de
corriente alterna, e hizo lo que
suelen hacer los empresarios en
esos casos: comprarle los derechos
de patente. Westinghouse no estaba
robando las ideas de Tesla, sino
permitiéndolas entrar en el juego. Y
justo a tiempo.
Su archienemigo Edison estaba
empezando a comercializar los
motores eléctricos de corriente
continua, y hasta había convencido
ya a algunos Gobiernos europeos,
entre ellos el alemán, para que
adoptaran ese sistema. El motor de
corriente alterna ideado por Tesla
era -y sigue siendo- mucho más
eficaz que el de Edison, pero nunca
habría podido competir con él sin la
audacia y el dinero de
Westinghouse. La lucha fue larga y
feroz, pero los motores de Tesla y
Westinghouse se acabaron
imponiendo, y con ellos los
sistemas de distribución de
corriente alterna se usan en todo el
mundo.
El estilo vehemente y efectista del
inventor ha contribuido a alimentar
el mito, y el cliché. Cuando la
poderosa corriente alterna empezó a
suscitar temores en una parte del
público y la prensa, organizó una
demostración pública en la que su
propio cuerpo sirvió de conductor
para encender un deslumbrante
panel de bombillas. Convenció a
Westinghouse para instalar sus
primeros sistemas en las cataratas
del Niágara. Inventó el primer
aparato dirigido por control remoto
-un barco de juguete- y lo presentó
en público con una demostración en
el Madison Square Garden de Nueva
York. Encendió 200 lámparas desde
una distancia de 40 kilómetros,
produjo rayos de 40 metros,
aseguró que había inventado un
rayo capaz de destruir 10.000
aviones enemigos y, para colmo de
delicias entre sus fans, anunció
haber recibido señales de una
civilización extraterrestre.
Si Tesla no hubiera existido, la gente
se lo hubiera inventado de todas
formas. Un trabajo fácil para el
ángel de Capra."

El artículo es obra de J. Sampedro y
fue publicado el 4 de Febrero de
2012 en "Babelia" (El País),
esperando que no moleste esta
transcripción directa del texto, que
es publicamente accesible para
todos a traves del siguiente enlace:
http://elpais.com/diario/2012/02/
04/babelia/1328317960_85021
5.html
En la fotografía podemos ver a
Nikola Tesla en su laboratorio,
leyendo placidamente entre esa
tormenta de electricidad,
demostrando su control sobre la
misma.

8/3/13

LOS SECRETOS OCULTOS DEL ADN

La tendencia natural es imaginar el
genoma como la base de datos de
HAL, el robot paranoico de 2001,
odisea en el espacio, o incluso como
La biblioteca de Babel de Borges,
donde todo texto posible acababa
por existir en algún anaquel de
alguna estancia. Una metáfora más
apta sería la Ventura highway de
América, la autopista de Ventura
“donde los días son más largos y las
noches más fuertes que el
aguardiente casero, según la
canción del mismo nombre. O tal
vez otra carretera por el desierto
donde los lagartos vuelen.
La mayor paradoja del genoma
humano es bien conocida: de sus
3.000 millones de letras químicas
(los nucleótidos atccagtag... que
están repartidos en 23 cromosomas
como los artículos en los distintos
tomos de una enciclopedia), solo el
1,5% parece ser funcional: lo que
solemos llamar genes. El 98,5%
restante sería basura genómica. Es
como si en una estantería con 200
libros, solo tres libros significaran
algo. O mejor, como si solo fuera
cierto un versículo de la Biblia por
página.
De ahí el proyecto Encode
(acrónimo inglés de Enciclopedia de
elementos de ADN) para describir
todas las partes del genoma que
tienen alguna función, aunque estén
fuera de los genes convencionales.
Es un superconsorcio científico
internacional —solo la lista de los
442 firmantes ocupa una página y
media con letra de prospecto— que
presentó ayer sus resultados en seis
artículos en Nature y otros 24
artículos en otras revistas
científicas.
El principal resultado de esta
especie de Proyecto Genoma II es
que lo que se consideraba basura no
era tal. El 80% del genoma humano
resulta tener al menos una función
bioquímica en al menos algún tejido
del cuerpo y en al menos alguna
fase del desarrollo o de la vida
adulta. Y nada menos que el 95%
del genoma está implicado en la
regulación de los genes
convencionales. De hecho, la
mayoría de las variaciones
implicadas hasta ahora en alguna
enfermedad humana está en estas
zonas que se consideraban basura,
lo que abrirá nuevas posibilidades a
la medicina.
“Uno de los descubrimientos más
extraordinarios del consorcio”, dice
Joseph Ecker, del Instituto Salk de
California, “es que el 80% del
genoma contiene elementos
asociados a funciones bioquímicas,
lo que liquida la percepción
generalizada de que casi todo el
genoma humano consiste en ADN
basura”.
La genómica no ha inventado
nuevos conceptos. Lo que ha hecho
es permitir el análisis de los viejos
conceptos a una escala global, sin
sesgos ni preconcepciones. Sus
resultados son los primeros datos
duros de la historia de la biología,
un cuerpo de conocimiento que no
depende de lo que el investigador
esté buscando, el tipo de
recolección de datos en el que se
suele basar la física, la madre de
todas las ciencias: primero se
recopila todo lo que se puede, y
luego se le busca el sentido. La
investigación biológica ha dado sin
duda un salto cuantitativo en las
últimas dos décadas. Que ese salto
sea también cualitativo es más
dudoso, como saben muy bien los
investigadores del área.
Y la cuestión tiene un interés
incluso filosófico. “Los resultados
nos obligan a repensar la definición
de gen y de la unidad mínima de la
herencia”, dice Ecker.
La cuestión puede ser demasiado
técnica en un sentido, o demasiado
profunda en otro. Lo que importa,
si hemos de fiarnos de la historia,
es si ilumina el camino hacia una
realidad oculta hasta ahora, una que
todos teníamos ante las narices sin
alcanzar a verla. Y algunos
científicos piensan que así es.
La autopista de Ventura genómica
está llena de señales y carteles, pero
solo unos pocos se ven en cada
momento. Igual que la que da
nombre, que cruza California, en
invierno todos son visibles salvo los
que están cubiertos de hielo en las
cotas altas; en verano la vegetación
oculta los letreros más cercanos al
valle. Como consecuencia, los
ingresos de cada restaurante
muestran una evidente dependencia
de la temperatura. Esta es otra
percepción central de la genómica
actual: que todas las células de un
cuerpo tendrán los mismos genes,
pero que sus patrones de activación
dependen del entorno.
Una de las revelaciones de la nueva
tecnología del ADN es que, aunque
la genética es lineal desde que
Mendel la formuló en el siglo XIX
gracias a sus juegos con las pieles y
los colores de los guisantes, sus
sutilezas —la clase de mecanismos
que impulsaron la evolución de la
especie humana— no lo son en
absoluto. Los genes, como
predijeron Mendel y la genética
clásica, son en efecto tramos de
ADN (tccggttaca...) que se disponen
uno detrás de otro en rigurosa fila
en el cromosoma, como en la
autopista de Ventura.
Pero las regiones reguladoras de los
genes —los tramos de secuencia de
ADN que les dicen a otros tramos de
secuencia de ADN dónde y cuándo
tienen que activarse— no siempre
son adyacentes a los genes
propiamente dichos, sino que a
veces están muy lejos en el
cromosoma, y a menudo están
alojados incluso en otro cromosoma
distinto.
Algunos científicos creen que esa,
precisamente, es la revolución
genética en ciernes: la forma en que
esa no linealidad de la regulación
genética está revelando la
arquitectura profunda del núcleo de
nuestras células, la pura y simple
geometría del genoma.
Si fuera así, no solo importaría lo
que una información dice, sino
sobre todo dónde lo dice.

Fuente:
http://sociedad.elpais.com/

UNIVERSOS PARALELOS 4

EL MISTERIO DE LO POSIBLE:
¿CUALES SON LAS PROBABILIDADES?

Otra forma de producir un
multiverso Nivel II podría ser a
partir de un ciclo de nacimientos y
destrucciones de universos. Esta
idea fue presentada en la década de
1930 por el físico Richard C. Tolman
y retrabajada recientemente por
Paul J. Steinhardt de la Universidad
de Princeton y Neil Turok de la
Universidad de Cambridge. La
propuesta de Steinhardt y Turok y
otros modelos relacionados incluyen
una segunda membrana
tridimensional que es literalmente
paralela a la nuestra, sólo que está
desplazada a una dimensión más
elevada (véase George Musser, “Been
There, Done That”, Scientific
American, marzo de 2002). Este
universo paralelo no es realmente
un universo aparte, ya que
interactúa con el nuestro. Pero el
conjunto de universos —pasados,
presentes y futuros— que estas
membranas generan formarían un
multiverso, tal vez con una
diversidad similar a la producida
por la inflación caótica. Una idea
propuesta por el físico Lee Smolin,
del Perimeter Institute de Waterloo,
Ontario (Canadá), incluye un
multiverso más, similar en
diversidad al del Nivel II pero que
muta y genera nuevos universos a
partir de agujeros negros y no tanto
por la física de las membranas.
Si bien no podemos interactuar con
otros universos paralelos del Nivel
II, los cosmólogos pueden inferir
indirectamente su presencia; su
existencia resolvería ciertas
coincidencias inexplicables de
nuestro universo. Como analogía,
suponga usted que se registra en un
hotel, le asignan el cuarto 1967,
que resulta ser su año de
nacimiento. “¡Qué coincidencia!”,
piensa usted. Pero meditándolo un
poco, concluye que la cosa no es
para tanto. El hotel tiene cientos de
habitaciones, y no hubiera pensado
en algo así si le hubieran asignado
un número sin significado alguno
para usted. La lección es que,
incluso si usted no supiera nada
sobre los hoteles, podría inferir la
existencia de otros cuartos de hotel
que explicaran la coincidencia.
Sería un ejemplo más pertinente
considerar la masa de nuestro Sol.
La masa de una estrella determina
su luminosidad, y es posible calcular
con la física básica que la vida, tal
como la conocemos en la Tierra,
sólo es posible si la masa del Sol
está dentro de un intervalo de entre
1,6 x 10 elevado a 30 y 2,4 x 10
elevado a 30 kilogramos. De otro
modo, el clima de la Tierra sería
más frío que el actual de Marte o
más caliente que el de Venus. La
masa medida del Sol es de 2,0 x 10
elevado a 30 kilogramos. A primera
vista, esta aparente coincidencia
entre los valores de la masa
“habitable” y la masa observada
parece ser una gran suerte. Las
masas estelares van de los 10
elevado a 29 a los 10 elevado a 32
kilogramos, así que si el Sol
adquirió su masa por azar, tenía
apenas una ligera posibilidad de
caer dentro del intervalo que
posibilita la vida. Pero al igual que
con el ejemplo del hotel, se puede
explicar esa aparente coincidencia
postulando un conjunto (en este
caso, de sistemas planetarios) y un
efecto de selección (el hecho de que
tenemos que encontrarnos viviendo
en un planeta habitable). Estos
efectos de selección relacionados
con el observador se denominan
“antrópicos”, y aunque este vocablo
despierta grandes controversias, los
físicos están de acuerdo, en general,
en que estos efectos de selección no
deben ignorarse cuando se prueban
teorías fundamentales.
Lo mismo que se aplica a los
cuartos de hotel y a los sistemas
planetarios se aplica a los universos
paralelos. Muchos de los atributos
(si no es que todos) fijados por la
ruptura de la simetría parecen estar
finamente calibrados. Alterar
mínimamente sus valores generaría
un universo cualitativamente
diferente: uno en el que quizá no
existiríamos. Si los protones fueran
0,2 por ciento más pesados, se
descompondrían en neutrones, lo
que desestabilizaría a los átomos. Si
la fuerza electromagnética fuera 4
por ciento más débil, no habría
hidrógeno ni estrellas comunes. Si la
interacción débil fuera bastante más
tenue, no habría hidrógeno; si fuera
mucho más fuerte, las supernovas
no sembrarían el espacio
interestelar con elementos pesados.
Si la constante cosmológica fuera
mucho mayor, el Universo se habría
despedazado antes de que pudieran
formarse las galaxias.
Aunque todavía se debate ese grado
de calibración, estos ejemplos
sugieren la existencia de universos
paralelos con otros valores de las
constantes físicas (véase Martin
Rees, “Exploring Our Universe and
Others”, Scientific American,
diciembre de 1999). La teoría del
multiverso Nivel II predice que los
físicos no podrán determinar los
valores de esas constantes a partir
de los primeros principios. Cuando
mucho calcularán distribuciones
probabilísticas de lo que esperarían
encontrar, teniendo en cuenta los
efectos de selección. El resultado
sería tan genérico como lo
permitiera una congruencia con
nuestra existencia.
Continuara...

Articulo original de Max Tegmark y
publicado en Scientific American,
mayo de 2003. Max Tegmark es un
cosmologo sueco-estadounidense,
profesor del MIT (Instituto de
Tecnologia de Massachussets).

3/8/12

HIBRIDACIÓN, TABÚ SEXUAL, Y DEMOGRAFÍA: RAZONES PARA LA EXTINCIÓN NEARDENTAL

Neandertales y humanos modernos se
expandieron a través de Asia y Europa
para adaptarse a los cambios que la
edad de hielo conformó. En el
proceso, ambos grupos se
encontraron.
A pesar de que muchos antropólogos
creen que los ancestros de los
humanos modernos “borraron del
mapa” a los neandertales, es más
probable que los neandertales se
hayan integrado en los genes humanos
años atrás debido a factores culturales
y climáticos que llevaron a encontrase
a los dos grupos , dijo Michael Barton,
profesor del Centro para la Dinámica y
la Complejidad Social y la Escuela de la
Evolución Humana y Cambio Social de
la Universidad de Arizona.
“La historia tradicional en los libros de
texto no se ajusta bien con lo que
sabemos acerca de los cazadores-
recolectores. ”, dijo Barton.
Barton y Julien Riel-Salvatore, de la
Universidad de Colorado en Denver,
presentaron una nueva investigación
en la revista Avances en Sistemas
Complejos (Advances in Complex
Systems), en la que indican que la
desaparición de los neandertales se
debió a una combinación de factores,
incluyendo los cambios culturales. El
artículo titulado, Agentes de Cambio:
Evolución modelado biocultural en el
Alto Pleistoceno de Eurasia occidental,
aparece online en enero.
Se basa en el trabajo publicado el año
pasado en la revista Human Ecology y
en recientes estudios genéticos que
muestran una contribución neandertal
al genoma humano moderno.
“Cómo se transmite el conocimiento de
una cultura es tan importante para la
evolución humana como la
información biológica “, dijo Barton .
“Hay una percepción de que la
evolución biológica determina la
cultura durante la época del
Pleistoceno, y que las influencias
culturales predominan después
(incluido hoy). La realidad es que las
dos fuerzas han estado trabajando
juntas y eran tan importantes hace
50.000 años como lo son hoy.”
Los investigadores utilizaron los datos
arqueológicos para seguir los cambios
culturales y socio-ecológicos en el
oeste de Eurasia durante los últimos
120.000 años. Al igual que los
neandertales, los humanos cambiaron
su comportamiento durante la última
edad de hielo, modelos por ordenador
mostraron que las dos poblaciones
comenzaron a interactuar y a
emparejarse, lo que llevó a la
“extinción” de uno de los grupos
debido a la hibridación, un fenómeno
bien conocido en el biología de la
conservación. Los neandertales
estaban limitados al oeste de Eurasia y
por lo general es la población más
pequeña la que se extingue. Sin
embargo, sucesivas poblaciones
híbridas todavía llevaron los genes del
grupo regional que desapareció, según
los investigadores.
La extinción del Neandertal habrá sido,
simplemente la hibridación: la mayoría
demográfica del Homo sapiens terminó
desplazando al Neandertal hasta la
dominación genética. Los
emparejamientos estuvieron sujetos y
limitados a barreras sociales y a una
noción de tabú al ser especies
diferentes. El tipo y nivel de hibridación
se puede explicar desde ciertos grados
de rechazo social y de tabú existente
entre las dos especies.
“Aparte del hecho de que
desaparecieron, no hay evidencia de
que los neandertales eran menos
capaces como cazadores-recolectores
en el Pleistoceno tardío que cualquier
humano viviendo en aquel tiempo.
Parece que eran tan capaces como
cualquier otra persona “, dijo Barton.
Barton y Riel Salvatore estudiaron las
herramientas de piedra que dejaron
estos pueblos antiguos para rastrear
los patrones de desplazamiento entre
los cazadores-recolectores a través de
Eurasia occidental durante el
Pleistoceno .
“La tecnología lítica es completamente
diferente a la clase de tecnología que
tenemos hoy”, dijo Barton. “Pero nos
pueden decir cosas importantes sobre
su comportamiento, cómo la gente se
organiza y cómo se movían para
acceder a los recursos para vivir.”
Estas herramientas proporcionan una
visión de la vida de los neandertales y
la secuenciación de los genes cuenta la
historia de su legado.
“La reciente secuenciación del ADN de
Neandertal indica que los genes
neandertales constituyen 1 a 4 por
ciento del genoma de las poblaciones
modernas-especialmente los de origen
europeo “, dijo el Riel-Salvatore. “A
pesar de que desapareció como una
forma distintiva de la humanidad, viven
en nuestros genes. Lo que hacemos en
este estudio es proponer un modelo
de cómo pudo haber sucedido esto y
demostrar que las decisiones de
comportamiento eran probablemente
un papel decisivo en este proceso”.
Los investigadores sugieren que es el
momento de estudiar la variación y la
diversidad entre los individuos en
lugar de clasificarlos en tipos o
especies.
“El legado de los neandertales sigue
vivo en nuestro genoma biológica y,
posiblemente, en nuestro
conocimiento cultural”, agregó Barton.
“Puede que haya habido otras
poblaciones como pueden los
neandertales que fueron integradas en
una especie humana mundial en el
Pleistoceno tardío Somos los
resultados.”.
Fuentes:
https://asunews.asu.edu/
mapa: http://
www.lahistoriaconmapas.com/
Paleorama en red

13/6/12

HISTORIA DE LA LUZ

Al igual que en el caso del estudio de
la materia, con la luz vamos a volver a
encontrarnos con Empédocles. Como
ya dijimos, Empédocles es el padre de
la teoría de las cuatro raices y, dentro
de ésta, consideraba que Afrodita
había hecho el ojo humano a partir de
los cuatro elementos y había
encendido el fuego que hacía posible
la visión. Más allá de la leyenda,
Empédocles, consideraba que había
una interacción entre los rayos que
salían de los ojos y los rayos
procedentes de fuentes luminosas
como el Sol.
Dentro de la Grecia clásica quizas fuera
Euclides el que más avanzó en el
estudio de la luz y de la óptica.
Euclides, en su tratado “Óptica”, realiza
un estudio matemático de la luz,
elaborando postulados importantes,
relativos a la naturaleza de la luz y
afirmando que la luz viaja en línea
recta. Además, Euclides, describe las
leyes de la reflexión y las estudia
desde el punto de vista matemático.
Dentro de los científicos griegos, en
relación al estudio de la luz, es
necesario destacar a Herón de
Alejandría (formuló el principio de que
la luz recorre el camino más corto
entre dos puntos) y Claudio Ptolomeo
que realizó un estudio de las
propiedades de la luz que está
recogido en su tratado “Óptica”.
Saltando casi 1.000 años, nos
encontramos con un personaje
importantísimo: Alhazen. Alhazen fue
un científico árabe que vivió a caballo
de los siglos X y XI de nuestra era y
que desarrolló un importante trabajo
en óptica además de en otras
disciplinas (Astronomía, Física, etc.).
Alhazen es uno de los primeros en
afirmar que la vista es consecuencia de
la incidencia de la luz en el ojo y no
debida a un rayo que sale del ojo
hacia los objetos visionados (tal y
como afirmaba la tradición
ptoloméica). Alhazen consideraba la
luz como flujos de pequeñas partículas
que se reflejaban sobre los objetos y
viajaban en línea recta hasta el ojo.
Además postula que la luz viaja a una
gran velocidad pero no infinita y afirma
que la refracción de la luz está causada
por la diferencia en la velocidad de
propagación de la luz entre los
distintos medios.
Pasarían prácticamente 600 años hasta
que vuelva a haber avances
significativos en el conocimiento de la
luz. A lo largo de esos 600 años se
desarrolla la óptica y quizás lo más
destacable sea el trabajo de Roger
Bacon relativo a la óptica, que se basa
en las obras de Ptolomeo y Alhazen.
Tras este salto de seis siglos nos
encontramos, a comienzos del siglo
XVII, con una figura clave en la historia
de la luz: Johannes Kepler. Kepler
realizó un considerable trabajo
matemático en relación con la óptica,
derivando la primera teoría matemática
relativa a la cámara oscura. Kepler,
elaboró hipótesis acertadas, relativas al
funcionamiento del ojo humano y
determino la relación entre la
intensidad observada de una fuente
luminosa y la distancia a dicha fuente.
Sin embargo, Kepler se equivocó al
considerar que la velocidad de la luz
era infinita. El trabajo de Kepler sirvió
como base para la construcción del
telescopio por parte de Galileo.
Tras Kepler, el estudio de la luz y de la
óptica a lo largo de los dos primeros
tercios del siglo XVII está lleno de
nombres importantes en ciencia:
Thomas Harriot, René Descartes, Pierre
de Fermat, Willebrord Snel van Royen,
Bonaventura Cavalieri y James Gregory
(descubridor de la difracción), entre
otros, hicieron aportaciones notables a
la óptica y al estudio de la luz pero,
para no alargar en exceso esta
descripción vamos a centrarnos en tres
figuras clave del mismo siglo XVII.
El último tercio del siglo XVII fue muy
fructífero en relación al estudio de la
naturaleza de la luz. Por una parte, el
holandés Christian Huygens y el inglés
Robert Hooke desarrollan la primera
teoría ondulatoria de la naturaleza de
la luz basándose en ideas previas de
René Descartes. Por otra parte, Isaac
Newton, después de muchos estudios,
publica en 1672 su teoría del color y en
ella postula su teoría corpuscular de la
luz proporcionando evidencias
experimentales de que la luz está
formada por corpúsculos que viajan en
línea recta. La teoría corpuscular de
Newton fue duramente criticada por
Hooke y Huygens abriéndose, de esta
forma, una discusión que se
mantendría durante los doscientos
siguientes años.
Otro avance destacable, realizado en el
siglo XVII, fue la primera determinación
de la velocidad de la luz realizada por
el danés Ole Rømer en 1676.
El prestigio de Newton hace que la
teoría corpuscular de la luz no sea
discutida hasta que Leonhard Euler
publica, en 1747, su trabajo sobre
óptica. Euler, defiende la teoría
ondulatoria sobre la base de la
dificultad en explicar la difracción a
través de la teoría corpuscular. La
teoría ondulatoria de Euler recibe un
gran soporte a través de los
experimentos de interferencia de
Thomas Young en 1797. A comienzos
del siglo XIX, Augustin Fresnel, a través
de una serie de experimentos y
publicaciones consolida la teoría
ondulatoria de la luz.
Ya situados en el siglo XIX y antes de
acercarnos a dos figuras clave en el
estudio de la luz, merece la pena citar
a algunos científicos que realizaron
aportaciones importantes durante esta
centuria: Étienne-Louis Malus, Joseph
von Fraunhofer, Robert Bunsen, Gustav
Kirchhoff o Hippolyte Fizeau (que
determinó la velocidad de la luz como
300.000 Km/s en 1849 sin usar
mediciones astronómicas).
El siguiente hito a considerar en el
estudio clásico de la luz se produce en
1845 cuando Michael Faraday descubre
el efecto que lleva su nombre (rotación
del plano de polarización de la luz por
un campo magnético). Faraday
propone que los efectos magnéticos y
eléctricos asociados a la materia tienen
influencia sobre la propagación de la
luz. Realizando, de esta forma, el
primer acercamiento entre materia y
luz.
Sobre la base de los experimentos
realizados por Faraday, el escocés
James Maxwell se da cuenta de la
relación existente entre electricidad,
magnetismo y luz y desarrolla la
formulación matemática del campo
electromagnético que se concreta en
las famosas cuatro ecuaciones de
Maxwell.
Maxwell termina, de esta forma, con la
teoría corpuscular de Newton al
afirmar que la luz es una onda. Sin
embargo, las ondas para su
propagación, de acuerdo al
conocimiento existente en la época,
requerían de la existencia un medio
elástico (por ejemplo, la superficie del
agua, el aire, una cuerda de un
instrumento, un parche de un tambor,
etc.) sobre el que se propagan. Este
hecho hizo que se postulase la
existencia de una substancia
denominada éter que proporcionaba
el soporte a la transmisión de ondas
electromagnéticas. Como veremos, la
existencia del éter fue breve y
controvertida.
Fuente: http://
dotorqantico.wordpress.com/

17/5/12

¿QUÉ ES EL VIENTO SOLAR?

Ya en 1850, el astrónomo inglés
Richard C. Carrington, estudiando a la
sazón las manchas solares, notó una
pequeñísima erupción en la cara del
Sol que permaneció visible durante
unos cinco minutos. Carrington pensó
que había tenido la suerte de observar
la caída de un gran meteoro en el Sol.
El uso de instrumentos más refinados
para el estudio del Sol mostró hacia
los años veinte de este siglo que esas
«erupciones solares» eran sucesos
comunes, que solían ocurrir en
conjunción con las manchas solares. El
astrónomo americano George E. Hale
había inventado en 1889 el
«espectroheliógrafo», que permitía
observar el Sol a través de la luz de
una longitud de onda determinada y
fotografiar el Sol con la luz de
hidrógeno incandescente de la
atmósfera solar o del calcio
incandescente, por ejemplo. Y se
comprobó que las erupciones solares
no tenían nada que ver con los
meteoritos, sino que eran efímeras
explosiones de hidrógeno caliente.
Las erupciones de pequeño tamaño
son muy comunes pudiéndose
detectar cientos de ellas en un día,
especialmente donde hay grandes
complejos de manchas solares y
cuando éstas están creciendo. Las de
gran tamaño, como la que vio
Carrington, son raras, apareciendo
sólo unas cuantas cada año.
Hay veces en que la erupción se
produce justo en el centro del disco
solar y explotan hacia arriba en
dirección a la Tierra. Al cabo de un
tiempo empiezan a ocurrir cosas muy
curiosas en nuestro planeta. En
cuestión de días las auroras boreales
se abrillantan, dejándose ver a veces
desde las regiones templadas. La aguja
magnética se desmanda y se vuelve
loca, por lo que a veces se habla de
una «tormenta magnética».
Hasta el siglo presente tales sucesos
no afectaban gran cosa a la población
general. Pero en el siglo xx se
comprobó que las tormentas
magnéticas también afectaban a la
recepción de radio y al
comportamiento de los equipos
electrónicos en general. La importancia
de las tormentas magnéticas aumentó
a medida que la humanidad fue
dependiendo cada vez más de dichos
equipos. Durante una de esas
tormentas es muy posible que la
transmisión por radio y televisión se
interrumpa y que los equipos de radar
dejen de funcionar.
Cuando los astrónomos estudiaron las
erupciones con más detenimiento se
vio que en la explosión salía
despedido hacia arriba hidrógeno
caliente y que parte de él lograba saltar
al espacio a pesar de la gigantesca
gravedad del Sol. Como los núcleos de
hidrógeno son simples protones, el Sol
está rodeado de una nube de
protones (y de otros núcleos más
complicados en cantidades más
pequeñas) dispersos en todas
direcciones. En 1958 el físico
americano Eugene N. Parker llamó
«viento solar» a esta nube de protones
que mana hacia fuera.
Aquellos protones que salen
despedidos en dirección a la Tierra
llegan hasta nosotros, aunque la
mayor parte de ellos bordean el
planeta, obligados por la fuerza del
campo magnético. Algunos, sin
embargo, logran entrar en la atmósfera
superior, donde dan lugar a las
auroras boreales y a una serie de
fenómenos eléctricos. Una erupción
especialmente grande, que proyecte
una nube muy intensa hacia la Tierra,
producirá lo que podríamos llamar una
«galerna solar» y dará lugar a los
efectos de la tormenta magnética.
El viento solar es el agente
responsable de las colas de los
cometas. Lo que hace es barrer hacia
afuera la nube de polvo y gas que
rodea al cometa, cuando pasa cerca
del Sol. También se ha observado el
efecto del viento solar sobre los
satélites artificiales. Uno de ellos, el
Echo I, grande y ligero de peso, se
desvió perceptiblemente de su órbita
calculada por la acción del viento solar.
Por Isaac Asimov

MORENOS PERO RUBIOS.

Entre los melanesios, los nativos de las
islas Salomón, en el Pacífico sur, es
común tener un aspecto sorprendente.
La piel de todos ellos es oscura, la más
oscura de un ser humano fuera de
África, pero muchos nacen con un
rubio brillante propio de un
escandinavo. Los isleños con cabello
claro alcanzan el 10% de la población,
la mayor prevalencia fuera de Europa.
Hasta ahora se desconocía qué
provocaba esta peculiar apariencia.
Muchos consideraban que se trataba
de un rasgo transmitido por los
exploradores y comerciantes europeos
que visitaron las islas en los siglos
precedentes, pero una nueva
investigación publicada en la revista
Science ha conseguido desentrañar el
misterio. Se trata de una variante
genética única que afecta a este grupo
humano en concreto y que no tiene
nada que ver con el gen que causa los
cabellos rubios en los europeos.
A nivel mundial, el pelo rubio es poco
frecuente. Solo es habitual encontrarlo
en el norte de Europa y, fuera del
continente, en Oceanía, lo que incluye
las Salomón y las islas vecinas. Allí,
entre un 5 y un 10% de la población es
rubia, la misma frecuencia que, por
ejemplo, caracteriza a la población en
Irlanda. Semejante mezcla se creía
fruto del mestizaje. Los mismos
melanesios, más originales, explican el
color platino o dorado de su pelo por
una exposición prolongada al Sol o
una dieta rica en pescado.
Interesados por los hermosos
patrones discordantes de la
pigmentación de los isleños, los
científicos del Centro de Análisis Causal
en Epidemiología Traslacional, de la
Universidad de Bristol (Reino Unido) y
de la Escuela de Medicina de la
Universidad de Stanford (EE.UU.)
tomaron muestras de un grupo de
nativos de Melanesia, 43 con el pelo
rubio y 42 con el pelo oscuro, y llevó a
cabo un análisis genético para
comparar sus genomas. No fue fácil
tomar las muestras: gran parte de las
islas Salomón está poco desarrollada,
sin carreteras, electricidad ni teléfonos.
Además, es una de las naciones con
mayor diversidad lingüística del
mundo, se hablan decenas de lenguas.
Se pidió a los nativos que escupieran
en pequeños tubos para proporcionar
la saliva que se utilizaría para la
extracción de ADN. A pesar de los
problemas, en el lapso de un mes se
recogieron más de 1.000 muestras.
Los investigadores quedaron
fascinados por la ubicuidad del pelo
rubio, especialmente entre los niños.
Cuando analizaron las muestras,
descubrieron de inmediato una única
señal muy fuerte en el cromosoma 9,
que representa el 50% de la variación
en el color del pelo de los melanesios.
El equipo llegó a identificar el gen
responsable, llamado TYRP1, que
codifica una proteína relacionada con
tirosinasa, una enzima previamente
reconocida por influir en la
pigmentación en ratones y seres
humanos. Otros estudios revelaron
que la variante particular responsable
del pelo rubio en las islas Salomón
está ausente en el genoma de los
europeos.
Esto significa que la característica
humana del pelo rubio se originó de
forma independiente en la región
ecuatorial de Oceanía, algo que los
científicos consideran «inesperado y
fascinante».
Extraído de www.abc.es

16/5/12

¿QUÉ OCURRE CON TODA LA ENERGÍA EMITIDA POR LAS ESTRELLAS?

Las estrellas emiten energía de
diferentes maneras:
1. En forma de fotones de radiación
electromagnética carentes de masa,
desde los rayos gamma más
energéticos a las ondas radioeléctricas
menos energéticas (incluso la materia
fría radia fotones; cuanto más fría es la
materia, tanto más débiles son los
fotones). La luz visible es parte de esta
clase de radiación.
2. En forma de otras partículas sin
masa, como son los neutrinos y los
gravitones.
3. En forma de partículas cargadas de
alta energía, principalmente protones,
pero también cantidades menores de
diversos núcleos atómicos y otras
clases de partículas. Son los rayos
cósmicos.
Todas estas partículas emitidas —
fotones, neutrinos, gravitones,
protones, etc.— son estables mientras
se hallen aisladas en el espacio.
Pueden viajar miles de millones de
años sin sufrir ningún cambio, al
menos por lo que sabemos.
Así pues, todas estas partículas
radiadas sobreviven hasta el momento
(por muy lejano que sea) en que
chocan contra alguna forma de materia
que las absorbe. En el caso de los
fotones sirve casi cualquier clase de
materia. Los protones energéticos son
ya más difíciles de parar y absorber, y
mucho más difíciles aún los neutrinos.
En cuanto a los gravitones, poco es lo
que se sabe hasta ahora.
Supongamos ahora que el universo
sólo consistiese en estrellas colocadas
en una configuración invariable.
Cualquier partícula emitida por una
estrella viajaría por el espacio hasta
chocar contra algo (otra estrella) y ser
absorbida. Las partículas viajarían de
una estrella a otra y, a fin de cuentas,
cada una de ellas recuperaría toda la
energía que había radiado. Parece
entonces que el universo debería
continuar inmutable para siempre.
El hecho de que no sea así es
consecuencia de tres cosas:
1. El universo no consta sólo de
estrellas sino que contiene una
cantidad importante de materia fría,
desde grandes planetas hasta polvo
interestelar. Cuando esta materia fría
frena a una partícula, la absorbe y
emite a cambio partículas menos
energéticas. Lo cual significa que en
definitiva la temperatura de la materia
fría aumenta con el tiempo, mientras
que el contenido energético de las
estrellas disminuye.
2. Algunas de las partículas (neutrinos
y gravitones, por ejemplo) emitidas por
las estrellas y también por otras formas
de materia tienen una tendencia tan
pequeña a ser absorbidas por éstas
que desde que existe el universo sólo
han sido absorbidas un porcentaje
diminuto de ellas. Lo cual equivale a
decir que la fracción de la energía total
de las estrellas que pulula por el
espacio es cada vez mayor y que el
contenido energético de las estrellas
disminuye.
3. El universo está en expansión. Cada
año es mayor el espacio entre las
galaxias, de modo que incluso
partículas absorbibles, como los
protones y los fotones, pueden viajar
por término medio distancias mayores
antes de chocar contra la materia y ser
absorbidas. Esta es otra razón de que
cada año sea menor la energía
absorbida por las estrellas en
comparación con la emitida, porque
hace falta una cantidad extra de
energía para llenar ese espacio
adicional, producido por la expansión,
con partículas energéticas y hasta
entonces no absorbidas. Esta última
razón es suficiente por sí misma.
Mientras el universo siga en
expansión, continuará enfriándose.
Naturalmente, cuando el universo
comience a contraerse de nuevo —
suponiendo que lo haga— la situación
será la inversa y empezará a calentarse
otra vez.


FUENTE: 1973. Asimov, Isaac: “100
preguntas básicas sobre la Ciencia”.
Alianza Editorial S.A.

13/5/12

¿HASTA DÓNDE PUEDE LLEGAR EL PROCESO DE FUSIÓN DENTRO DE UNA ESTRELLA?

Cuando un número determinado de
protones y neutrones se juntan para
formar un núcleo atómico, la
combinación resultante es más estable
y contiene menos masa que esos
mismos protones y neutrones por
separado. Al formarse la combinación,
el exceso de masa se convierte en
energía y se dispersa por radiación.
Mil toneladas de hidrógeno, cuyos
núcleos están constituidos por un solo
protón, se convierten en 993 toneladas
de helio, cuyos núcleos constan de dos
protones y dos neutrones. Las siete
toneladas restantes de masa se emiten
en forma de energía.
Las estrellas como nuestro Sol radian
energía formada de esta manera. El Sol
convierte unas 654.600.000 toneladas
de hidrógeno en algo menos de
650.000.000 toneladas de helio por
segundo. Pierde por tanto 4.600.000
toneladas de masa cada segundo. Pero
incluso a este ritmo tan tremendo, el
Sol contiene suficiente hidrógeno para
mantenerse todavía activo durante
miles de millones de años.
Ahora bien, llegará el día en que las
reservas de hidrógeno del Sol lleguen
a agotarse.
¿Significa eso que el proceso de fusión
se parará y que el Sol se enfriará?
No del todo. Los núcleos de helio no
representan el empaquetamiento más
económico de los protones y
neutrones. Los núcleos de helio se
pueden fusionar en núcleos aún más
complicados, tan complicados como
los del hierro. De este modo se seguirá
emitiendo energía.
Pero tampoco mucha más. Las 1.000
toneladas de hidrógeno que, según
hemos dicho, se fusionan en 993
toneladas de helio se pueden fusionar
luego en 991,5 toneladas de hierro. Al
pasar de hidrógeno a helio se
convierten en energía siete toneladas
de masa, pero sólo una y media al
pasar de helio a hierro.
Y al llegar al hierro entramos en una
vía muerta. Los protones y neutrones
del núcleo de hierro están
empaquetados con una estabilidad
máxima. Cualquier cambio que se
produzca en el hierro, ya sea en la
dirección de átomos más simples o de
átomos más complejos, no emite
energía sino que la absorbe.
Podemos decir por tanto que cuando
la estrella alcanza la fase del helio ha
emitido ya unas cuatro quintas partes
de toda la energía de fusión
disponible; al pasar al hierro emite la
quinta parte restante y allí se acaba la
historia.
Pero ¿qué sucede después?
Al pasar a la etapa de fusión posterior
al helio el núcleo de la estrella se torna
mucho más caliente. Según una teoría,
al llegar a la etapa del hierro se vuelve
lo bastante caliente como para iniciar
reacciones nucleares que producen
cantidades enormes de neutrinos. El
material estelar no absorbe los
neutrinos: tan pronto como se forman
salen disparados a la velocidad de la
luz, llevándose energía consigo. El
núcleo de la estrella pierde energía, se
enfría de forma bastante brusca y la
estrella se convierte por colapso en
una enana blanca.
En el curso de este colapso, las capas
exteriores, que aún poseen átomos
menos complicados que los de hierro,
se fusionan todos a un tiempo,
explotando en una «nova». La energía
resultante forma átomos más
complicados que los de hierro, incluso
de uranio y más complejos aún.
Los restos de tales novas, que
contienen átomos pesados, se mezclan
con el gas interestelar. Las estrellas
formadas a partir de ese gas, llamadas
«estrellas de la segunda generación»,
contienen pequeñas cantidades de
átomos pesados que jamás podrían
haber conseguido a través del proceso
de fusión ordinario. El Sol es una
estrella de la segunda generación. Y
por eso, hay oro y uranio en la Tierra.
Isaac Asimov

5/5/12

¿QUÉ TEMPERATURA PUEDE ALCANZAR UNA ESTRELLA?

Depende de la estrella y de qué parte
de la estrella consideremos.
Más del 99 por 100 de las estrellas que
podemos detectar pertenecen —como
nuestro Sol— a una clasificación
llamada «secuencia principal», y al
hablar de la temperatura de una
estrella queremos decir, por lo general,
la temperatura de su superficie.
Empecemos por aquí.
Toda estrella tiene una tendencia a
«colapsar» (derrumbarse hacia el
interior) bajo su propia atracción
gravitatoria, pero a medida que lo hace
aumenta la temperatura en su interior.
Y al calentarse el interior, la estrella
tiende a expandirse. Al final se
establece el equilibrio y la estrella
alcanza un cierto tamaño fijo. Cuanto
mayor es la masa de la estrella, mayor
tiene que ser la temperatura interna
para contrarrestar esa tendencia al
colapso; y mayor también, por
consiguiente, la temperatura
superficial.
El Sol, que es una estrella de tamaño
medio, tiene una temperatura
superficial de 6.000º C. Las estrellas de
masa inferior tienen temperaturas
superficiales más bajas, algunas de
sólo 2.500º C.
Las estrellas de masa superior tienen
temperaturas más altas: 10.000º C,
20.000º C y más. Las estrellas de mayor
masa, y por tanto las más calientes y
más brillantes, tienen una temperatura
superficial constante de 50.000º C
como mínimo, y quizá más. Nos
atreveríamos a decir que la
temperatura superficial constante más
alta posible de una estrella de la
secuencia principal es 80.000º C.
¿Por qué no más? ¿Y si consideramos
estrellas de masa cada vez mayor?
Aquí hay que parar el carro. Si una
estrella ordinaria adquiere una masa
tal que su temperatura superficial
supera los 80.000º C, las altísimas
temperaturas del interior producirán
una explosión. En momentos
determinados es posible que se
alcancen temperaturas superiores,
pero una vez pasada la explosión
quedará atrás una estrella más
pequeña y más fría que antes.
La superficie, sin embargo, no es la
parte más caliente de una estrella. El
calor de la superficie se transmite hacia
afuera, a la delgada atmósfera (o
«corona») que rodea a la estrella. La
cantidad total de calor no es mucha,
pero como los átomos son muy
escasos en la corona (comparados con
los que hay en la estrella misma), cada
uno de ellos recibe una cuantiosa
ración. Lo que mide la temperatura es
la energía térmica por átomo, y por
esa razón la corona solar tiene una
temperatura de 1.000.000º C
aproximadamente.
También el interior de una estrella es
mucho más caliente que la superficie. Y
tiene que ser así porque sino no
podría aguantar las capas exteriores
de la estrella contra la enorme
atracción centrípeta de la gravedad. La
temperatura del núcleo interior del Sol
viene a ser de unos 15.000.000º C.
Una estrella de masa mayor que la del
Sol tendrá naturalmente una
temperatura nuclear y una temperatura
superficial más altas. Por otro lado,
para una masa dada las estrellas
tienden a hacerse más calientes en su
núcleo interior a medida que
envejecen. Algunos astrónomos han
intentado calcular la temperatura que
puede alcanzar el núcleo interior antes
de que la estrella se desintegre. Una de
las estimaciones que yo conozco da
una temperatura máxima de
6.000.000.000º C.
¿Y qué ocurre con los objetos que no
se hallan en la secuencia principal? En
particular, ¿qué decir acerca de los
objetos descubiertos recientemente, en
los años sesenta? Tenemos los
pulsares, que según se cree son
«estrellas de neutrones»
increíblemente densas, con toda la
masa de una estrella ordinaria
empaquetada en una esfera de un par
de decenas de kilómetros de diámetro.
La temperatura de su interior ¿no
podría sobrepasar ese «máximo» de
los seis mil millones de grados? Y
también están los quasares, que según
algunos son un millón de estrellas
ordinarias, o más, colapsadas todas en
una ¿Qué decir de la temperatura de
su núcleo interior?
Hasta ahora nadie lo sabe.
INFO: En 1965 el genial escritor y
divulgador científico Isaac Asimov
aceptó una oferta de la revista “Science
Digest” que consistía en responder a
preguntas formuladas por sus lectores
brevemente, en torno a 500 palabras.
Lo que un principio iba a ser una
colaboracion esporádica terminó
siendo algo mensual. Ocho años
despues, en 1973, había realizado mas
de cien entregas y decidió publicarlas
junticas en un libro, que se llamó como
la sección, “Please Explain” (Por favor,
explique) y que fue publicado por la
Editorial Houghton Mifflin Company.

FENÖMENOS CELESTES REGISTRADOS EN LA ANTIGÜEDAD.

En una octavilla elaborada en madera
en 1566 por el artista Hans Glaser se
describe un evento acaecido en
Núremberg cinco años antes, en el
momento de la salida del Sol, el 14 de
abril de 1561. Dicha representación se
conserva en la colección Wickiana, en
la biblioteca central (Zentralbibliotel)
de Zúrich. En esta colección también se
incluye una ilustración sobre un
fenómeno celeste acaecido en Basilea
en 1566.
Esta octavilla procede de Núremberg y
cuenta la nueva de una «muy
horripilante aparición» en el momento
de la salida del Sol, el 14 de abril de
1561. Fue vista «por muchas personas,
varones y mujeres». Eran «esferas» de
color rojo sangre, azulado y negro, o
«discos anulares», cerca del Sol, «tres
por ejemplo en fila / a veces cuatro en
cuadrado, y también algunas solas / y
también se han visto entre esas esferas
algunas cruces de color sangre». Había
también «dos grandes tubos» (o tres)...
«en cuales pequeños y grandes tubos /
estaban de a tres / también de a cuatro
y más esferas. Y todos ellos
comenzaron a pelearse entre sí». El
fenómeno duró aproximadamente una
hora. Luego «todo ello como ofuscado
por el Sol / cayó a la Tierra desde el
cielo como si todo ardiera / y con gran
vapor desapareció poco a poco sobre
la Tierra». También se vio, bajo las
esferas, una figura alargada, «igual que
una gran lanza negra». Naturalmente,
esta «visión» se entendió como
advertencia divina.
Explicaciones:
-Desde el ámbito científico se alude a
Parhelio o Halo.
El fenómeno conocido como parhelio
o halo es un efecto óptico que
usualmente se ve en lugares fríos como
Alaska, los polos norte o en zonas
donde se están desarrollando
tormentas o mal tiempo. Causado por
partículas de hielo en suspensión en la
Troposfera que refractan la luz
haciendo un espectro de colores
alrededor de la luna o el sol.
Por lo general hacia adentro tienden a
tener colores rojizos mientras que
hacia afuera cuentan con amarillo,
verde y azul claro.
Dentro del halo, el cielo parece ser
más oscuro que fuera de él. Los halos
son anillos de color blanco o de una
tonalidad pálida que se forman
alrededor del Sol o de la Luna. En este
caso el mecanismo físico que los
produce tiene que ver con procesos de
reflexión y refracción en los pequeños
cristales de hielo que constituyen las
nubes altas de tipo cirros. El tipo más
común es el generado por procesos
de refracción en cristales de hielo
hexagonales. En este caso el diámetro
del círculo que forma el halo es tal, que
si uno apunta con un brazo en la
dirección del Sol (o de la Luna) y con
el otro en la dirección de cualquier
punto del halo, el ángulo entre los
brazos es 22°.
-Desde la ufología se considera un
avistamiento documentado del
fenómeno ovni en la antigüedad.
-Carl Gustav Jung manifestó su interés
sobre el fenómeno ovni en una de sus
obras Un mito moderno. De cosas que
se ven en el cielo (1958), mencionando
tanto el «Fenómeno celeste en
Núremberg de 1561» como el
«Fenómeno celeste en Basilea de
1566»..Realiza la observación de que
no es fortuito el que los espectadores
hayan organizado la escena con una
gestalt familiar: cruces, tubos de
cañones, balas de cañón, la lanza y el
color rojo "sangre" de una "inminente
desgracia divina". Para él lo importante
no era tanto lo que ocurre en el
fenómeno ovni sino cómo lo
interpretan los seres humanos.
En una octavilla elaborada en agosto
de 1566 por Samuel Coccius,
«estudioso de las Sagradas Escrituras y
de las artes liberales, súbdito de
Basilea», es representado un
fenómeno acaecido en dicha ciudad el
día 7 del mismo mes.
“En el momento de la salida del Sol «se
vieron en el aire muchas esfera negras
que hacia el Sol / se desplazaban con
gran rapidez y celeridad / y también
volviéndose unas contra otras libraban
disputa / tornándose algunas rojas y
fogosas / y luego se consumieron y
disolvieron“.
Imagen: Fenómeno celeste de
Nüremberg en 1561. Hans Glaser, 1566.
Biblioteca Central de Zúrich
Fuentes:
http://es.wikipedia.org/wiki/Fen
%C3%B3meno_celeste_en_N
%C3%BAremberg_de_1561
http://es.wikipedia.org/wiki/Halo_(fen
%C3%B3meno_meteorol%C3%B3gico)
http://es.wikipedia.org/wiki/Fen
%C3%B3meno_celeste_en_Basilea_de_1566

HABLEMOS DE LA TEORÍA DE LA EVOLUCIÓN

La sustitución de Dios como
inteligencia creadora, por el azar es un
terrible paso atrás que la humanidad
dio en base a una malintencionada y
absurda Teoría de la Evolución.

En el siglo XV los científicos afirmaban
que la Tierra era plana. Para sostenerla
dilucidaron que debía apoyarse en
cuatro elefantes gigantes, que a su vez
se hallaban sobre una gran tortuga.
Según esa teoría «científica», si alguien
llegaba al «fin del mundo» caería hasta
los pies de los elefantes. Si sobreviviera
sería pisoteado por ellos y, si lograra
escapar, la tortuga lo devoraría.
Corría el siglo XIX cuando Charles
Darwin enunció la teoría de la
Evolución de las Especies en su libro El
origen de las especies por medio de la
selección natural, o la preservación de
las razas preferidas en la lucha por la
vida.
En aquel tiempo se dieron cita una
serie de «grandes hombres» (y
remarco las comillas) que desarrollaron
esta teoría, que avanzó paralelamente
a la Eugenesia (el mismo hijo de
Charles Darwin fue presidente de la
Sociedad Eugenésica) y de todo tipo de
teorías destinadas a un único fin:
declarar que el hombre blanco es
superior a todas las demás criaturas, y
que la élite británica de aquellos
tiempos era superior al resto de los
hombres blancos, por cuanto eran la
culminación de esa supuesta
evolución.
Entre otras joyas cabe destacar del
mencionado libro que el hombre
negro es el eslabón entre el gorila y el
hombre blanco, y que la mujer está
menos evolucionada al poseer
comportamientos de imitación
próximos a los animales.
Por su parte, la mencionada Eugenesia
ha llevado al asesinato y a la
esterilización de miles de hombres y
mujeres de clases pobres, al defender
que las clases acomodadas lo son por
derecho «evolutivo», y es, por lo tanto,
de derecho natural que esas clases
altas controlen a las más pobres y,
consecuentemente, menos
evolucionadas.
En este orden de cosas, cabe destacar
que los científicos y profesores más
fervientemente darwinistas jamás han
leído a Darwin, y se limitan (como es
habitual en las «universidades» de
nuestros tiempos) a recitar al pie de la
letra lo que la ciencia oficializada ha
decidido que es lo correcto.
Al hablar de «verdades oficializadas»
nos referimos a todas esas teorías
nunca demostradas que enseñamos a
nuestros hijos en las escuelas como
algo irrefutable, y que, más allá de
esto, dejan fuera del mundo científico
a quien ose contradecirlas; erigiendo
muros exclusivos y xenófobos a los
críticos que pretendan abrir puertas
para que entre la luz en el mundo de
la ciencia dogmática.
Si de verdad todas las formas de vida
procedieran de una misma forma
original, y esta hubiera evolucionado
durante millones de años
ramificándose y dando lugar a la
multiplicidad biológica que hoy habita
este planeta, es obvio que este proceso
hubiera durado millones y millones de
años, y como consecuencia el planeta
estaría plagado de fósiles de
intermedios entre todas las formas de
vida que conocemos.
Pero más allá de esta afirmación, si el
gorila (o el chimpancé, como más tarde
se ha declarado por parte de la ciencia
oficial) evolucionó en hombre;
teniendo en cuenta que el chimpancé
ha sobrevivido y que el hombre
también, ¿por qué todos los infinitos
intermedios desaparecieron? Y ¿dónde
están sus restos?
Y ahora extendamos esta afirmación a
todas las especies: si el original y el
destino de una evolución cualquiera
sobreviven, ¿dónde están todos los
intermedios entre todas las especies
que existen?
No tiene sentido.
En un segundo análisis, cabe decir que
un estudio científico realizado en Italia
durante los años 80 determinó que la
probabilidad de que se cree un
Aminoácido por puro azar era de
1/1023.
Escribámoslo para entender la cifra:
0,00000000000000000000001.
La siguiente pregunta es: ¿y con eso
tenemos vida? Absolutamente ¡no!
Un aminoácido es solamente una
molécula que conforma un gen. Para
fomar un gen, necesitaríamos cientos
de aminoácidos que se combinaran
perfectamente, de modo que dieran
lugar a una cadena de aminoácidos
que formaran un gen válido, pues no
cualquier combinación de aminoácidos
generaría un gen adecuado. De modo
que la probabilidad habría que ir
multiplicándola tantos cientos de veces
como aminoácidos se necesitan para
formar un gen, y luego añadir la
dificultad de que la combinación de
estos fuera la precisa.
Así pues, el resultado es que, para
escribir cabalmente la cifra que
expresara la probabilidad de que se
forme un gen por puro azar,
necesitaríamos enciclopedias
completas llenas de ceros.
Pero eso es solo un gen. Ahora
necesitamos una cadena de genes,
creados por casualidad, que de nuevo
se combinen exactamente de la
manera precisa para dar lugar a un
cromosoma que, a su vez, sea válido
para la vida.
Obviamente, la cifra que estamos
barajando es tan ínfima, que ya no
cabe hablar de que la formación de un
cromosoma por casualidad sea
improbable y tendríamos que afirmar
que es imposible.
Pero sigamos; ya tenemos un
cromosoma. Ahora necesitamos que se
formen proteínas para dar lugar a la
primera forma que podríamos
denominar «vida» y que es el virus.
Esas proteínas tienen que combinarse
adecuadamente para que respondan a
la información de los cromosomas,
¡por azar!: imposible.
Supongamos que sí que aparece por
ahí una cadena de proteínas y se
combina con ese cromosoma. Ya
tenemos un virus. ¿Qué es lo que
caracteriza a un virus?: ¡que no es
capaz de reproducirse por sí mismo!
Necesita una célula o una bacteria para
reproducirse… Por eso durante mucho
tiempo se consideró que el virus ni
siquiera era un ser vivo.
Pues bien, esta teoría se la enseñamos
a nuestros hijos en las escuelas como
algo válido y demostrado.
Afortunadamente, científicos de la talla
de Máximo Sandín, biólogo y profesor
de Evolución Humana en la
Universidad Autónoma de Madrid, dan
la cara y ponen los puntos sobre las
íes. A costa, claro está, de convertirse
en el hazmerreír de sus
«compañeros», siendo denostados y
arriesgándose a perder sus propios
empleos, se atreven a levantar la
bandera de peligro y afirmar que «lo
no puede ser no puede ser, y además
es imposible».
La selección natural es algo obvio,
innegable. ¿Quién puede dudar de que
el más fuerte se impone en la
naturaleza, para procrearse por
delante de los más débiles, dando
lugar a una selección genética?
Pero ¿cómo decir que un pez tenía
muchas ganas de andar y, como
consecuencia, se le desarrollaron patas
y salió del agua? ¿Cuándo se ha visto
una especie transformarse en otra?
¿Dónde están todos los intermedios?
El hombre siempre ha querido volar.
¿Alguien tiene en sus espaldas el
atisbo de la aparición protuberante de
unas futuras alas? Absurdo. Falso.
La corrupción se cuela calladamente en
nuestras mentes como el agua por las
rendijas del edificio desahuciado. Es
difícil verla. Especialmente cuando
desde niños nos han hecho comulgar
con ruedas de molino.
Con razón dijo un sabio: «El mayor
problema de la ciencia no es lo que
desconoce, sino lo que cree que
conoce pero es falso».

HABLEMOS DE LA «CIENCIA» DEL AZAR

Y entendemos ahora también por qué
todas las antiguas tradiciones
comprendieron el tiempo de un modo
cíclico, redondo, repetitivo.
Llegados a este punto cabe
plantearnos: observando un universo
tan magnífico como este que nos
rodea, en el que cada constante
(número Pi, Número de Avogadro,
aceleración gravitatoria, constante de
Planck, etc.) está ajustada de un modo
tan exacto que la más mínima
variación haría que el universo
colapsara o se disgregara; donde los
planetas se mueven de un modo tan
increíblemente perfecto y precioso, en
la gran danza cósmica de giros,
rotaciones, traslaciones…; formando
ciclos y más ciclos cada uno
milimétricamente encajado en un ciclo
superior…; ¿cómo podemos pensar
que nuestra vida es azar, casualidad,
nada…?

En el pasado, las gentes, ignorantes e
impotentes ante los acontecimientos
de sus vidas y de sus entornos, ponían
en manos del Divino el porqué y el
para qué de cuanto les acontecía;
llevando a las Iglesias corruptas a
aprovecharse de ese hecho para
imponer sus intereses camuflados
como supuestas doctrinas, camino
único hacia la felicidad, hacia Dios, etc.
Las pobres gentes, impotentes, solo
pudieron ceder al chantaje sucio y
malintencionado de aquellos que
pretendieron ser administradores del
Cielo y del Infierno.
Siempre la corrupción política y
religiosa ha marcado la pauta de las
sociedades, y hoy la «ciencia» se suma
a esa lucha por hacerse acreedora de
la «Verdad» absoluta y única,
condenando a los críticos al
ostracismo, al escarnio público, a la
ridiculización y al sambenito eterno; en
ese mercadeo por obtener la
credulidad de las almas, como
empresas que compiten por mejores
cuotas de negocio.
Se ríen los dizque «sabios» de aquellos
que buscaron en una inteligencia
creadora el origen de la existencia, la
explicación lógica a las sempiternas
cuestiones: “¿quién soy?, ¿por qué
existo?, ¿qué era antes de nacer?, ¿a
dónde iré cuando muera?”, etc., etc.,
etc.
Hoy, en cambio, esta ciencia «superior»
materialista se ríe de las eternas
preguntas que a lo largo de la historia
han dignificado al hombre y lo han
diferenciado del resto de las bestias.
Pero, curiosamente, esta «ciencia»
aspirante a ser la encarnación de la
«Verdad Absoluta» ha eliminado a esa
inteligencia que ha creado y ordenado
cuanto existe y la ha sustituido por el
puro azar.
Y en ese acto creen ellos haber dado
un paso adelante hacia la verdad.
Impresentable. Indigno. Falsedad
malintencionada.
¿Acaso puede considerarse más
probable que la Creación, esta
inigualable Gran Sinfonía Cósmica, esta
suma de Leyes y circunstancias tan
increíblemente infinita y perfecta que
conforman el Gran Escenario Cósmico,
sea más fácilmente explicable por el
puro azar que por la existencia de un
“Director de Orquesta”?
Recordando las palabras del Maestro
Samael, ¿podría acaso existir una
mecánica sin mecánicos?
Obviamente la respuesta es ¡no!, ¡no! y
mil veces ¡no!
Pretender explicar la Creación por el
azar es tanto como sustituir la
inteligencia creadora por el absurdo.
Científicamente impresentable.
Matemáticamente imposible.