ves esta página sin formato por que esta hecha cumpliendo el estándar web CSS 2.
tú navegador no soporta este estándar, o tienes dicho soporte desactivado.
si estas en el primer caso, actualízate. merece mucho la pena.

Ecos del futuro

Reflexiones sobre ciencia, economía, ecología, política y comportamiento humano

Archivos

<Julio 2016
Lu Ma Mi Ju Vi Sa Do
        1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
             


Últimos comentarios

  • Albert en Permíteme que insista: 77 años de advertencias sobre el cambio climático
  • Pedro J. en El descubrimiento de las eras glaciales y el efecto invenadero
  • L Martín en El descubrimiento de las eras glaciales y el efecto invenadero
  • Albert en Anotaciones históricas sobre el descubrimiento de las ondas gravitatorias
  • Pedro J. en Anotaciones históricas sobre el descubrimiento de las ondas gravitatorias
  • Albert en Anotaciones históricas sobre el descubrimiento de las ondas gravitatorias
  • Pedro J. en Datación K-Ar y las edades de Marte
  • Antonio (AKA \"Un físico\") en Datación K-Ar y las edades de Marte
  • Pedro J. en La paradoja francesa
  • Pedro J. en Chernóbil y el imaginario popular


  • Categorías

  • Acertijos
  • Astronomia
  • Ateismo
  • Biologia
  • Cambio climatico
  • Civilizacion
  • Comportamiento humano
  • Corporaciones
  • cortos
  • Crisis
  • Cristianismo
  • Destino
  • Dinero
  • Ecologia
  • Economia
  • Educacion
  • Energia
  • Enlaces
  • Escepticismo
  • Etica
  • Evolucion
  • Extincion
  • Felicidad
  • Fisica
  • Futuro
  • Genetica
  • Globalizacion
  • Guerra
  • Historia
  • Humor
  • Islam
  • Libros
  • Longevidad
  • Loteria
  • Metodo cientifico
  • Neurologia
  • Nuclear
  • Ocio
  • Petroleo
  • Política
  • Psicologia
  • Religion
  • Riesgo
  • Salud
  • Sociedad
  • Tecnologia
  • Trabajo

  • Series

  • Mecánica cuántica. En progreso

  • Materia oscura

  • Economía de la práctica religiosa

  • Imagen del principio del universo

  • Ahogado en una supercuerda


    En la red

  • Antigua página personal
  • Tutorial de Cosmología
  • @ecosdelfuturo
  • La ciencia del cambio climático


    Creative Commons License
    Esta obra está bajo una licencia de Creative Commons.


    2006-2015

    Pedro J. Hernández



    Blogalia

    Blogalia

  • La física del efecto invernadero


    La idea básica de una atmósfera representada como una capa de gases,que dejan pasar la luz solar pero impide parcialmente el paso de la radiación debido a la presencia de gases de efecto invernadero (GEI) es simple pero muy poco útil para explicar por qué se produce el calentamiento de la superficie terrestre cuando aumenta la cantidad de estos.

    Tampoco debemos dejarnos engañar por la aparente sofisticación de un modelo de equilibrio radiativo como el de atmósfera gris desarrollado en la entrada anterior. Es un modelo que resulta realmente útil para entender ciertos aspectos básicos, pero tiene sus debilidades, como la idea de saturación , es decir, la idea errónea de que, a partir de cierta concentración (equivalente a ε=1 en el modelo), añadir más GEI no provoque ningún efecto en el calentamiento de la superficie terrestre. Veremos que en la atmósfera real no es posible ese efecto de saturación.

    Uno de los problemas que encuentro habitualmente en los debates sobre la ciencia del cambio climático es la falta de consciencia general sobre lo compleja que es la física de la atmósfera y el transporte de energía que allí sucede. Nadie que no haya dedicado muchos meses (mejor incluso años) a leer varios libros de texto sobre el tema tendrá una idea siquiera aproximada de cómo funciona este asunto. Y esos argumentos en la red tienen, en el mejor de los casos, la sofisticación análoga de alguien que quisiese entender las líneas espectrales del hidrógeno utilizando el modelo atómico de Dalton y discutiese con un físico que contase con todo el aparato matemático de la mecánica cuántica.

    Sin embargo el lector no tiene por qué avergonzarse de su ignorancia (faltaría más). El mecanismo detallado del mal denominado efecto invernadero es conceptualmente tan complejo como la mismísima física atómica. Y prueba de ello es que grandes hombres de ciencia debatieron durante muchos años la interpretación correcta de este efecto.

    La idea de esta entrada es introducir al lector en aquellos aspectos que debemos considerar a la hora de entender en su plenitud lo que denominamos el efecto invernadero amplificado por efecto de los GEI —lo que además no debemos equiparar en principio al calentamiento global antropogénico—. Estos aspectos se pueden clasificar en cuatro apartados:

    1. Propiedades de la radiación térmica
    2. Equilibrio radiativo
    3. Estructura de la atmósfera
    4. Propiedades de absorción/emisión de los GEI.

    Terminaremos con la reunión de estos aspectos para proporcionar una explicación lo más simplificada posible —¡pero no más!— de la física del efecto invernadero amplificado por GEI.

    Seguir leyendo en La Ciencia de Svante Arrhenius

    2016-07-22 21:13 | Cambio climatico, Fisica | 0 Comentarios


    Permíteme que insista: 77 años de advertencias sobre el cambio climático


    El ingeniero británico Guy Stewart Callendar estableció, a finales de los años treinta, la teoría del cambio climático antropogénico debido al CO2 tal y como la entendemos actualmente. Autodidacta y considerado en la comunidad geológica de la época poco menos que un aficionado, sus trabajos sobre el papel del CO2 en la temperatura de la atmósfera llegaron a ser tan influyentes que el efecto se conocería durante muchos años por su apellido. Probablemente haya sido la primera persona en mencionar explícitamente cierta preocupación por los efectos del cambio climático antropogénico. En 1939, Callendar escribía para la revista Meteorological Magazine:

    Seguir leyendo en Naukas

    2016-06-23 17:04 | Cambio climatico, Historia, Política | 1 Comentarios


    La medida del radio de la Tierra es complicada. ¡Y lo sabes!


    Me he encontrado la imagen anterior en Facebook. La afirmación de Brian Cox encerraría algo de verdad si cambiásemos la palabra "puedes" por "podemos", refiriéndonos a nuestra especie; o como mínimo a aquellos de la especie que han sentido, a lo largo de la historia, la curiosidad de aprender sobre el mundo que les rodeaba.

    Cualquier cosa que hagamos hoy en día en ciencia implica poner un bloque más sobre un enorme edificio conceptual construido durante generaciones. Estamos subidos a hombros de gigantes. Y casi nos resulta imposible apearnos. Incluso para realizar comprobaciones de hechos relativamente triviales.

    Eugenio Manuel Fernández escribía el otro día en Naukas una magnífica entrada explicando detalladamente cómo realizar la medida del radio de la Tierra utilizando una versión moderna del método de Eratóstenes. En lugar de pedir a sus alumnos que midiesen la distancia al trópico de Cáncer a pasos uniformes o viajando en camello, Eugenio tomó una decisión más en acuerdo con el siglo XXI de utilizar alternativamente Google Maps. Ese paso aparentemente tan sencillo y humanitario sin embargo dinamita la posibilidad de verificar la medida de Eratóstenes, pues ésta ya está implícita en las distancias que nos proporciona la aplicación de Google. Así que nos encontraríamos ante una comprobación circular.



    Incluso en el caso de enviar a alguien a medir la distancia al Trópico de Cáncer, eso implicaría una expedición relativamente cara y compleja, donde tendríamos que realizar mediciones, tanto de la distancia recorrida como de nuestras direcciones, además de asegurarnos el hecho de encontrarnos justo en el Trópico de Cáncer. Y todo ello sin utilizar mapas, gps o internet. Como ven, una medida nada trivial.

    Durante los siglos XVI y XVII estaba ya clara la importancia de medir un arco de circunferencia terreste en diferentes lugares para hacerse una idea de las dimensiones y la forma de la Tierra. La dificultad de una medición suficientemente precisa alentó en la época dos hipótesis sobre la forma de la tierra: la hipótesis calabaza, defendida por Isaac Newton, donde La Tierra era un esferoide oblato achatado por los Polos y la hipótesis huevo (esferoide prolato) defendida por la familia Cassini en el Observatorio de París.


    En 1730, se instó a la Academia Francesa de las Ciencias a organizar una expedición que se acercara todo lo posible al ecuador y otra que llegase lo más cerca posible de uno de los Polos para medir la diferencia de distancia para un grado de arco de circunferencia (correspondiente a 60 millas naúticas o en torno a unos 111 km). Una expedición, capitaneada por Pierre Bouguer y Charles Marie de La Condamine,se dirigiría hacia Perú en 1735. Un año más tarde, partiría una segunda hacia Laponia con Alexis Claude Clairaut y Pierre Louis Maupertuis al frente. Los acompañaría el no menos conocido Anders Celsius.


    El resultado dio la razón a Newton, pero por tan poco --tan solo 350 m en los 111 km correspondientes a 1º de arco-- que podemos considerar la Tierra como una esfera perfecta con una precisión de unas pocas partes por mil.

    Actualmente utilizamos la velocidad de la luz y la medición de tiempos precisos en relojes atómicos para calcular los parámetros orbitales de los satélites y de ahí deducir los valores de los parámetros geodésicos. La idea básica es la misma que la de las medidas de la longitud de arco del siglo XVIII, pero implica varios niveles más arriba en el edificio del conocimiento, incluyendo medidas precisas de la velocidad de la luz y cálculos con base relativista.


    En misiones de última generación como GOCE, se combina la información de la posición con un gradiómetro de una precisión inaudita, capaz de medir diferencias de la aceleración de la gravedad de una parte en diez billones. Con eso se logran trazar las más mínimas variaciones (1-2 cm) del geoide.

    Referencias

    James R. Smith 1996 Introduction to geodesy: the history and concepts of modern geodesy

    Ecos del Futuro 2011 La Tierra sigue siendo una esfera

    Eugenio Manuel Fernández 2016 Mide el tamaño de la Tierra antes de irte de vacaciones. Naukas.

    Eureka 2013 Adiós a GOCE, el explorador gravitatorio europeo

    M. Drinkwater, R. Haagmans, M. Kern, D. Muzi, R. Floberghagen, "GOCE: Obtaining a Portrait of Earth's Most Intimate Features" ESA Bulletin, No 133, February 2008, pp. 4-13

    M. Fehringer, G. Andre, D. Lamarre, D. Maeusli, "A Jewel in ESA's Crown - GOCE and its Gravity Measurement Systems" ESA Bulletin, No 133, February 2008, pp. 14-23

    2016-06-18 19:26 | Metodo cientifico | 0 Comentarios


    Datación K-Ar y las edades de Marte

    Sol 279 de la misión Curiosity en Marte. 19 de mayo de 2013 del calendario convencional. En la ligera depresión conocida como Yellowknife Bay, inmersa en el cráter Gale, el rover se dispone a perforar en la roca Cumberland un agujero de 1,6 cm de diámetro y 6,6 cm de profundidad. El equipo científico pretende analizar la muestra con la intención de confirmar las evidencias de la primera perforación en John Klein, que apuntaban a la posibilidad de la existencia de agua y vida microbiana en el pasado marciano.



    Seguir leyendo en Cuaderno de Cultura Científica

    2016-05-13 19:29 | Astronomia, Fisica | 2 Comentarios


    Chernóbil y el imaginario popular

    Estaba preparando un artículo para Naukas que coincidiera con el trigésimo aniversario de Chernóbil. Pretendía explicar cómo se han estimado las posibles víctimas a largo plazo debido a efectos de la radiación a bajas dosis y cómo se ha exagerado esa cantidad hasta el absurdo de millones. Pero en el camino me he encontrado un tema que ahora considero más interesante y que resumo en una pregunta: ¿Cómo es posible que en sólo treinta años se haya podido construir un mito de tal magnitud?, tan alejado de lo que dice el consenso científico sobre las consecuencias del accidente; Tan alejado de la realidad como una mala película de serie B. Y lo que más me preocupa es que esa mala película sea lo que tiene en mente un periodista común cuando escribe un artículo o un político cuando toma una decisión sobre el futuro del mix energético de su país.



    Si visitan estos días la página de Greenpeace encontrarán un banner de "No a las nucleares" y varias informaciones sobre Chernóbil (no incluyo link, puesto que no suelo enlazar páginas de pseudociencia). Hace tan sólo unos días fue el aniversario del vertido de petróleo en el golfo de México de Deepwater Horizon, la plataforma de BP. Intenten buscar información del aniversario en la página de esa asociación ecologista (se trata de una petición retórica). El asunto ni siquiera ha merecido una entrada de Wikipedia en español. ¿Saben cuáles han sido las consecuencias de esa catástrofe? Al menos 50,000 personas (los limpiadores) sometidos a productos químicos que provocan afecciones pulmonares, desde asma hasta afecciones mucho más graves. Los efectos psicológicos de ansiedad y depresión entre los afectados son todavía más preocupantes que los físicos. Al menos 22,000 puestos de trabajo desparecidos y cerca de 9 mil millones de dólares en pérdidas. La fauna y flora quedaron gravemente afectada y el impacto durará décadas. Y no es el accidente más grave de la industria del petróleo. 25 años después del Exxon Valdez, y a pesar de la enorme cantidad de dinero gastado en la limpieza, todavía hay restos de petróleo en la costa de Alaska.

    En Chernóbil se han podido constatar 2 muertes inmediatas después del accidente (no debidas a la radiación), 28 muertes por radiación, en lo siguiente 4 meses, entre los primeros hombres que intentaron contener el incendio inicial del reactor. 19 muertes más por radiación en los siguientes 20 años entre los liquidadores (más de 600,000) y 9 muertes desgraciadas de niños por cáncer de tiroides perfectamente evitables si las autoridades soviéticas de la época hubiesen informado y prohibido la ingesta de leche en las poblaciones en los alrededores de la Central.

    A partir de esas muertes constatables empieza la especulación. En contra de lo que la inmensa mayoría de la gente cree, la radiación en un cancerígeno muy poco eficiente. De hecho sólo tenemos datos estadísticos relativamente fiables para los supervivientes de las bombas atómicas, único caso donde contamos con una población importante sometida a elevadas dosis de radiación. Y estos indican que no hay efectos observables por debajo de los 100 mSv en dosis instantáneas. Para que se hagan una idea, de 50 a 100 veces la dosis natural anual que el lector recibirá durante este año o equivalente a hacerse una decena de TAC de abdomen.



    Las recomendaciones de protección radiológica por ejemplo limitan el exceso de dosis de la población general a 1 mSv/año. 100mSv/lustro en el caso de trabajadores de centrales nucleares con un máximo de 50 mSv/año y 20 mSv para pilotos y personal de vuelo. La base de esa recomendación es la hipótesis conservadora de que cualquier exceso de radiación, por pequeño que sea, aumenta las posibilidades de padecer cáncer. Pero quédese el lector que con eso: tan solo una hipótesis para realizar una extrapolación, una operación bastante peligrosa si uno no tiene un mecanismo claro. Y lo cierto es que la biología sigue siendo demasiado complicada para afirmar alegremente que entendemos el mecanismo.

    A esa hipótesis se conoce como Modelo lineal Sin Umbral y es una hipótesis conservadora (desde el punto de vista del cálculo de riesgo) porque, al no observar directamente efectos a bajas dosis, tenemos que extrapolar desde dosis elevadas asumiendo que la toxicidad es proporcional a dicha dosis. Pero lo cierto es que en la mayoría de tóxicos, existe un nivel de tolerancia por debajo del cual el organismo se las apaña para lidiar. No hay razón, en principio, para pensar que con la radiación no sería esperable un efecto similar, más aún teniendo en cuenta que la evolución biológica se ha producido en un entorno sometido a dosis de unos pocos mSv anuales. Tenemos además constancia de que el mecanismo reparador del daño celular tiene que lidiar continuamente con una elevada tasa de errores a las que dosis moderadas de radiación contribuirían en una cantidad muchísimo menor [ver esta entrada para un texto legible en un asunto tremendamente complejo]. Por eso la mayoría de expertos piensan que el Modelo Lineal Sin Umbral es un modelo conservador y que el número de cánceres estimado siempre va a ser un límite superior al proporcionado por este modelo.


    Datos a elevadas dosis de radiación (en rojo) y extrapolaciones a bajas dosis (donde los datos no son concluyentes)1. Modelo lineal Sin Umbral. 2. No lineal con hórmesis (ligero beneficio para bajas dosis)

    El consenso al respecto es que, aplicando este modelo, el número de cánceres provocados por la radiación de Chernóbil en Europa para 2065 no superaría unos 16000 de tiroides y unos 25,000 por otras causas, una cantidad imposible de medir entre los centenares de millones de cánceres que se producirán en la población europea por otras causas. El número de víctimas de Chernóbil no superará probablemente los 4000. En un análisis aplicado a una mayor población afectada de unos 7 millones de habitantes de Rusia, Ucrania y Bielorusia, ese mismo modelo llevaría a unas 9000 muertes. Aplicado a toda Europa, unas 16,000. Ese sería más o menos un límite superior del número de víctimas causado por Chernóbil.

    Las comparaciones son odiosas, y más en este caso, pero necesarias. En el accidente de la presa de Banqiao acaecido en 1975, murieron más de 170,000 personas y hubo unos 11 millones de desplazados. Se estima que la contaminación por el uso de fósiles provoca entre 1,3 y 5,5 millones de víctimas sólo en un año. Sólo en EEUU, las centrales térmicas matan todos los años a más ciudadanos que Chernóbil. Los accidentes de aerogeneradores han provocado más de 100 muertes desde los noventa, lo que hace que la energía eólica tenga aproximadamente el mismo riesgo relativo de producir víctimas que la energía nuclear.

    De esta manera, puede observarse un pequeño problema del modelo: un efecto individualmente despreciable puede arrojar números realmente alarmistas cuando se extrapola a una población lo suficientemente amplia. De hecho, el UNSCEAR (el comité que podríamos denominar el consenso científico sobre los efectos de Chernóbil en la salud de los afectados) ha recomendado precisamente evitar hacer dichas extrapolaciones para no crear un alarmismo en la población que en el fondo no podemos justificar con los datos en la mano.

    Chernóbil queda así en un accidente industrial terrible, pero no más terrible que muchos otros accidentes industriales del siglo XX, como hemos visto con la presa de Banqiao. Sin embargo, el halo Chernóbil ha cambiado nuestra visión de la energía nuclear para siempre. Da igual que sea una de las forma de producción eléctrica más segura y limpia que conocemos (e incluso probablemente sostenible), que causa menos muertes por unidad de energía generada que incluso la solar y la eólica, aunque en números muy próximos a esta última. Y eso incluyendo esas 9000 muertes que sabemos que probablemente no hayan ocurrido finalmente o que, como mucho, lo hayan hecho en un número bastante menor que ese;


    Muertes producidas por cada TWh de generación eléctrica. Si alguien se pregunta si se han tenido en cuenta las víctimas de Chernóbil, la respuesta es que es indiferente debido a la cantidad histórica de generación de origen nuclear.

    O que Chernóbil fuese un accidente muy especial cuya repetición sea extremadamente improbable. O que la existencia de una zona de exclusión no implica necesariamente una zona inhabitable ni mucho menos. De hecho, unos buenos centenares de personas jamás abandonaron la zona de exclusión y llevan estos 30 años en sus hogares de toda la vida. Unas 3000 personas trabajan a diario en la zona; O que la fauna prospere como nunca pudo hacerlo en presencia de humanos. Curiosamente, y en relación a la imaginería de serie B, a los anti-nucleares prefieren la denominación "zona de alienación" que por supuesto jamás aplican a los lugares más contaminados del planeta.



    El argumento de No a las nucleares con la excusa de Chernóbil me resulta equivalente a un No a los hospitales en base al accidente de Goiânia. No tiene el menor sentido desde el punto de vista de la gestión de riesgo. Todo lo contrario, la energía nuclear podría resultar imprescindible para la lucha contra el cambio climático y cada kwh de generación nuclear podría estar evitando víctimas de la contaminación por el uso del fósiles y por los efectos del cambio climático.



    Y regreso a la pregunta que me interesaría responder. El problema de la oposición a la energía nuclear no sólo está en el desconocimiento de los datos que menciono. Muchos opositores los conocen. Muchos tienen formación académica y son capaces de leer las publicaciones correspondiente. Ni siquiera la radiofobia, es decir, el miedo irracional a los efectos de la radiación, es una explicación suficientemente convincente. Nadie que conozca se opone a la medicina nuclear ni entra con un miedo especial a la radiación al hacerse una radiografía o un TAC. El problema tiene que ver con otros aspectos sociales e ideológicos.

    Uno podría pensar que es achacable a la propia industria nuclear y su obsesión por publicitar la seguridad. Casi ninguna otra instalación industrial pone en primera línea publicitaria que su principal prioridad es la seguridad y se vanagloria de que ésta es casi absoluta. La seguridad absoluta no existe, como todo el mundo sabe. La gente, racionalmente, tiende a desconfiar de una corporación que le insiste tanto en que algo que le han dicho que es malo es perfectamente seguro. Sobre todo si esa gente además tiende a desconfiar en general de las corporaciones; Generalmente, gente vinculada a la izquierda política. Chernóbil sin embargo responde poco a este esquema, puesto que se trataba de un gobierno (el soviético) y no de una corporación.


    Quizás la clave esté en el poder de la imaginería popular. Spencer Weart empezaba el prefacio de su libro El auge del miedo nuclear de la siguiente guisa:
    Cuando empecé a estudiar la historia de la energía nuclear no pensé que las imágenes eran tan importantes en sí mismas . Estaba equivocado. Monstruos radiactivos, ciudades utópicas propulsadas con la energía del átomo, máquinas que emiten extraños rayos, y muchas otras imágenes se han colado en la manera en que todo el mundo percibe tanto las armas como las centrales nucleares. Dichas imágenes, que conectan con las principales fuerzas de la lógica social y psicológica , han ejercido una extraña y poderosa presión en nuestra historia. Y no es una historia que se haya quedado encerradas bajo la cerradura de seguridad del pasado; las imágenes siguen siendo tan poderosas hoy como siempre lo fueron.

    Lo cierto es que no estamos sobrados de maneras de producir grandes cantidades de energía. Todavía hay que traer a miles de millones de personas hasta un vida digna, lo que implica irremediablemente un aumento progresivo de la producción eléctrica a nivel mundial. Pero al mismo tiempo se nos presenta el reto del Cambio Climático. No podemos guiar decisiones de tal importancia a un imaginario nuclear de serie B.

    Este texto (no las imágenes) está bajo licencia Reconocimiento – NoComercial – CompartirIgual (by-nc-sa), lo que significa que cualquier lector puede copiarlo y pegarlo íntegramente en cualquier web o documento, con la única condición de citar esta entrada


    Apéndice: Una breve secuencia, ligeramente novelada, de los acontecimientos que llevaron a la tragedia


    A la 1:23:40 de la madrugada del 26 de abril de 1986 , el operador Alexander Akimov de la central nuclear memorial Vladímir Ilich Lenin --más conocida como Chernóbil-- hizo aquello para lo que todos los técnicos como él son entrenados: pulsar el botón AZ-5, que iniciaba el apagado de la unidad 4, cuando recibió lecturas confusas del estado del reactor.

    Akimov y sus compañeros estaban inmersos en el proceso de un simulacro de seguridad que pretendía comprobar que el agua en circulación era suficiente en el caso de que ocurriera una desconexión total de la alimentación eléctrica externa mientras el sistema de refrigeración de emergencia estaba inoperativo.

    Los ingenieros habían calculado que la inercia de la turbina del generador de 500 MW era suficiente para mantener la circulación del agua refrigerante durante algo más de medio minuto, tiempo suficiente para encender los generadores diésel de emergencia.

    El simulacro empezaba con retraso, puesto que no se había previsto que la necesidades de demanda eléctrica obligaban al reactor a continuar on-line más tiempo del esperado. A media noche se había producido un cambio de turno de personal, que no había sido convenientemente informados del estado del procedimiento

    Durante el turno anterior, el reactor había estado funcionando a baja potencia térmica (menos de 700 MW), lo que puso al reactor en un estado denominado de bajo margen de reactividad. A esa baja potencia, la concentración de los productos terminó por diferir de las condiciones consideradas en el diseño.

    A la 1:23:04 empezó el test. El flujo de vapor a la turbina fue cortado. La turbina empezó a perder velocidad, pero, como estaba previsto, el agua siguió circulando en cantidad suficiente hasta que el encendido de los generadores diésel de emergencia recuperó la potencia suficiente para continuar con una refrigeración adecuada. Durante esos pocos segundos se produjo un incremento de burbujas de vapor en el reactor, reduciendo la la cantidad de neutrones absorbidos debido a la disminución del agua líquida refrigerante, aumentando la potencia producida por la reacción nuclear. El sistema de inserción de barras de control se las apañó, sin embargo, para contrarrestar esa pérdida de absorción neutrónica.

    Se ha producido un fuerte debate sobre la razón que llevó a Akimov a pulsar finalmente el botón AZ-5, pero lo cierto es que este procedimiento iba a detener finalmente el reactor y terminar con el test. Nada más lejos de los que depararían los acontecimientos posteriores. La inserción del total de las barras de grafito tardaría aún unos 20 segundos en penetrar los 7 metros de altura del reactor. Un diseño deficiente de las barras moderadoras hacía que durante su recorrido desplazaran el agua, por lo que, en un primer momento, se producía el aumento de la reacción nuclear en la mitad inferior del reactor.

    A los pocos segundos de iniciar el apagado, se produjo un pico de potencia por encima de los 540 W. El sobrecalentamiento aumentó la producción de vapor, cuya presión provocó una primera explosión que bloqueó el desplazamiento de las barras de grafito. Poco después, y según las estimaciones, el sobrecalentamiento pudo alcanzar los 33GW, es decir, unas 10 veces la potencia térmica en la operación normal del reactor. Se produjo entonces la primera gran explosión que muchos testigos oyeron; la explosión que hizo volar por los aires las 2000 toneladas de metal que constituían la cubierta del reactor.

    Unos pocos segundos después llegó una segunda explosión. La primera explosión había evaporado todo el refrigerante que, junto con la acumulación de burbujas de vapor, provocaron un aumento desbocado de la potencia de la reacción nuclear. Nadie está seguro del mecanismo exacto de esta segunda explosión y las hipótesis manejan desde la presión de vapor hasta una explosión térmica del propio material del reactor, pasando por una deflagración de hidrógeno. Lo cierto es que dicha explosión produjo la dispersión del núcleo, finalizando definitivamente la reacción nuclear. El incendio provocado en el grafito terminó por lanzar grandes cantidades de isótopos radiactivo al exterior.

    Referencias y lecturas recomendadas
  • Balonov, M.I. 2012 On protecting the inexperienced reader from Chernobyl myths. Journal of Radiological Protection

  • Beresford et al. 2016 Thirty years after the Chernobyl accident: What lessons have we learnt? Journal of Environmental Radioactivity

  • Bichell,R.E.2014 Cosmic Rays Sound Scary, But Radiation Risk On A Flight Is Small. NPR

  • Conca, James 2015. Will The Truth About Chernobyl Ever Come Out?. Forbes.

  • CSN 2010. Dosis de radiación

  • Dunning, B. "Fukushima vs Chernobyl vs Three Mile Island" Skeptoid Podcast. Skeptoid Media, 14 Jan 2014. Web. 28 Apr 2016.

  • Foro nuclear Energía nuclear y cambio climático

  • Henriksen, Thormod 2013. Radiation and Health

  • Hdez, Pedro J. 2012. Radiación: mitos y realidades. Naukas.

  • Gale, R.P. & Lax, E. 2013 Radiation: What it is. What you need to know

  • Grimes, D.R. 2016 Why it's time to dispel the myths about nuclear power. The Guardian.
  • Kramer S. 2016 Here's why a Chernobyl-style nuclear meltdown can't happen in the United States .Tech Insinder

  • Mans, C.2011 ¿Cómo se mide la radiactividad y cuáles son sus efectos?. Blogs de Investigación y Ciencia

  • Markandya, A. 2007 Electricity generation and health. The Lancet

  • Peplow, Mark. 2011. Chernobyl’s legacy. Nature News

  • Peplow, Mark. 2006. Special Report: Counting the death. Nature

  • Richter, Darmon. 2016 What it’s Like to Spend 32 Hours in The Chernobyl Exclusion Zone.The Bohemina Blog

  • Ropeik, David 2012 The Rise of Nuclear Fear-How We Learned to Fear the Radiation. Scientific American Blogs

  • Samper, Esther 2012 ¿Y si la radiación a bajas dosis protegiera frente al cáncer? El País
  • .
  • The Chernobyl Gallery. Causes.

  • Thomas, Gerry 2014 Misconceptions over Health Impacts of Nuclear Accidents. UNUChannel

  • WHO 2016. Health effects of the Chernobyl accident: an overview
  • 2016-04-29 20:28 | Nuclear | 29 Comentarios


    Anotaciones históricas sobre el descubrimiento de las ondas gravitatorias

    El descubrimiento teórico

    Tan pronto como en 1776, Pierre-Simon Laplace trató de explicar la disminución del periodo de traslación lunar respecto a los registros históricos apelando a una fuerza de amortiguación orbital procedente de la finitud de la velocidad de propagación de la gravedad.

    En 1905, antes incluso de que se publicara la Teoría Especial de la Relatividad, Henry Poincaré utilizó por primera vez el término onde gravifique (onda gravitatoria o gravitacional) en un primer intento de aplicar la invarianza Lorentz a la teoría Newtoniana de la gravitación, es decir, trató de que los resultados de la teoría Newtoniana fuesen independientes del sistema de referencia respetando las reglas de la Relatividad Especial.

    Poincaré (e incluso el propio Hendrik Lorentz) hubiesen acabado por completar la estructura de la Relatividad Especial si Einstein no la hubiese formulado en su famoso artículo de 1905. Sin embargo, a pesar de sus ideas preliminares para adaptar la gravitación Newtoniana a la Relatividad Especial, sólo podía ser Albert Einstein quien en 1916 dedujese su existencia a partir de sus ecuaciones de la Relativad General.


    Documento original de 1916 donde podemos ver la ecuación de ondas para la aproximación lineal de campo débil

    El resultado de 1916 era el análogo de las ondas electromagnéticas producidas por una carga acelerada; ondas gravitatorias propagándose a la velocidad de la luz sobre un espacio-tiempo de Minkowski (el espacio-tiempo plano de la Relatividad Especial). En 1918 obtendría un nuevo resultado, conocido como fórmula cuadrupolar, que permitía calcular las ondas gravitatorias emitidas por un sistema binario de objetos en órbita donde sus tamaños fuesen pequeños comparados con la longitud de onda característica de la radiación gravitatoria. Einstein (que también podía equivocarse) cometería un error de un factor 2 en el cálculo de 1918 que sería descubierto posteriormente por Arthur Eddington.

    Dudas sobre la existencia de las ondas gravitatorias

    En 1922, Arthur Eddington se preguntaba qué aspectos de las ondas gravitatorias eran reales y qué aspectos sólo un artefacto de los cambios de coordenadas. Con cierta ironía afirmó que las ondas gravitatorias debían propagarse a la "velocidad del pensamiento". Y aunque tenía claro que las ondas gravitatorias eran reales, sus observaciones al respecto fueron sacadas de contexto y las dudas sobre la existencia de las ondas gravitatorias asaltaron la comunidad de físicos. La cosas fue a peor en 1936, cuando el mismísimo Einstein junto a su ayudante Nathan Rosen trataron de publicar un artículo en Physical Review con el título ¿Existen las ondas gravitatorias? Einstein y Rosen habían encontrado una solución de onda plana con una singularidad, lo que les llevó a la conclusión de que tales ondas no se podían corresponder con nada real. En una carta a Max Born, Einstein escribía:
    Junto con un joven colaborador, llegué al interesante resultado de que no existen las ondas gravitacionales, a pesar de que se había asumido la certeza en la primera aproximación. Esto demuestra que las ecuaciones de campo relativistas generales no lineales pueden decirnos más o, más bien, limitarnos más de lo que hemos creído hasta ahora.

    La revisión por pares del artículo señalaba que la conclusión era incorrecta. El artículo precisamente demostraba la existencia de ondas cilíndricas y la singularidad hallada sólo era un artefacto de las coordenadas utilizadas. El enfado de Einstein (orgullo de físico consagrado), poco acostumbrado a la revisión por pares que no se había estilado en su carrera en Europa, le llevaría a no volver a enviar jamás un artículo a Physical Review, respondiendo al editor de la siguiente guisa
    Estimado Señor,

    Nosotros (el Sr. Rosen y yo) le habíamos enviado nuestro manuscrito para su publicación y no le habíamos autorizado a que se lo mostrase a especialistas antes de su impresión. No veo razón para responder a los en cualquier caso erróneos comentarios de su experto anónimo. Debido a este incidente, prefiero publicar el artículo en otro lugar.

    Respetuosamente,

    P.D. El Sr. Rosen, que ha partido hacia la Unión Soviética, me ha autorizado a que lo represente en este asunto

    Sin embargo, su colega Leopold Infeld, aunque convencido él mismo del resultado original de Einstein, lo convencería, después de que hablar con el revisor del artículo, de la corrección de la propuesta de revisión.


    Einstein y Infeld en 1938


    Einstein publicaría el artículo rectificado en una revista menor, Journal of the Franklin Institute in Philadelphia. Su solución de una onda gravitatoria cilíndrica sin embargo no era original y ya había sido publicada por el físico austriaco Guido Beck en 1925.



    En 2005 supimos que el revisor que corrigió a Einstein fue nada más y nada menos que el conocido Howard P. Robertson, co-descubridor de las métricas de Robertson-Walker en Cosmología.

    El episodio no terminaría con la controversia de la existencia de las ondas gravitatorias. Einstein había calculado la emisión de ondas gravitatorias de una especie de pesa de halterofilia en rotación. Sin embargo, las dudas surgían para un sistema binario donde los objetos en órbita seguían geodésicas y por tanto no presentaban ninguna aceleración respecto a su sistema local en caída libre. Diferentes autores calcularon a partir de finales de los cuarenta las fuerzas de reacción sobre los objetos de un sistema binario debidas a la emisión de radiación gravitatoria, obteniendo resultados dispares.

    Detección indirecta de ondas gravitatorias

    En 1974 casi toda la comunidad, salvo algunos escépticos, aceptaban la realidad de la emisión gravitatoria de los sistemas binarios y el resultado de la fórmula cuadrupolar de Einstein, cuando llegó en septiembre la primera observación del primer pulsar binario por los astrónomos Russell Hulse y Joseph Taylor. Se trataba de PSR B1913+16, un sistema de dos estrellas de neutrones orbitando un centro de masas común. Inmediatamente quedó claro que el sistema podía utilizarse para poner a prueba la fórmula de Einstien utilizando la precisión de la señal del pulsar (el reloj astronómico más preciso que existe) para medir la variación orbital debida a la emisión de ondas gravitatorias.

    En 1979 Taylor y colaboradores habían medido la disminución del periodo orbital de las estrellas de neutrones del pulsar binario que confirmaban la fórmula cuadrupolar de Einstein dentro del 10% de precisión. Ese es el momento de la primera detección de ondas gravitatorias. They did it! En 1991, establecerían el acuerdo con la teoría en uno 0,2% y desde entonces se han estudiado muchos más púlsares binarios, en magnífico acuerdo con la predicción de Einstein.

    Variación orbital del pulsar PSR B1913 + 16.Los puntos indican el cambio observado en la época del periastro frente a la fecha de la medición, mientras que la parábola ilustra el cambio esperado teóricamente de acuerdo con la relatividad general


    Detección directa de ondas gravitatorias

    El gran pionero en el intento de detección directa de ondas gravitatorias fue Joseph Weber. Con la decepción en 1951 resultado de que, mientras publicaba sus ideas para construir un máser, dos grupos de investigación de Columbia y Moscú habían concebido procedimiento alternativos que traducirían en la pronta construcción de un máser operativo, Weber trasladó sus intereses a la Relatividad General. Después de trabajar un año con el grupo de John Wheeler en Princeton, en 1957 se embarcó en el primer proyecto mundial para construir un detector de ondas gravitatorias.

    Tras completar cuatro cuadernos de 300 páginas con bocetos de detectores y cálculos con el rendimiento esperado, Weber se decidió finalmente por una barra de aluminio de 2 metros de longitud, medio metro de diámetro y una tonelada de peso, orientada paralelamente a la onda incidente.



    El truco estaría en construir la barra con las dimensiones adecuadas para que su frecuencia resonante fuese similar a las de las ondas gravitatorias que pasen por ella y que producirán estiramientos y contracciones tal y como si se tratase de una fuerza de marea oscilante. Pero Weber no tenía una pista clara del cuál debería ser esa frecuencia. Estimó que debería estar por debajo de 10.000 Hz, la frecuencia de un objeto orbitando una estrella a la velocidad de la luz. Su detector tenía finalmente una frecuencia de 1000 Hz, casualmente en el rango adecuado para las ondas gravitatorias de mayor amplitud con posibilidades de ser detectadas: la de la fusión de dos agujeros negros.

    Weber se enfrentaba además al problema de medir las contracciones y estiramientos del cilindro que estarían en el rango de 10⁻²¹ m (una millonésima del diámetro del núcleo atómico). Su solución era utilizar elementos piezoeléctrico, es decir, materiales que crean un voltaje entre sus extremos al someterlos a un esfuerzo. Lo ideal hubiese sido que el cilindro fuese de ese tipo de material piezoleléctrico, pero dado su precio, Weber se tuvo que conformar con añadir algunos cristales a la parte central de la barra de aluminio, tal y como se aprecia en la imagen anterior.

    En el verano de 1969, Weber anuncia en la conferencia relativista de Cincinatti la detección de una señal en el detector campus de Maryland y simultáneamente en el de Argonne National Laboratory, cerca de Chicago. ¡Las ondas gravitatorias habían sido detectadas!



    Pronto, otros grupos de investigación intentaron replicar el resultado sin conseguirlo. Una año después Weber atribuía la señal a una explosión de supernova o un pulsar (recientemente descubierto) en el centro de la Galaxia. Pero la falta de replicación fue minando la reputación de Weber que murió en 2000 sin renunciar a una detección genuina de ondas gravitatorias y sin entender apropiadamente la procedencia de los ruidos de su detector.

    Weber no llegó a comprender que su detector tenía dos limitaciones básicas. Una impuesta por el límite cuántico de medida de desplazamiento (recordemos que pretendemos medir escalas de distancias muy inferiores a un núcleo atómico), que limitaba las posibilidades de su detector a unos 10⁻¹⁷ m, una diez mil veces menor de lo necesario. La segunda limitación tiene que ver con la resolución en frecuencia de la barra. Al hacer uso de la frecuencia de resonancia de la barra de aluminio para la detección, esto suprime frecuencias adyacentes disminuyendo mucho el ancho de banda. Ello implicaría que se necesitarían una especie de xilófono de varias miles de barras como la de Weber para capturar la estructura en frecuencias de la señal, una proeza técnica fuera del alcance de la época.

    Llega la interferometría láser. Nace LIGO

    Antes incluso de la detección fallida de Weber, éste ya había pensado en mejorar la detección de ondas gravitatorias introduciendo la interferometría láser. La idea fue sin embargo publicada de manera pionera por los investigadores soviéticos Mikhail Gertsenshtein y V.I. Pustovoit en 1962, aunque la guerra fría provocaría que se introdujera en la comunidad un desarrollo independiente del físico del MIT Rainer Weiss.


    Kip Thorne y Rai Weiss


    Weiss se uniría a principios de la década de los ochenta a otro equipo independiente de Caltech dirigido por Ronald Drever donde se encontraba Kip Thorne. En 1983 presentaron su propuesta de interferómetro a la NSF, dos detectores enormemente complejos que costaría unos 300 millones de dólares, por lo que la NSF tendría que consultar al Congreso estadounidense para su aprobación. Sin embargo, los números indicaban que el detector podría realizar su función: detectar ondas gravitatorias. Había nacido LIGO.

    El momento fundamental es 1992 cuando el director del proyecto Rochus Vogt consiguió que el Congreso aprobara la partida. En 2001 LIGO estaba en funcionamiento.

    Los que sucedió a continuación es ya un hito de la historia de la ciencia. El jueves pasado, muchos físicos y amantes de la ciencia de este planeta nos emocionamos al escuchar a David Rietze pronunciar las palabras mágicas

    We have detected gravitational waves. We did it!



    No sólo detectaron una señal clara de ondas gravitatorias por primera vez, sino que esa señal traía las nuevas de una colisión de dos agujeros negros de unas 30 masas solares cada uno que formaron un agujero negro mayor en un movimiento espiral cuyas últimas 4 órbitas se hicieron en apenas 20 ms, emitiendo en forma de onda gravitatorias unas 3 masas solares de energía, el equivalente a 50 veces toda la energía emitida en forma de luz por todas las estrellas del universo observable. Aún en un evento tan extremo sucedido a unos 1300 millones años luz de distancia, la amplitud de la onda que llegó hasta LIGO produjo una oscilación de la distancia recorrida por los láseres en sus brazos de más de 40 km de tan sólo la diez milésima parte del diámetro de un protón. ¡Y fueron capaces de detectarla! Toda una proeza desde le punto de vista técnico.

    Referencias

    Abraham Pais 1982 Subtle is the Lord : The Science and the Life of Albert Einstein

    Daniel Kennefick 2005 Einstein Versus the Physical Review Physics Today

    Daniel Kennefick 1997 Controversies in the History of the Radiation Reaction problem in General Relativity

    Eric Poisson, Clifford M. Will 2014 Gravity: Newtonian, Post-Newtonian, Relativistic

    Eugenio Fernández 2016 El documento original de las ondas gravitacionales. Ciencia en blanco y negro

    Materia 2016 Cuando Einstein renegó de las ondas gravitacionales. El País

    Kip S. Thorne 1994 Agujeros negros y tiempo curvo. Capítulo X. Crítica.

    The long road to detecting gravity waves. ScienceNews 2016

    2016-02-14 22:51 | Fisica | 16 Comentarios


    portada | subir | Entradas anteriores→