Fiabilidad de las informaciones NASA-NCDC-NOAA tras el asunto del Climategate

Podemos seguir confiando en los datos que nos proporcionan las Agencias Estatales encargadas de controlar los datos climáticos?

Es realmente necesario empezar de nuevo, retomar las mediciones en bruto y recalcular su significado?

Joseph D’Aleo, E. Michael Smith y John Coleman afirmaron anoche en un programa especial para la KUSI-TV que lo que nos ofrecen esas agencias no es fiable desde el punto de vista de la ciencia y que sería importante retomar el trabajo que se suponía estaba hecho para saber si realmente la magnitud del calentamiento atmosférico en el pasado siglo es la que nos dicen que fué.

ghcnstationsEn un nuevo informe, el especialista informático E. Michael Smith y el  asesor científico José D’ Aleo descubren la extensa manipulación de los datos de temperatura realizada por los centros estatales de clima: el Centro de Datos Climáticos Nacional (NCDC) en Asheville, Carolina del Norte y el Instituto Goddard de la NASA para los estudios del espacio (GISS) en la Universidad de Columbia en New York City. Smith y D’ Aleo acusan a estos centros de manipulación de datos  de  temperatura para presentar una imagen de calentamiento ininterrumpido mediante el ajuste del número y localización de las estaciones de observación meteorológicas.

El informe revela que no había temperaturas reales en las bases de datos cuando NASA/NCDC proclamó 2005 como » el año más caliente desde que se hacen mediciones.» El NCDC suprimió temperaturas reales en miles de lugares en el mundo entero cambiando a un sistema de puntos de rejilla globales, que es determinado haciendo un promedio de las temperaturas de dos o más estaciones metereológicas  adyacentes. El mapa de rejilla de NCDC contiene de este modo solamente medias de temperatura, no datos reales, lo que lleva a dudar seriamente de la  significancia y validez de los resultados así presentados.

Para que se hagan una idea, el número de observatorios meteorológicos reales usados como punto de partida para el cálculo de la temperatura media del planeta fue reducido desde los cerca de 6.000 que se usaban en los años 70 a unos 1.000 que se usan ahora.

Este problema es solamente la punta del iceberg generado desde los datos de NCDC. «Está claro que comparar datos obtenidos desde un gran número de estaciones con medias obtenidas de una o dos como mucho, es como comparar  peras y manzanas», dice a Smith. D’Aleo afirma que la manipulación de datos es puro travestismo científico, sólo posible por haber confiado la agenda climática en manos de personas que tienen más de activistas que de científicos.

El programa completo:

Parte 1:

AGWtheotherside

Parte 2:

AGWtheotherside

Parte 3:

AGWtheotherside

Parte 4:

AGWtheotherside

Parte 5:

AGWtheotherside

Que lo disfruten.

Luis I. Gómez
Luis I. Gómez

Si conseguimos actuar, pensar, sentir y querer ser quien soñamos ser habremos dado el primer paso de nuestra personal “guerra de autodeterminación”. Por esto es importante ser uno mismo quien cuide y atienda las propias necesidades. No limitarse a sentir los beneficios de la libertad, sino llenar los días de gestos que nos permitan experimentarla con otras personas.

Artículos: 3201

9 comentarios

  1. Currela

    Puestos a ser serio, en Cádiz no hay murgas, son Chirigotas, coros, comparsas y cuartetos… y fuera de concurso Romancero…. jejeje. a ver si vamos a ser tan inexacto como ellos. Por cierto, no me gustan los carnavales.

  2. ¿Alguien sabe si el programa lo van a poner en la Sexta o en Cuatro?. Imagino que estarán haciendo hueco en la programación para pasarlo de inmediato ¿no?.
    Si lo que cuentan es cierto, la cosa no es que sea seria, es que va a salir en las murgas de Cádiz, del cachondeíto. En fin. Y todavía habrá algunos no subvencionados que justifiquen a los «científicos» estos que «ajustan» los datos convenientemente para que salgan lo que a ellos les interesa para seguir trincando. Y los que pagamos, tragando.
    Tenemos lo que merecemos.
    Por cierto ¿no habéis notado que Al Gore está como desaparecido últimamente?.
    Saludos,

  3. Ya estaban tardando…

    Ahora resulta que el terremoto de Haití es culpa del calentamiento global y veremos más catástrofes de este tipo por no haber llegado a un acuerdo en Copenhague.
    Nuestro ministro de exteriores abogando para «ganar la victoria a la naturaleza». De repente el hombre tiene el poder de controlar los elementos según su voluntad… (Felipe II se revuelve en su tumba por no haber recibido esta información a tiempo).

    Estos iluminados están demostrando tener la misma categoría intelectual que PAt Robertson cuando dice que el terremoto es un castigo divino por el pacto que tienen los haitianos con el diablo…

    ¿Hasta dónde tiene que llegar el ridículo de esta situación para que la gente reaccione y quite de en medio a estos personajes a gorrazos?

  4. Algunos miden las temperaturas como el gobierno los parados. Cambiando las reglas de vez en cuando, probando hasta que salga lo que tiene que salir.

  5. Es un principio fundamental tanto de la informatica como de le estadistica de nunca, nunca, nunca tirar los datos brutos. En informatica entre otras cosas para cooregir posibles errores en los programs.

    En estadistica por problemas como efecto de estructura y calidad de datos que llevan a introducir correcciones basadas en «educated guess» y podemos querer volver a hacer los calculos basandonos en nueva hipotesis.

    Un ejemplo del efecto calidad de datos es ese citado en este Blog de una estacion de Andalucia que en sus medidas de hace unas decadas daba como temperaturas en Agosto: 0 grados. En Andalucia y en Agosto. Lo que pasaba es que el meteorologo estba de vacaciones. Pues cunaod uno tien los datos brutos puede sustituir esos cero grados de Agosto por un valor especial llamado «Valor ausente» que los programas de estadistica (al menos los de estdistica seria, ignoro si es el caso de Excel) ignoran o sea que si tienes diez valores de los cuales uno es «Valor ausente» calculan la media entre los nueve restantes.

    Otros problemas son los efectos geogrfico y los de estructura. Por ejemplo no podemos calacular una temperatura media mundial simplemente ańadiendo valors de estaciones ya que los paises ricos estan sobrerepresentados, asi que hay que dar un «peso» a cada estacion proporcional al territorio que cae mas cerca que el de otra estacion (y encima corrigiendo por el relieve) y luego arreglarnoslas comp podemos con el hecho de que la temperatura en la cima del Everest sera muy distinta de la de la estacion que en teoria la cubre. Sin embargo cuando lo que que nos intersa son las varaiciones a lo largo del tiempo podemos arreglarnoslas gracias a la tecnica de la «muestra constante» que sin embargo no es la panacea: el numero de estaciones en la India hace cincuenta ańtilde;os era bastante limitado y podemos estar casi seguros que todas o casi todas estan ahora en zonas urbanas o sea en islas de calor.

    Y tenemos a Rusia en el que al desmoronarse la URSS, un gran numero de estaciones terminaron vaeraidnose y no fueron reparadas. Hast ahi todo bie, utilizamos una muestra constante y ya esta hasta que nos damos cuenta de que la distribucion de las no reparadas no es el azar sino que son las que estan en el fondo de Siberia a cien kilometros por caminos de tierra del puebloa mas proximo las que se nos han caido de la muestra mientras que las que esta en le tejado del instituto de meteorologia de Moscu siempre ha funcionado.

    Y como dije, corregir problemas de esta indole no es ni facil, ni una ciencia tan exacta como quisieramos, y puesto que no es exacta es eventualmante revisable por lo cual la decision de los climatologos ingleses de tirar los datos brutos (para los cual hacia falta menos de media docena de discos duros (1) cuyo coste era inferior a mil euros en IDE, a cinco mil en SCSI) aparece como completamente inexplicable (2). Inexplicable si los suponemos honestos.

    (1) Con una represntacion inteligente una medida de temperatura cabe en dos octetos (cuatro si no es inteligente) 5 medidas al dia por 365 por 50= 90,000*2=180,000. En la fecha de la destruccion, un disco medio era 40 Gigas o sea que podia contener los datos de 200,000 estaciones sin comprimir y al menos el doble tras compresion.

    (2) Alegaron problemas de sitio por mudanzas. Pues no cuela, sencillamnte no cuela. Quizas hubiese podido tragarme una destruccion accidental aunque les hubiese preguntado por los backups (aunque los cientificos quizas no sean tan riguroosos como los comerciales respecto alos backups), pero lo de «los destruimos porque nos faltaba sitio» sencillamente no trago.

Los comentarios están cerrados.