08 febrero 2009

200 años negando la evolución

Un artículo recomendable sobre el Institute for Creation Research y sus personajes en Publico.es

Dataciones con carbono 14 y un experimento

En una web creacionista encontré un argumento que explicaba que las dataciones con carbono 14 se basaban en un principio obviamente incorrecto y que los resultados correctos eran una confirmación científica de las teorías de la Tierra Joven.

Antes comentaré unas bases muy generales de esta modalidad de datación para que luego juzguemos la mencionada explicación. El caso es que el carbono, parte esencial de la estructura de los seres vivos, presenta dos isótopos estables: el carbono 12 (98.9%) y el 13 (1.1%). El C12 contiene 6 neutrones y 6 protones en su núcleo mientras que el C13 contiene un neutrón más. Ninguno de ellos es útil para datación. Afortunadamente, existe un isótopo escaso pero real: el famoso carbono 14 o C14, descubierto en 1940, formado por 8 neutrones y 6 protones. El C14 es inestable y acaba por emitir una partícula beta con lo que se convierte en nitrógeno 14 (7 neutrones y 7 protones).
Lógicamente, si no hubiera una producción más o menos continua de C14, éste habría desaparecido de la Tierra pues se habría transformado en su totalidad. La producción de C14 tiene lugar en la alta atmósfera por el choque de los rayos cósmicos con el N14 repartiéndose posteriormente por todo el planeta. Las plantas absorben carbono en la fotosíntesis (los tres isótopos) y los demás acabamos incorporándolo a nuestros tejidos comiéndonos unos a otros. Aunque el C14 está desintegrándose continuamente, durante la vida se mantienen unas relaciones C14/C12 aproximadamente constantes (como en la atmósfera) porque existe un continuo recambio. Al morir, sin embargo, dejamos de absorber carbono y el C14 comienza a disminuir ya que se transforma en N14 y no hay reemplazo.

¿Cómo puede usarse el C14 para datar un resto orgánico? Pues precisamente midiendo la relación C14/C12 en esos restos mediante detectores de partículas beta. En un resto reciente la relación será igual a la presente en el CO2 de la atmósfera de cuando vivía y en un resto antiguo será menor. El punto clave es fijar cual es la tasa de desintegración para poder establecer una relación entre el tiempo transcurrido y la relación C14/C12. Para eso se mide la tasa en cuestión y se estima el llamado periodo de semidesintegración, que es el tiempo que tarda en transformarse la mitad del C14 presente en una muestra. Para el C14, este periodo es de 5730 años. Eso significa que tras 5730 años, la cantidad de C14 original se habrá reducido a la mitad; tras otros 5730 años, a una cuarta parte y tras otros 5730 a una octava parte de la original. Según van quedando menos átomos de C14, el método pierde fiabilidad y el límite máximo para una datación por C14 es de unos 60 mil años.


Uno de los casos más conocidos del uso de esta técnica fue la datación de la Sábana Santa. El artículo, publicado en 1989 en Nature, dió como resultado que tres laboratorios dataron la tela en los siglos XIII-XIV.

Este comportamiento no es especialmente intuitivo y el argumento usado en la página creacionista que mencioné al principio es el siguiente: si al cabo de 5730 años se ha desintegrado la mitad del C14, tras otros 5730 años se habrá desintegrado la otra mitad por lo que 11000 años es límite de tiempo para usar el C14 en dataciones. Por ese motivo, muestras datadas en, por ejemplo, 40000 años son, en realidad, mucho más recientes, probablemente de unos 7 u 8 mil años. Los partidarios de esta argumentación la usan para acomodar las pruebas de datación a su particular cronología bíblica.

El problema de la argumentación anterior es que es errónea por no entender qué significa "periodo de semidesintegración" ni comprender el mecanismo subyacente a la aleatoreidad de la desintegración de un átomo concreto. La clave está en que no podemos saber cuando un átomo va a desintegrarse, sólo podemos estimar su probabilidad en un periodo de tiempo concreto. El comportamiento de un átomo es impredecible en el sentido de que puede desintegrarse al cabo de unos segundos o al cabo de diez mil años: no podemos saberlo, sólo sabemos que lo hará en algún momento. En cambio, el comportamiento de un conjunto grande de átomos obedece a las leyes estadísticas y encontraremos, se supone, la tasa de decaimiento prevista.

Como el concepto no es especialmente intuitivo, he preferido plantear un método alternativo a las ecuaciones matemáticas simulando en una sencilla hoja de cálculo la desintegración de 500 átomos de C14 a lo largo de 105 periodos de tiempo (1). Así veremos los resultados sin acudir a ecuaciones matemáticas. En la hoja, los 500 átomos de la "muestra" están en la primera columna y todos tienen para t=0 el valor 1 (C14, no se ha desintegrado). La desintegración de un átomo concreto se produce aleatoriamente y he fijado esa probabilidad en 0.05 para acelerar el proceso pero puede cambiarse, claro. En cada paso, un átomo se desintegra si de un generador de números aleatorios (2) en el rango 0-1 sale un número menor que 0.05. En ese caso, en la columna siguiente tomara el valor 0 y, lógicamente, cuando un átomo se desintegra queda en ese estado de forma permanente. Así vamos avanzando en el tiempo hasta el periodo o ciclo 105.
¿Cuál es la probabilidad de que un átomo concreto no se haya desintegrado en dos ciclos? Pues será de 0.95 * 0.95 = 0.9025; tras ciclos será de 0.8574 y así sucesivamente. O dicho de otro modo, tras un único ciclo se habrá desintegrado el 5.00% de los átomos, tras dos el 9.75%, tras tres el 14.26%, etc. A los 100 ciclos la probabilidad de que un átomo concreto no se haya desintegrado es muy baja, de 0.00592 aproximadamente.
Como el proceso es aleatorio, los porcentajes anteriores no se cumplirán exactamente, tanto más por el reducido número de átomos del experimento (sólo 500). Los resultados están en forma gráfica y abajo les copio un par de ellos que muestran la cantidad de átomos de C14 que quedan en cada ciclo. Son muy parecidos pero no iguales:

Gráficos resultado de simulaciones de desintegración aleatoria de 500 átomos de C14

A partir de los gráficos es posible estimar el periodo de semidesintegración, que aquí corresponde aproximadamente al ciclo 14-15, donde quedan unos 250 átomos de C14. Y si vamos a los ciclos 28-30 veremos que allí quedan unos 125 átomos de C14. Conclusión: la regla de semidesintegración se cumple y cualquiera, sin aparato matemático alguno puede comprobarlo.

No creo que los creacionistas de la web aquella acepten esto, claro (alguna excusa nueva se sacarán de la manga, como los de la Tierra Hueca), pero ha sido un ejercicio sencillo e interesante. Las dataciones por C14 tienen otros problemas, como la concentración de C14 atmosférico, que es variable en el tiempo, pero en este post sólo quería aclarar el concepto de periodo de semidesintegración y comprobarlo mediante un experimento virtual.

(1) los periodos de tiempo o ciclos son arbitrarios en este ejemplo porque sólo nos interesa verificar que la desintegración se comporta como se dice.
(2) la hoja está en formato xls (MS Excel); si la función aleatorio() no funciona, revise que tenga activa la casilla del Mení Herramientas - Complementos - Herramientas para análisis. Las sucesivs pruebas se realizan pulsando la tecla F9 con lo que todos los cálculos se rehacen incluyendo la generación de números aleatorios.

06 febrero 2009

Medicamento producido por una cabra transgénica

La noticia es breve pero importante: la FDA acaba de aprobar la producción industrial de un medicamento mediante un animal transgénico. Se trata de ATryn, que se obtiene de la leche de cabras cuyo ADN ha sido alterado para pruducir más cantidad de antitrombina, una proteína que inactiva varias enzimas responsables de la coagulación de la sangre. Para conseguir los animales transgénicos se introduce el ADN humano responsable de la producción de la proteína en una célula embrionaria de cabra que luego se desarrolla hasta su nacimiento en una madre caprina de "alquiler". Una vez adulta, su leche contendrá una cantidad importante de antitrombina recombinante humana que será extraída y purificada para su uso.

La compañía que llevará adelante el proceso se llama GTC Biotherapeutics y las primeras beneficiadas serán las personas afectadas por una deficiencia hereditaria que afecta a la producción de antitrombina y que suelen morir por trombosis.

05 febrero 2009

Calculando

Me apetece contárselo: tengo dos vecinos de pasillo que usan ordenadores para hacer simulaciones de propagación electromagnética. Estas simulaciones se realizan resolviendo sistemas de ecuaciones simultáneas, algo normal en aplicaciones físicas. Aunque L tiene un flamante Mac en su mesa (nadie es perfecto) eso no le parece suficiente y sus últimos trabajos se realizaron en Santiago de Compostela, donde tiene su residencia Finis Terrae, un ordenador que pesa 35 toneladas. Por dar algún dato, tiene una memoria de casi 20 Tb (1 terabyte = 1024 gigabytes), 2528 CPU de 64 bits, 390 Tb en disco... Todo funciona bajo Linux y está conectado a 20 Gb/s mediante fibra óptica. Con todo esto, Finis Terrae es el sexto ordenador de España, lista encabezada a día de hoy por el Mare Nostrum de Barcelona. Aún así, los colegas dicen que su arquitectura les viene bien para esos cálculos, lo cual debe ser cierto porque han conseguido programar y hacer resolver un sistema de ecuaciones con 500 millones de incógnitas (ver aquí). En realizar esa tarea se utilizó un 42% del ordenador (1024 núcleos y 6 Tb de RAM) durante 38 horas de operación en total.
¿Qué aplicaciones prácticas tiene este trabajo? En principio, dado que vivimos sumergidos en un mundo de campos electromagnéticos, muchas.
L menciona la simulación de los radares que poco a poco irán equipando los coches y que controlarán los cambios de carril, la proximidad de objetos, la detección de barreras, peatones, señales... Las características de respuesta de todos estos objetos en condiciones reales es prácticamente desconocida por lo que las simulaciones permitirán definir los parámetros operacionales. comprobar sus variantes y, al final, ahorrar tiempo y dinero.
Otro ejemplo es diseño de estructuras dotadas de múltiples antenas, cuyo comportamiento hasta ahora se hacía de forma individual con la seguridad de que al final, al montar el conjunto sobre la plataforma (satélite, barco...) iba a haber interacciones no previstas que obligarían a la modificación del diseño mediante en conocido método de "ensayo y horror".
Finalmente, lo más curioso que comenta es la aplicación de estas simulaciones para el análisis de superficies de invisibilidad. Pero eso ha prometido contarlo otro día. Mientras tanto quédense con lo mejor del post: una vista panorámica de su despacho.

Donde se demuestra que las reglas de la archivística tienen extrañas ramificaciones (post relacionado: el hábitat de la doctoranda)

04 febrero 2009

Como hacer (o no hacer) una encuesta en un blog

Supongan que quiero hacer una encuesta en mi blog sobre un asunto cualquiera. Para ello pillo el artilugio "encuesta" en la página de diseño de Blogger y me pongo a redactar la pregunta y las opciones de respuesta. ¿Debo poner lo primero que se me ocurra o hay alguna regla que me ayude a diseñar un buen cuestionario?
En principio, hay 4 condiciones que nos garantizan que las cosas nos van a salir bien. Como son fáciles de respetar creo que merece la pena que antes de ponernos a teclear afanosamente nos tomemos un minuto y las tengamos en cuenta (luego las comento con algunos ejemplos):
  1. La pregunta debe ser clara y comprensible. Esto debería ser evidente pero hay ejemplos por ahí de lo contrario.
  2. Las respuestas deben ser semánticamente homogéneas, es decir, deben referirse al mismo criterio y no a enfoques distintos del problema.
  3. Las opciones de respuesta deben cubrir rangos diferentes, es decir, no deben solaparse entre sí.
  4. El conjunto de opciones debe cubrir el rango completo de respuestas.
Y ya está, no hay mucho más. Sin embargo, verán que esto no suele aplicarse con la frecuencia que sería aconsejable, les comento unos pocos ejemplos que ayuden a aclarar esos cuatro puntos y algunos otros que aparecen de vez en cuando.

1. En uno de los blogs que sigo, V nos plantea la cuestión: "aprendo de ciencia principalmente de..." y nos propone 4 respuestas:
  • revistas
  • internet
  • periódicos
  • televisión
Este es un caso donde la pregunta (formulada a su manera) es clara pero las opciones pueden plantearse mejor. Por ejemplo, "internet" es una forma de acceso mediante la cual llego a revistas, periódicos y televisión. La condición 3, por tanto, no se cumple: ¿qué contesto si aprendo principalmente de revistas pero accedo a estas normalmente por internet?
Tampoco las cuatro opciones que se dan cubren la totalidad de posibilidades de respuesta (condición 4); por ejemplo, sin llegar a la exhaustividad, se echa en falta la opción "libros".
¿Cómo podríamos corregir estos problemas y, ya de paso, obtener más información con el mismo esfuerzo? Personalmente (para gustos hay colores) usaría algo como "valore de 1 a 5 la importancia de cada fuente en su aprendizaje sobre ciencia" poniendo como opciones libros, revistas científicas, revistas de divulgación, periódicos, radio, televisión, blogs y, por si acaso, otros (que podrían ser, por ejemplo, "podcasts").

2. Un caso bastanta pintoresco es este ejemplo de Scrapper's Place, donde preguntan "Con cuánta frecuencia escribes en tus páginas?" con las opciones (incluyo los resultados):
  • siempre: 60%
  • a veces: 40%
  • nunca: 0%
En este caso, el principal problema es las opciones no dan respuesta adecuada a la pregunta: si nos preguntan por la frecuencia (¿cuántas veces hijo mío...?) ¿qué significa "siempre"? ¿todos los días, a todas horas? ¿dejo de escribir sólo para comer?
La tercera respuesta obtuvo cero con razón ¿cómo, si alguien tiene "páginas", no escribirá "nunca" en ellas?
Lógicamente, la forma adecuada de plantear las opciones sería proponer rangos de frecuencia reales adaptados al tema que se esté tratando.

3. Pasando a los medios de comunicación, en 20minutos.es preguntan ¿te darías de alta para recibir multas de tráfico por 'e-mail' y SMS? Y dan como opciones:
  • Sí, porque ahora nunca me entero de las multas que me ponen
  • No, si la DGT me quiere encontrar, que me busque
  • Me parece que el sistema actual es el más adecuado
Aquí aparece la manía, compartida con otros medios, de añadir una "coletilla" a las respuestas simples "sí" o "no" dándoles una intención. El resultado es que siempre falla la condición 4: mi voto puede ser "sí" o "no" por motivos completamente distintos de los presentados ahí (que, por cierto, son bastante tontos). Y en este caso minimalista también se rompe la condición 2 porque la tercera opción no tiene relación con las otras.
En 20 minutos esta historia se repite de forma constante en todas sus encuestas, parece que no pueden resistir la tentación de añadir la gracia. Lo más adecuado y simple es hacer como El Mundo, que en todos sus "debates" propone sólo dos respuestas "sí" y "no".

4. Finalmente, tampoco rne.es se luce en sus encuestas, por ejemplo:
¿Qué te han parecido los 8 años de la presidencia estadounidense de Bush?
  • El mundo es peor tras su mandato
  • Ha sabido enfrentarse al terrorismo
  • Ha defendido los intereses de la gran industria
En este caso, a una pregunta excesivamente genérica (¿qué opina del mar?) se añaden tres opciones que es posible aceptar simultáneamente o de dos en dos en combinaciones libres o, ya puestos, ninguna. Tampoco cubren todo el espectro de respuestas ni tienen que ver demasiado entre sí...

En fin, y vale ya de rollo. Termino comentando que un medio de comunicación profesional tiene mucha más responsabilidad que un bloguero que, a fin de cuentas, bastante hace con regalarnos su trabajo para que podamos leerlo y disfrutar de él. Por tanto, que no se entienda esto como una crítica sino como ejemplos para que mejoremos poco a poco. Tal vez me anime a mí mismo a poner aquí una encuesta alguna vez...

01 febrero 2009

Cómo funciona el "ojo de halcón" en el tenis

Los partidos de tenis del Abierto de Australia me han hecho buscar los fundamentos del sistema que llaman "ojo de halcón" (traducción del original inglés hawk-eye). Curiosamente no he encontrado nada o, más exactamente, sólo generalidades del tipo "se usan cámaras que transmiten sus imágenes a un ordenador que calcula la trayectoria". Incluso la página de la empresa carece de información técnica.
Les cuento lo que supongo que ocurre haciendo una mezcla de lo poco que he encontrado disperso por ahí y de suposiciones razonables.

La pista está cubierta por un conjunto de seis a diez cámaras digitales. Es esencial que todas las líneas de la pista estén cubiertas simultáneamente por varias cámaras, preferiblemente cuatro o más. Aunque no he encontrado ningún esquema de la situación real, es razonable suponer que todas estén altas sobre la pista de forma que la inclinación hacia abajo sea de al menos 20º y que sus campos visuales se superpongan lo más posible.

Cobertura de la pista mediante cámaras cuyos campos visuales se superponen.

Las cámaras filman de forma continua a alta velocidad, su posición es fija y conocida y la orientación de su eje focal está bien determinada con relación a un sistema de coordenadas local. Un ejemplo de este tipo de cámaras son las de la serie CamRecord: los modelos 600 y 1000 captan respectivamente 500 y 1000 imágenes por segundo con una resolución de 1280x1024 píxeles. Por dar una idea de los datos, una pelota a 100 km/h se habrá movido en 2 ms (cámara CamRecord 600) unos 55 mm entre dos fotogramas siempre que la trayectoria sea perpendicular al eje focal.
La esencia del proceso es la siguiente:
  • una cámara capta una secuencia donde la pelota queda representada por unos pocos píxeles que deben ser reconocidos del resto de la imagen. Esos píxeles cambian de posición en cada "fotograma" debido al movimiento de la pelota. En tiempo real, esos píxeles deben ser detectados y su posición en cada fotograma registrada en el campo de visión de la cámara. Lógicamente, la pelota se "ve" pero no es posible determinar la distancia y el dato no es 3D.
  • otra cámara situada en una posición diferente capta el mismo movimiento y lo representa en su plano propio.
  • dado que las cámaras están sincronizadas, la posición de la pelota en un momento determinado puede estimarse en ambas cámaras; en cada una de ellas define una semirrecta con origen en la cámara y que pasa por el punto donde se ha localizado la pelota.
  • la localización 3D se construye mediante la intersección de las dos trayectorias en el espacio, algo que es posible calcular geométricamente dado que se conoce la posición de cada cámara y su orientación.
Una cámara registra la trayectoria como posiciones discretas calculando un vector para cada fotograma.

Simultáneamente, otra cámara hace lo mismo; obsérvese que hay posiciones cuyos vectores casi coinciden. En este caso esa cámara no será muy útil para discriminar esa parte de la trayectoria.

Aunque teóricamente se puede restaurar cada posición 3D y, por tanto, la trayectoria con sólo dos cámaras, la redundancia ayuda a reducir la incertidumbre y a "reparar" los errores de reconocimiento. Es muy deseable tener al menos cuatro secuencias distintas. La intersección de las cuatro trayectorias es mucho más robusta, tanto más porque se pueden introducir restricciones geométricas para garantizar la coherencia de las trayectorias que, por ejemplo, sabemos que deben trazar curvas relativamente suaves con velocidad decreciente.
Las posiciones deben analizarse secuencialmente para localizar el momento del bote, donde la trayectoria cambia bruscamente.

Los momentos "interesantes" son aquellos en los que esa continuidad se rompe, especialmente el momento del saque y los botes en el suelo. El primer caso interesa para estimar la velocidad del servicio pero su localización espacial no es demasiado importante. En cambio, los botes sí deben localizarse de la manera más exacta posible. Para ello, el plano de la pista (otra restricción geométrica más) y las líneas están previamente definidas en el sistema de referencia local lo que permite representarlas a la vez que el bote de la pelota.
El resultado es un gráfico de la trayectoria estimada de la pelota. La huella de la pelota sobre la pista es sólo una estimación, aunque los fabricantes del sistema hablan de errores de alrededor de los 4 mm.

El gráfico que nos ponen en la pantalla representa la estimación de la trayectoria. Su exactitud dependerá de factores como los ángulos de toma de las cámaras, la distancia a ellas y la velocidad de la pelota. Las pistas sintéticas facilitan la tarea por su color uniforme y su superficie regular.
Grab this Widget ~ Blogger Accessories
 
º