Mostrando entradas con la etiqueta modelos. Mostrar todas las entradas
Mostrando entradas con la etiqueta modelos. Mostrar todas las entradas

25 octubre 2013

Escaneado 3D de una pieza arqueológica con escáner láser

Una de nuestras líneas de trabajo en la universidad es la construcción de modelos 3D interactivos de piezas arqueológicas y artísticas. En este vídeo se muestra la parte inicial de ese proceso, donde la pieza se escanea con un escáner láser que genera un modelo de puntos sobre el cual se superpone la textura tomada con fotografías por en mismo escáner. Este proceso es automático aunque probablemente haya que hacer un segundo escaneo con la pieza girada para cubrir zonas ocultas. Al final se muestra como queda el modelo cuando se incrusta en un documento PDF, algo de enorme interés porque puede ser difundido por internet con facilidad.
 

08 septiembre 2013

Cómo hacer y difundir modelos 3D interactivos

Hemos publicado un artículo donde explicamos como hacer modelos tridimensionales de piezas arqueológicas (o lo que sea, claro) e incrustarlas en un PDF. Con este procedimiento se consiguen documentos que puedes enviar por internet donde el usuario puede ver las piezas, rotarlas, ampliarlas o reducirlas, hacer secciones en cualquier plano y lugar, medir dimensiones, cambiar la iluminación... Para todo esto basta con leer el citado PDF con Acrobat Reader. Pongo el enlace abajo, los interesados podeis descargar el ejemplo para ver las posibilidades de esta técnica.
Importante: es necesario descargarlo y abrirlo con Adobe Acrobat Reader ya que los otros visores de PDF (incluidos los de los navegadores) no interpretan los objetos 3D.

Artículo completo en Technical Briefs in Historical Archaeology (Society for Historical Archaeology).
Ejemplo para descargar (22.4 MB).

Resumen en inglés:
Three-dimensional (3-D) laser scanners build 3-D models of objects and have direct application in the cataloging of artifacts and in archaeological documentation. Some low-cost scanners are suitable for small objects because the scanners have high accuracy and the ability to capture color and textures. This paper provides the workflow and the steps needed to scan small objects using a low-cost scanner, to build textured 3-D models, and to transmit these models embedded in portable document format (PDF) files. The proposed procedure permits interaction with objects in various ways, including making measurements and building sections. The results enable the dissemination of high-precision interactive models, readable with free software, thereby facilitating the study of the metric and morphological features of archaeological objects.
Two views of gabbro adze with double-bevel polished edge from the dolmen of Guadancil 1, Garrovillas de Alconétar (Cáceres, Spain), 2012 season. Scale in centimeters. (Photo by ÁMF, 2013.)

15 febrero 2011

Mariposas tunecinas, historias de ciencia ficción y otros desvaríos

1.
Mohamed Bouazizi, de 26 años, se suicida el 4 de enero de 2011 por su situación desesperada en una sociedad que no ofrece oportunidades de supervivencia. Su decisión desata una serie de catástrofes (René Thom dixit), primero en Túnez, después en Egipto, tal vez en Irán, Yemen, Jordania...
Leo en algunos periódicos que se va a financiar un "modelo informátíco del mundo" o algo semejante donde se van a introducir todos los datos posibles como, por ejemplo, "el uso de teléfonos móviles" para simular el funcionamiento del mundo y poder predecir crisis como la que nos está sacudiendo.
Sin embargo, la realidad es tozuda y una mera acumulación de datos (muchas veces erróneos o de fiabilidad desconocida) no es más útil para predecir el mundo que la bola de la pitonisa Lola. Necesitamos organizar redes de relaciones entre ellos adecuadamente conectadas, reguladas y realimentadas y, por supuesto, no tenemos ni idea de cómo podríamos hacer semejante cosa para que el modelo fuera mínimamente útil.

Atractor extraño, obra de rdash.
Mohamed Bouazizi desmontó con su propia muerte toda esperanza de que dichos modelos puedan existir (o nos libró de su amenaza). Antes lo habia hecho Asimov en la ficción ya que en su Fundación, la psicohistoria podía predecir la evolución de la humanidad mediante modelos de las sociedades. Asimov fue más prudente que los actuales promotores del "modelo del mundo" (no esperaba subvenciones) y se cuidó bien de insistir en que la psicohistoria sólo manejaba tendencias y grandes números. Y él mismo desbarató las predicciones cuando en el segundo libro un único personaje desató la pertinente catástrofe. Pensandolo bien, el propio Hari Seldon, el artífice de la psicohistoria, era en sí mismo una catástrofe pero nadie llegó a enterarse nunca.

Atractor extraño, obra de rdash.

2.
Y sin embargo nuestras sociedades occidentales no saben de catástrofes. El relieve de nuestra conciencia colectiva es tan plano que no hay forma de asomarse al precipicio y caerse por un pliegue. Podríamos llamarlo el marasmo de las sociedades acomodadas. En otro libro, El fin de la eternidad, Asimov lo explicó sin saber que era un augurio. En la trama, pasado y futuro están conectados por una especie de túnel de tiempo que permite a unos técnicos, los "eternos", viajar hacia la historia pasada o futura y evitar catástrofes mediante pequeños cambios. Estas mínimas intervenciones generaban "efectos mariposa" que mantenían las sociedades en un estado de paz, placidez y ausencia de crisis. Al final de la novela se descubren las razones de algunos misterios pero la conclusión que nos interesa es que las sociedades que viven sin retos, sin crisis, sin incentivos, acaban por atrofiarse hasta en sus ganas de vivir y, por supuesto, en su capacidad de reaccionar.

Tal vez necesitamos una catástrofe para que, lejos de ver los movimientos del Norte de África como rarezas morunas, nos parezcan reacciones normales ante unos regímenes simplemente injustos. Posiblemente nuestra sociedad del bienestar, en vez de ser completamente beneficiosa tenga como efectos secundarios la atrofia de los valores, el aplastamiento de las utopías, la mediocridad de las ideas.

15 octubre 2010

Paseos virtuales en el Vaticano

La Capilla Sixtina es un edificio rectangular de ladrillo, tan sobrio por fuera que no tiene ni una fachada digna de tal nombre ni una puerta que de al exterior. Por dentro es otra cosa como ya saben Lamentablemente hace años que se avisa del deterioro que causa la enorme cantidad de visitantes (más de 7 millones al año) que buscan ver en directo las escenas más famosas de la pintura mundial (la de Adán y el señor con camisón entre otras).
Una solución alternativa es contemplarlo todo desde casa, sin soportar empujones ni agobios, a través de una representación virtual realizada tras dos años de trabajo por la Villanova University (EE.UU.). Se trata de un modelo casi 3D del interior donde es posible desplazarse a placer y acercarse bastante a los frescos de paredes y bóveda. A mí me ha resultado realmente espectacular.

Fresco del Juicio Final

Rebuscando un poco encontré que esta peculiar universidad ha realizado otros modelos igualmente magníficos e incluso más complejos, como los de las cuatro basílicas mayores de Roma, San Pedro, San Pablo, San Juan de Letrán y Santa María la Mayor, y la Capilla Paulina.

En la nave de San Juan de Letrán
En el baptisterio de Santa María la Mayor



En San Pablo Extramuros
Pasen por estos lugares y piérdanse un rato que realmente merece la pena ya que, aparte de la tranquilidad, la calidad técnica de las tomas y del montaje es excepcional.

13 agosto 2008

Cómo se hizo "Las pardelas tienen GPS pero no le hacen caso": el espacio.

El artículo en PLoS ONE ya está disponible: Ocean surface winds drive dynamics of transoceanic aerial movements. PLoS ONE 3(8): e2928. Su contenido puede separarse en dos partes, una relativa al espacio (esta) y otra relativa al tiempo (para dentro de unos días).
Otra cosa que quiero comentarles es que este tipo de trabajo lo realizamos como "especialistas en temas generales", valga la ironía. No somos especialistas en esto porque "esto" no es una especialidad. Se trata de trabajos donde hay que montar un puzzle de disciplinas diversas: zoología, satélites, meteorología, estadística, simulaciones... y eso nos gusta mucho. El riesgo es que podemos meter la pata con más facilidad que si nos dedicáramos a una fracción minúscula de alguna disciplina que domináramos a la perfección. La ventaja es que nos lo pasamos estupendamente y a veces, sólo a veces, salen resultados interesantes que merece la pena contar.

Los comienzos

En verano de 2003 terminaba una clase sobre modelos y sistemas de información geográfica en un máster en Barcelona. Había hablado sobre vientos medidos desde satélites y sobre dispersión de plantas sobre los océanos del hemisferio Sur, un trabajo aún sin publicar en aquel momento. El auditorio estaba más formado que yo en bastantes cosas: físicos, biólogos, geógrafos..., muchos ya profesionales y trabajando en sus campos respectivos. Al finalizar, Jacob se acercó y me comentó que trabajaba con aves migratorias y que se le había ocurrido una idea.

Pardelas, albatros y demás parientes

Hay un grupo de aves que son estrictamente oceánicas. Tanto que pueden pasarse semanas en el aire y en el agua y sólo se posan en tierra cuando llega la hora de anidar, que ahí ya no les queda más remedio. En inglés se les llama ocean wanderers, vagabundos del océano. Los albatros son un buen ejemplo: dos o más metros de envergadura y un magnífico dominio del vuelo aprovechando los vientos a baja altura, como haciendo surf sobre las olas.

Fig. 1. Pardela cenicienta aka Calonectris diomedea.

Las pardelas son algo más pequeñas pero como voladores tampoco se les da mal. Tanto es así que a mediados de otoño abandonan sus cuarteles de verano en Baleares, Azores, Cabo Verde o Canarias e inician un viaje de varios miles de kilómetros para llegar a su refugio invernal en las costas de Sudáfrica donde un afloramiento de aguas frías les garantiza alimento. A finales del invierno retornan Atlántico arriba llegando a vagabundear por los límites septentrionales del Mar del Norte.

¿Dónde están las pardelas?

El periodo de cría es la única época en la que estos bichos pueden ser capturados. Los biólogos que se dedican a esto los trincan en sus nidos (lazo al cuello y guantes gordos por si acaso) y les ponen unos artilugios llamados geolocalizadores (bird loggers en guiri). Un geolocalizador es un pequeño aparato electrónico impermeable formado por una batería, una célula fotoeléctrica, un reloj, una memoria, un sensor de agua y un chip que gobierna el conjunto. Los geolocalizadores se fabrican bajo pedido en el Antarctic & Marine Engineering Department y, cómo no, tienen modelos a elegir. El llamado Mk13 mide 20x9x6.5 mm, pesa 1.8 gramos y la duración de su batería llega a los 3 años. Si nos vamos hasta los 3.6 g de peso encontramos modelos con 6 años de batería más un sensor de temperatura.


Fig. 2. Arriba: geolocalizador con la anilla de fijación, abajo: colocado en la pata de un albatros (fotos tomadas de aquí).

Lamentablemente más de un tercio de los geolocalizadores se pierden cada año y es necesario reponerlos continuamente. Cada año, en la época de cría, nuestros biólogos preferidos se van a las islas donde están las colonias de cría y sustituyen los artilugios. Luego, ya con más tranquilidad, los datos se descargan en un ordenador y se procesan.

¿Cómo se puede saber donde ha estado un pájaro? El geolocalizador proporciona un registro casi continuo de la luz ambiental similar al de la figura inferior, sólo que de todos los días de un año. Cada minuto se toma una medida aunque sólo se almacena la lectura máxima de luz por periodos de 10 minutos.

Fig. 3. Ejemplo de los datos registrados por un geolocalizador.

En esos tres días del ejemplo tenemos la duración del día y la noche y las horas GMT del orto y del ocaso registradas con el reloj del geolocalizador. Pueden aparecer efectos como en el primer día, donde ha habido dos episodios de nubes que hacen bajar el nivel de luz. Ocasionalmente aparecen luces en la noche que se producen cuando el pájaro se acerca a las pesquerías que usan focos para atraer a los peces. Otras veces la luz oscila en los minutos crepusculares debido a que el pájaro vuela a ras de las olas que ocultan el Sol, muy bajo sobre el horizonte.

Dado que conocemos fechas, horas y luz, tenemos todo lo necesario: la latitud se estima por la duración del día y la longitud por las diferencias entre la hora del reloj (TMG) y la hora local (el mediodía local coincide con el punto medio del periodo de luz).

Una consecuencia de este método de medida es que la fiabilidad de las estimaciones es muy baja en los periodos próximos a los equinoccios, cuando el día dura más o menos lo mismo en cualquier latitud y pequeños cambios en la duración del día representan latitudes muy diferentes. Los datos de estos periodos suelen ser descartados. La longitud, en cambio, es bastante más fiable en todo el año ya que depende esencialmente de la exactitud del reloj interno.

El resultado final tiene una incertidumbre muy variable pero por dar una cifra, puede estar entre 80 y 150 km. Esto puede parecer algo poco exacto pero es suficiente dada la escala del estudio y se mejora en el postproceso de los datos que, no lo olvidemos, forman una trayectoria que debe ser coherente en tiempo y espacio.
Ya de paso contesto a una posible y razonable pregunta: ¿por qué no se usan GPS para marcar las pardelas? Pues por dos razones: son muy caros y pesan demasiado. Los GPS activos o pasivos son mucho más precisos (unas decenas de metros) pero sólo pueden montarse sobre aves grandes, como buitres o albatros. Un peso excesivo puede tener una influencia negativa en la supervivencia del pájaro, algo que lógicamente debe evitarse.

Una ruta extraña

En nuestro trabajo analizamos las rutas migratorias de pardelas que "bajan" desde las Islas Canarias y Azores hasta Sudáfrica y Namibia. La ruta más corta sería hacer un primer tramo hacia el Sur ante las costas de Mauritania y Senegal y, una vez ante el Golfo de Guinea, doblar hacia el Sudeste para ir directamente a las costas de Sudáfrica.
Según los datos de los geolocalizadores, las pardelas no hacen esto sino que, pasada Mauritania, atraviesan al Atlántico hacia el Nordeste de Brasil, siguen las costas de este país y a unos 20-25º de latitud Sur giran al Este para volver a atravesar el Atlántico y llegar por fin a su destino. La figura siguiente representa esa ruta.

Fig. 4. Las zonas en blanco representan las rutas migratorias desde Azores y Canarias hasta Sudáfrica. La tono más o menos claro representa la concentración de rutas individuales en cada lugar. Las líneas horizontales son el Ecuador y los Trópicos de Cáncer y Capricornio.Esta ruta amplía el viaje desde unos 7600 km hasta unos 11800. Aunque la ruta se completa con rapidez, a una media de más de 800 km/día, es difícil justificar ese 55% de más, ya que teóricamente debería usarse la vía más económica en términos de energía.

Resumiendo: las pardelas saben dónde van pero eligen un camino mucho más largo de lo aparentemente necesario.

¿Explica el viento la ruta migratoria?

Suponer que el viaje directo es la solución más económica sólo es correcto en ausencia de viento. En ese caso, el esfuerzo de moverse es igual en todos los lugares y en todas direcciones. En cambio, cualquiera que haya usado una bicicleta sabe que cuando hay viento las cosas cambian en función no sólo de si nos sopla de frente, de lado o de espaldas, sino también de su velocidad.

Y sobre el océano hay viento, claro. Por suerte, como ya comenté en otro momento, hay un satélite que lo mide diariamente y cuyos datos son gratuitos y pueden descargarse vía internet. El QuikSCAT toma, entre otras variables, la velocidad y acimut del viento con una resolución de 25 km (12.5 más recientemente). Son cifras y más cifras con las que pueden hacerse mapas como el de la figura inferior.


Fig. 5. Viento sobre el Atlántico Sur en el día 261 del año 2002. Las flechas indican el acimut (pulsar encima para ampliar) y la escala de colores la velocidad, creciente desde el violeta (calmas) hasta el rojo (más de 90 km/h).

Buscando respuestas

Si se fijan bien en la figura anterior verán que el viaje directo desde las costas de Senegal hasta Sudáfrica se realizaría con vientos de frente. Estos vientos son constantes y supusieron un obstáculo muy serio a los viajes de los navíos portugueses en su exploración de la costa occidental de África a partir del siglo XV. Los viajes se hacían siempre a la vista de la costa (cabotaje) ya que la navegación de altura era imposible.
La hipótesis que nos planteamos comprobar es si los pájaros siguen la ruta de mínimo coste sobre el viento y eso les lleva a elegir rutas aparentemente no óptimas por su gran longitud pero tal vez adecuadas para "surfear" sobre el viento.
Para comprobar esto, seguimos los siguientes pasos:
  1. Individualizar la ruta de cada pardela y etiquetar cada punto con su localización y su fecha.
  2. A partir de los datos del QuikSCAT se extraen los vientos para toda la zona para cada día implicado en las trayectorias.
  3. Se calculan los caminos de mínimo coste matemático para llegar desde Canarias a Sudáfrica en cada día en que los diferentes pájaros están de viaje.
  4. Se construye un mapa equivalente al mostrado más arriba (Fig. 4) con la concentración de rutas óptimas.
  5. ¿Se parecen los dos grupos de rutas? Hay que responder a esta pregunta estimando de alguna forma la significación estadística de su similitud (o su diferencia, como se quiera).

Las tareas 1 y 2 son rutinarias y se realizan con programas de SIG (sistemas de información geográfica) y proceso de imágenes. La lectura de los datos QuikSCAT es tediosa porque usan un formato para su distribución que no es fácil de leer (HDF, Hierarchical Data Format) y debe ser transformado dos veces para su proceso con el SIG.

La tarea 3 se realiza en dos pasos. El primero es calcular el coste de llegar desde el punto de salida a cada uno de los demás presentes en la zona de estudio. Estos modelos de coste anisotrópico tienen en cuenta la velocidad y acimut del viento y permiten, en un segundo paso, trazar la ruta óptima entre el punto de salida y el de llegada.
Calculadas las rutas óptimas para cada día de viaje (casi un centenar) se construye el mapa general (Tarea 4) mediante una función que usa la densidad de líneas (rutas) en cada punto del mapa. El resultado lo vemos abajo.

Fig. 6. Representación de las rutas óptimas para viajar desde Canarias a Sudáfrica sobre los campos de viento. Hay zonas donde hay caminos equivalentes más o menos dispersos; al contrario, en la costa SE de Brasil las rutas se agrupan.

Es bastante evidente que las rutas de las figuras 4 y 6 se parecen mucho pero este tipo de percepciones no suele ser aceptada sin algo de estadística que lo justifique. La tarea 5 consistió en desarrollar un test que nos diera una idea de esta que punto la coincidencia en el trazado de las rutas puede deberse al azar.
Este test, en principio, no existe, pero estamos llenos de buenas ideas :-)
La cosa se resolvió de la siguiente manera (estadísticos, afilen sus navajas):
  1. Las zonas que representan las rutas reales (Canarias) y las alternativas se convierten en sendas líneas trazadas siguiendo las zonas de máxima densidad. Lógicamente, los puntos inicial y final son los mismos.
  2. Se calcula el área entre estas dos líneas, S(0); este área sería nula si ambas líneas coincidieran lo cual no es el caso.
  3. Se trazan 10000 rutas alternativas de forma más o menos aleatoria (ver más abajo).
  4. Se calculan las áreas entre cada una de estas rutas y la ruta óptima, S(1) a S(10000).
  5. Se ordenan las 10001 áreas de menor a mayor y se localiza la posición de S(0) en el conjunto.
  6. Esa posición nos da el valor de P y, en nuestro caso, P=0.001. lo que significa que sólo en un caso por cada mil se encontraría por azar una trayectoria real tan cercana o más a la óptima.
¿Qué significa eso de "más o menos aleatoria" del punto 3? Recordemos que esta prueba compara posibles rutas que hubieran podido seguir las aves en su migración. Estas rutas no pueden construirse de forma completamente aleatoria porque los bichos no se mueven así sino que hay una coherencia en los caminos que siguen. Por ejemplo, no el lógico dar por buena una ruta que salte de Brasil a Angola y luego a Uruguay ya que un pájaro no hace eso. Tampoco están permitidas las rutas sobre tierra por lo que hay que introducir una serie de restricciones para que las rutas alternativas sean biológicamente posibles, al menos en teoría. La forma de generarlas está en el artículo en inglés aunque si alguien quiere que lo explique en español que lo diga en los comentarios y la haré. En cualquier caso, si estas restricciones distorsionan la prueba y el valor de P, lo hacen en contra de nuestra hipótesis por lo que consideramos que el resultado es robusto.

Divagaciones

Estos resultados nos están diciendo que las pardelas, que saben a dónde deben llegar, eligen una ruta globalmente óptima, es decir, sin dejarse engañar por las condiciones locales del viento, que en ocasiones podrían animarlas a ir por otro lado. En efecto, otros análisis que no he contado aquí para no alargar la cosa excesivamente muestran que en el día a día, las pardelas no toman necesariamente el camino local óptimo.
¿Cómo saben las pardelas dónde está su meta? ¿Cómo saben que no deben ir por un camino muy diferente al del óptimo global? ¿Cómo está "almacenada" la ruta adecuada en sus pequeños cerebros? ¿La aprenden? No tengo ni idea. El caso es que aquí se pueden plantear esos interrogantes y algunos más y, ya de paso, elucubrar como nos pedía uno de los revisores. A mí me gusta la idea de que los puntos de referencia de las pardelas en sus viajes no son fenómenos orográficos o la vista de la costa sino el propio viento, un sistema de referencia dinámico y flexible. Una prueba circunstancial de esto es que no siguen siempre el mismo camino (por ejemplo, no siempre llegan a las costas de Brasil sino que a veces atajan por alta mar) sino que parecen improvisar dentro de un patrón general. Posiblemente esta flexibilidad pueda deberse a que el viento, aunque sigue patrones generales similares, no es e mismo nunca sino que varía día a día y de un año a a otro.
Actualmente estamos comenzando a introducir nuevas variables en la definición de "ruta óptima". Consideramos que las diferencias entre las rutas reales y las supuestamente óptimas se deben a que los pájaros integran también el tiempo de viaje y/o la distancia. Así, hay que buscar una solución de compromiso donde al tiempo empleado y la distancia total penalicen a partir de ciertos umbrales, cosa que ahora no hacemos. Para comprobar este refinamiento de los modelos estamos analizando rutas diferentes de otras especies y pronto empezaremos a trabajar con bichos que atraviesan el Océano Pacífico.

Historia de un fracaso

Desde el 2003 ha pasado ya mucho tiempo. Una parte se invirtió en el análisis de las trayectorias del albatros gigante en el Atlántico Sur. Este gran pájaro anida en Georgia del Sur y se hace unos centenares de km o más para ir a comer de vez en cuando. Nos planteamos la hipótesis de que la selección del lugar de forrajeo estaría condicionada por el viento en esos días. No fue así. El albatros gigante, el maestro del vuelo, hace lo que quiere y cuando quiere. El viento no parece importarle lo más mínimo y aprender eso nos llevó un año de trabajo.

En el siguiente post les daré una posible respuesta a la pregunta ¿cómo eligen las pardelas el momento de comenzar su gran viaje? Continuará...

Otros posts sobre vientos:

30 abril 2008

Lorenz, modelos y gaviotas

Estos días ha muerto Edward Norton Lorenz, algo ya reseñado en muchos blogs y, cómo no, en la Wikipedia. Lorenz fue meteorólogo y nos dejó como legado algunas cosas para pensar. Se le atribuye una famosa frase, parece ser que pronunciada en una intervención en la Academia de Ciencias de Nueva York en 1963:

... if the theory were correct one flap of a seagull's wings would be enough to alter the course of the weather forever.

... si la teoría fuera correcta un aleteo de una gaviota sería suficiente para alterar el curso del clima para siempre.

Por qué las mariposas no condicionan la meteorología o sobre los peligros de tomarse una buena frase literalmente confundiendo de paso modelos y realidad

La frase anterior, con el tiempo, ha ido cambiando (mariposa o gaviota, Brasil o Hong-Kong...). El caso es que se refiere a algo concreto y muy interesante. La historia es conocida pero la resumo aquí brevemente para luego discutir, desde mi visión de lego, algunas implicaciones de la misma.

Cuando Lorenz hacía modelos de convección

En 1960 Lorenz intentaba simular groseramente algunos aspectos de la dinámica atmosférica con un primitivo ordenador (he leido que tenía 4 kb de memoria). En concreto, trabajaba con sólo tres ecuaciones diferenciales con las que se aproximaba a las ecuaciones de convección de Rayleigh-Bénard. Los cálculos proporcionaban largas secuencias de números en las que las variables implicadas iban cambiando de valores en el tiempo. Las simulaciones duraban mucho tiempo y un día Lorenz decidió reiniciar una de ellas. En vez de comenzar de nuevo desde el principio y repetir los primeros cientos o miles de pasos introdujo manualmente los valores correspondientes a un paso intermedio y arrancó de nuevo el proceso. Observó que ahora los resultados divergían poco a poco de los calculados en el experimento anterior hasta hacerse completamente diferentes.

¿Cómo podía una simulación determinística dar resultados diferentes partiendo de los mismos datos? La explicación era simple aunque algo sorprendente: los datos no eran exactamente los mismos. En efecto, el ordenador trabajaba con 6 dígitos decimales pero sólo imprimía tres (algunas fuentes dicen cinco), los que Lorenz había tecleado en el intento de réplica. Y esa diferencia minúscula en los datos de entrada, 0.654209 frente a 0.654 por ejemplo, acababa generando resultados completamente diferentes. Esto no ocurre en todos los modelos sino sólo en algunos que se muestran especialmente sensibles a las condiciones iniciales.

Lorenz sacó de esa experiencia la consecuencia de que la dinámica meteorológica no podía conocerse mediante modelos ya que no se podía huir de que mínimas variaciones en los datos originales produzcan modelos divergentes sin relación probable con lo que luego pase realmente. Y así lo escribió en un artículo de 1963:

[our results] indicate that prediction of the sufficient distant future is impossible by any method, unless the present conditions are know exactly.

Edward N. Lorenz, 1963, Deterministic Nonperiodic Flow, Journal of Atmospheric Sciences, 20(2): 130-141.

Lorenz dio forma al asunto en una reunión de la AAAS en 1972. En el título ha desaparecido ya la gaviota en beneficio del dichoso lepidóptero:

Lorenz, E.N., 1972, Predictability: Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas? 139th Meeting of the AAAS, december 29, 1972, Washington, D.C.

Esta intervención no fue publicada nunca aunque por suerte se recuperó e imprimió en 1993 como apéndice del libro

E. Lorenz, 1993, The Essence of Chaos, University of Washington Press: London.

El enlace permite descargar el libro electrónico en formato djvu.

En esa intervención Lorenz no respondió explícitamente a la pregunta que le da título aunque la tradujo a un formato algo más técnico ¿es el comportamiento de la atmósfera inestable ante perturbaciones de pequeña amplitud?

Cuando el autor de este blog se mete en un charco

A eso se le llama hoy "sensibilidad a las condiciones iniciales" y es una propiedad cuya magnitud debe analizarse siempre que se construyen modelos dinámicos para valorar la robustez de sus resultados. Lorenz comenta, en efecto, que el grueso de sus conclusiones se basa en las simulaciones numéricas de la atmósfera.

Y ese, en mi opinión, es el problema (y ahora es cuando empiezo meterme en líos): esa sensibilidad es una propiedad de las ecuaciones usadas en el modelo, no necesariamente de la realidad. Parece, una vez más, la tendencia a confundir los modelos y el objeto modelado, asignándole al segundo todas las propiedades que emanen del primero.

Eso nos lleva a discutir dos cuestiones diferentes: la primera es dar respuesta a la famosa pregunta ¿puede un aleteo de mariposa en Brasil provocar un tornado en Texas? Y esa respuesta es no. En realidad esto ya lo dijo Lorenz pero, como siempre, las frases otundas suelen ser adoptadas literal y erróneamente por la posterioridad.

¿Por qué una mariposa en Brasil no puede desencadenar (o prevenir) un tornado (o cualquier otra cosa) en Texas? La tentación es decir "sí puede, ahí tienes los resultados del modelo". Pero eso sólo prueba el comportamiento del modelo, no de la atmósfera. Un modelo es una representación simplificada de la realidad y como tal suele diseñarse en un escenario "limpio", reduciendo variables y simplificando ecuaciones. La realidad, por su parte, está influida por millones de variables con un comportamiento fuertemente estocástico. En ese entorno, nuestro aleteo de mariposa se pierde de forma inmediata y no puede generar efectos sensibles en esa mezcla de millones de variables con valores aleatorios. La idea es que una perturbación en un sistema como el atmosférico tiende a amortiguarse y perderse como un estornudo en el ambiente ruidoso de una gran ciudad.

La otra cuestión es si el tiempo puede predecirse con seguridad mediante modelos y en qué circunstancias. Por el momento sabemos que el tiempo no es predecible más allá de unas pocas horas, unos días a lo sumo. Sin embargo, eso no se debe a que la atmósfera se comporte como el modelo que la simula sino a que nuestro modelo se alimenta de información dispersa y deficiente. Aquí hay un efecto interesante, al menos en mi opinión: si nos dan las condiciones atmosféricas de dos dias distintos separados por un intervalo de tiempo de, supongamos, 10 días, podremos estimar las condiciones intermedias entre ambos días con razonable exactitud. Sin embargo, ese mismo modelo no podrá darnos información fiable a diez días vista en el futuro. En el primer caso, conocemos el origen y el final del proceso y la simulación puede apoyarse en ambos extremos: las incertidumbres no pueden propagarse en el modelo de forma incontrolable ya que hay un final conocido que debe producirse.

En el segundo caso, sin embargo, sólo fijamos el origen y dejamos libre el proceso de forma que, al cabo de 10 días, la propagación de las incertidumbres asociadas a los datos iniciales hacen que las previsiones sean muy probablemente irreales. No se trata del "efecto mariposa" sino de la incapacidad de "extrapolar" con exactitud a partir de modelos excesivamente simples en sus ecuaciones y afectados por fuertes incertidumbres en los datos. Esa divergencia puede reducirse (y se ha hecho) con mejores datos y ecuaciones pero es inevitable ante sistemas tan complejos como la atmñosfera.

Digresión: por ese motivo, a mí me gusta entender los modelos de cambio climático actualmente tan en boga como generadores de escenarios, no como predictores de una realidad futura.

Para terminar, me gustaría hacer una reflexión algo más filosófica sobre el uso que he visto en algunos lugares del verbo cambiar: ni el aleteo de una mariposa ni la caída de un meteorito pueden cambiar nada porque no ha existido nunca una realidad alternativa con la cual comparar. Los modelos son replicables pero la realidad es única y sólo se presenta de una forma. Las alternativas son construcciones mentales, no realidades.

Otros blogs en español que han tocado el tema: Juan de Mairena, Curioso pero inútil e Historias de la Ciencia.

26 agosto 2007

¿Vida inorgánica?

Estos días se ha levantado cierto revuelo en internet sobre un trabajo publicado en el New Journal of Physics. La referencia concreta es la siguiente:

Tsytovich, V.N.; Morfill, G.E.; Fortov, V.E.; Gusein-Zade, N.G.; Klumov, B.A.; Vladimirov, S.V., 2007, From plasma crystals and helical structures towards inorganic living matter, New J. Phys., 9(8): 263-274.

El artículo puede descargarse completo en el enlace del título ya que la revista es de libre acceso.

El meollo de la cuestión es que Tsytovich y colegas dicen que han encontrado estructuras en el polvo espacial que tienen propiedades que asignamos a la "vida". La noticia ha dado lugar a comentarios como, por ejemplo, este:

Hallan en partículas inorgánicas de polvo espacial todas las propiedades de la vida

¿Puede la vida extraterrestre florecer a partir de pequeñas partículas inorgánicas de polvo interestelar? Esa es la pregunta que atormenta a los investigadores después de haber realizado un descubrimiento, cuando menos, intrigante: una serie de estructuras procedentes del espacio exterior que, a pesar de no estar basadas en el carbono, tienen características muy parecidas a las mostradas por las moléculas orgánicas que aquí, en la Tierra, dan sustento a la vida (ABC.es)

Normalmente, los noticieros y los blogs se han limitado a repetir la noticia con más o menos detalles. Pocos se han decidido a comentarla, de hecho sólo he encontrado a uno, Juan José Ibáñez, en cuyo blog aprendo mucho de edafología. Juanjo elabora dos posts (uno y dos) donde se muestra estusiasmado con los descubrimientos y se extraña de la poca repercusión del trabajo al menos en nuestro país. "¿Somos tan paletos?" pregunta.

Creo que no o, en todo caso, yo soy uno de ellos porque no me entusiasma la publicación de Tsytovich y colegas por los motivos que expondré después. Vaya por delante que el tema básico entra completamente en mi amplio campo de incompetencia pero hay cosas que creo que pueden ser comentadas a pesar de todo. Intentaré explicar primero la cuestión en términos generales extrayendo fragmentos del resumen:

Toda la vida terrestre está basada en el carbono y sus compuestos y no conocemos excepción a eso. Tsytovich et al. dicen que conjuntos de partículas en plasmas complejos pueden autoorganizarse de forma natural formando estructuras helicoidales con propiedades que suelen usarse para definir lo que llamamos "vida". Estas estructuras interactúan mostrando propiedades termodinámicas y evolutivas exclusivas de la materia viva. Por ejemplo: bifurcaciones que actúan como "marcas de memoria", autoduplicación, tasas metabólicas en un sistema termodinámico abierto... Y concluyen que estas estructuras poseen todas las propiedades necesarias para calificarlas como "vida inorgánica" con posible existencia en el espacio.

Verán que la cosa es muy fuerte. De hecho Tsytovich y colegas mencionan al final del artículo que la vida inorgánica tal vez haya "inventado" la orgánica.

En fin, asumiendo el riesgo de columpiarme y de romperme la crisma, al menos seré sincero: mi impresión es que Tsytovich y colegas han hecho un artículo que no es mucho más que una elucubración.

La primera cuestión, esencial, es que los autores no han descubierto nada real. La noticia no existe tal como se plantea. Los resultados que presentan no responden a observaciones reales sobre la materia sino a simulaciones realizadas con un ordenador. Ya he manifestado antes en otros posts de este blog que las simulaciones no tienen valor de demostración. Como mucho, son prospecciones sometidas a los riesgos inherentes a los modelos, cuya relación con el objeto real debe ser comprobada, cosa que no se ha hecho en ese trabajo.

La segunda cuestión, tampoco banal, es que no hay evidencia de que las estructuras reales tengan las propiedades que aparecen en algunas de las simulaciones. De hecho, ni siquiera me queda claro que la existencia de estructuras helicoidales iguales a las simuladas esté confirmada.

Y la tercera cuestión es sobre la transmisión de información contenida en las estructuras helicoidales, cuestión que sería esencial para hablar de "vida". Según los autores, las estructuras pueden tener "bifurcaciones" —dos estados de diferente diámetro― cuya secuencia podría codificar información. Pero hasta donde entiendo, no se ha demostrado que contengan información alguna y mucho menos que esa información sea relevante para una posible replicación y éxito en un mecanismo de competencia tampoco descubierto.

Creo que con cualquiera de esas tres objeciones la espectacularidad de algunos titulares y declaraciones del autor principal quedan algo aguadas. También quiero comentar un detalle que creo manifiesta un deseo de llamar la atención algo fuera de lugar: se insiste que las estructuras helicoidales son "similares a las del ADN".

"Similar al ADN" es una frase espectacular pero gratuita ¿similar en qué? Pues de lo leido, la "similitud" no es más que formal y relativa al aspecto helicoidal ya que lo poco que comentan sobre la posible replicación, además de ser puramente especulativo, no tiene nada que ver con lo que se conoce del ADN, su estructura y su funcionamiento. Eso sí, llama la atención. Pero además ¿sería realmente relevante esta similitud? Según ellos, estamos hablando de "vida" esencialmente diferente de la conocida hasta ahora por lo que, al menos en mi opinión, la estructura replicante podría tener cualquier forma siempre que se mostrara su funcionalidad para el objetivo de la replicación —cosa que aquí no se ha producido—. Que fuera o no helicoidal no añadiría ni quitaría verosimilitud. Por cierto, el ADN es una molécula y nadie hasta donde conozco le atribuye la propiedad de estar viva como pretende Tsytovich con sus hélices.

En fin, que mi impresión del artículo es que los autores se han dejado arrastrar por un estusiasmo que no parece justificado por lo que describen. Seguramente esté yo equivocado, el tiempo lo dirá, pero hay un tufillo a amarillismo científico que debería disiparse. Mientras tanto, no parece que haya habido reacciones al trabajo salvo las repetitivas notas de prensa y blogs. A ver si en los próximos números de New Journal of Physics se abre algún debate o todo se diluye en un vórtice de polvo virtual.

Para terminar, quisiera dejar claro que no tengo mayores razones para negar la posible existencia de vida extraterrestre ni, supuesta ésta, de vida no basada en el carbono. Es una de esas posibilidades sobre las que no existe evidencia ni a favor ni en contra por lo que afirmar o negar carece de sentido.

Nota: el artículo parece basarse en las observaciones de The Plasma Crystal Experiment que se lleva a cabo en la Estación Espacial Internacional con el objetivo de estudiar el comportamiento del plasma en condiciones de microgravedad. Tsytovich no parece pertenecer a este grupo aunque alguno de los coautores sí.

10 marzo 2007

Cenizas, lava y computación en paralelo

Cuncta iacent flammis et tristi mersa favilla: nec superi vellent hoc licuisse sibi (Epigramas, libro IV, XLIV, Marco Valerio Marcial).

Según nuestro calendario actual, el 24 de agosto del año 79 se produjo la erupción explosiva del volcán Vesubio, que lanzó al aire toneladas de materiales e hizo que bajara por sus laderas un flujo piroclástico mortal. Arrasó Pompeya, Herculano, Stabia y otros pueblos menores. Entre las víctimas estuvo Cayo Plinio Segundo, llamado el Viejo, el autor de la Historia Natural. Plinio el Viejo, movido por su curiosidad sin límites, se acercó al lugar para observar el fenómeno, lo que le costó la vida.

Imagen del Vesubio y la bahía de Nápoles tomada el 15 de abril de 1994 con el radar de apertura sintética SIR-C/X-SAR desde el transbordador espacial Endeavour (página de la NASA aquí).

La historia de estas ciudades y de su final es conocida pero la tragedia sigue ejerciendo un extraña atracción. Películas, novelas... El último capítulo está escrito por Augusto Neri y colegas, que acaban de publicar en Geophysical Research Letters un trabajo titulado "4D simulation of explosive eruption dynamics at Vesuvius".
En él, modelan la erupción del Vesubio y el resultado no puede ser más sugestivo y espectacular.
GRL permite el acceso al trabajo y a los videos a través del enlace anterior. Dicen Neri et al. (1):
We applied a new simulation model, based on multiphase transport laws, to describe the 4D (3D spatial coordinates plus time) dynamics of explosive eruptions. Numerical experiments, carried out on a parallel supercomputer, describe the collapse of the volcanic eruption column and the propagation of pyroclastic density currents (PDCs), for selected medium scale (sub-Plinian) eruptive scenarios at Vesuvius, Italy.
Para las simulaciones han utilizado el supercomputador IBM p5-575 del consorcio CINECA formado por 28 universidades italianas. El aparato tiene 512 procesadores y 1.2 Tb de RAM lo que le permite alcanzar 3.89 Tflops (flops es el acrónimo de floating point operations per second, es decir, operaciones con números reales). Todo esto era probablemente necesario dado que los autores comentan que fueron necesarias 14 h de proceso para cada segundo de animación.
Los videos son grandes; caso de elegir yo les recomiendo este, de algo más de 11 Mb, en formato mpg y que dura 24 segundos. Les pongo abajo una instantánea del mismo para que vayan poniéndose en situación.


Las erupciones del Vesubio se han repetido en numerosas ocasiones. La última fue en 1944, en plena Guerra Mundial. Suele decirse que dicha erupción dañó gravemente a un escuadrón de bombarderos norteamericanos B-25 pero sin dejar claro que no estaban en vuelo sino en tierra ya que habían ocupado la zona en septiembre del año anterior. Los daños fueron provocados por a acumulación de cenizas y lapilli sobre ellos.

Bombardero cubierto de lapilli en la erupción de 1944 (tomada de aquí)

Que el volcán siga activo y que vivir a su lado sea un riesgo evidente no ha sido obstáculo para que Nápoles, con casi un millón de habitantes haya crecido a pocos km de su cráter. Una de tantas demostraciones del sinsentido de nuestras conductas.
A pesar de su fama, el Vesubio ha producido por el momento muchas menos víctimas que el tsunami del 26 de diciembre de 2004 en el Océano Índico. En Teaching Geoscience with Visualizations tienen varias animaciones e imágenes que reconstruyen esta reciente tragedia.

(1)
Neri, A.
, T. Esposti Ongaro, G. Menconi, M. De'Michieli Vitturi, C. Cavazzoni, G. Erbacci, and P. J. Baxter
(2007), 4D simulation of explosive eruption dynamics at Vesuvius, Geophys. Res. Lett., 34, L04309, DOI:10.1029/2006GL028597.

13 enero 2007

Congreso en Mérida

Lamento no poder invitarles a una reunión de frikis o de blogueros pero sí puedo hacerlo al congreso que celebraremos en Mérida dentro de un mes y cuyo lema es "De los modelos a la realidad" ¿les suena?
Hablaremos esencialmente de métodos mediante los cuales los sistemas de información geográfica y la teledetección pueden ser aplicados a la resolución de problemas en ecología. La página del congreso es esta y la de nuestro grupo de investigación, bautizado Kraken, esta otra. Somos primerizos y debo reconocer que ya he pasado alguna noche de sueño de baja calidad debido a este asunto pero estoy seguro de que merecerá la pena.

04 enero 2007

Modelos, realidad, incertidumbre… y Turing de nuevo

Comentábamos el otro día que probablemente el aspecto más importante a la hora de valorar el test de Turing era tener claras las relaciones entre los modelos y la realidad.
Antes de seguir no me resisto a incluir aquí una de las frases lapidarias atribuidas a Dijkstra (no verificada) y sacada de las Wikicitas a propósito de nuestro debate:
«La pregunta de si un computador puede pensar no es más interesante que la pregunta de si un submarino puede nadar.»
Pero sigamos. Quería desarrollar uno de los párrafos de Pedro en los comentarios al post anterior:
Lo que él [Turing] propone es análogo a la confrontación de un modelo con la realidad en el método científico: diseñar experimentos para comparar lo que hace el modelo con lo que hace la realidad, y si no somos capaces de falsar la hipótesis de que el modelo reproduce el comportamiento real, nos quedamos con el modelo.
No me gusta demasiado la última frase porque creo que se refiere a situaciones conceptualmente irreales y que cuando usamos modelos en la investigación no procedemos así. A ver si me explico comentando algo sobre objetivos y métodos de modelado (RAE dixit) aunque es difícil sintetizar esto en dos páginas.
Usamos los modelos como recurso para simplificar la forma, estructura o funcionamiento de objetos y procesos reales y, así, poder deducir o conocer algunas de sus propiedades con más comodidad: la complejidad de la realidad hace incómodo (o imposible) someterla a experimentación directa y usamos una simplificación. Para que este método funcione es necesario suponer que la simplificación de la realidad no penaliza excesivamente la exactitud del resultado. Lógicamente, esta suposición no puede hacerse sin más y debe comprobarse y valorarse cuantitativamente siempre.
Aceptamos por tanto que lo que genera el modelo (resultados) será similar a lo que generaría el objeto real en las mismas condiciones de experimentación (escenario) y utilizamos los resultados dándoles un valor de verosimilitud. Pero esta suposición debe tomarse con pinzas y tener en cuenta:
  • Que el escenario es a su vez un modelo de las condiciones reales, simplificado y truncado, por lo que no puede ser asumido directamente como “real”.
  • Que, consecuentemente, los resultados se generan condicionados por la calidad del escenario, de los modelos de los objetos (a través de datos) y de los modelos de los procesos (a través de ecuaciones o algoritmos que las traducen al lenguaje informático).
Es decir, en teoría siempre podremos falsar o refutar la hipótesis de que el modelo se comporta como la realidad. Los modelos “perfectos” no existen por propia definición, donde la realidad se simplifica en sus componentes y en sus interacciones. Si no hiciéramos esa simplificación el modelo no sería tal sino un réplica, un duplicado, y no tendría ventaja alguna el usarlo porque no reduciría la complejidad del experimento.
Para saber si podemos usar un modelo es necesario estimar la similitud del resultado modelado respecto al resultado real y valorar si ese resultado nos es útil y para qué.
Esto puede realizar de dos formas:
  • Cuando es posible, contrastando una pequeña parte de los resultados modelados con resultados reales (muestra de contraste).
  • Cuando no es posible, realizando un análisis de sensibilidad (aunque éste debe hacerse siempre).
Un ejemplo me ayudará a explicarme: tenemos una hoja de cálculo para modelar las variaciones de temperaturas en un perfil de suelo a lo largo de un día. La hoja representa el suelo en estratos o capas de 2 cm (primera simplificación) y estima la transferencia de calor de un estrato a otro mediante elementos finitos. Los datos de entrada son la luz solar (irradiancia) que se calcula cada 20 minutos (segunda simplificación), un coeficiente de conductividad y otro de difusividad que suponemos iguales para todo el perfil (tercera simplificación), etc. En el modelo hemos descartado introducir la nubosidad por su irregularidad (suponemos un día despejado) y así otros factores que creemos menos relevantes.
Este modelo tiene la bondad de ser contrastable: iríamos a varios lugares de características diferentes, pondríamos termómetros a varias profundidades y contrastaríamos las temperaturas reales con las predichas. Las divergencias nos permitirían dar valores de incertidumbre a los resultados mediante, por ejemplo, un intervalo de confianza al 95%. Los resultados adoptarían la forma, por ejemplo, de 13.2±1.5 ºC (I.C.: 95%). Lógicamente, el valor de incertidumbre puede no ser constante sino función de la temperatura y de los valores de conductividad o de sus combinaciones…
La idea fundamental es que conocemos hasta dónde llega la exactitud de los resultados modelados. Si nos vale o no es otra cuestión y depende de nuestros objetivos: habrá trabajos que soporten esa incertidumbre y otros que no.
Segundo ejemplo, más de moda que el anterior: predicciones de cambio climático. Resulta que aplicamos el modelo X de predicción de cambio climático y encontramos que en una zona determinada X predice una subida de 3.0 ºC en los próximos 80 años. ¿Cómo puedo saber si este resultado es fiable? Pues lamentablemente este modelo no es contrastable y no podemos, en principio, saber hasta qué punto es fiable. ¿Estamos perdidos? No del todo, podemos hacer una prueba que nos va a dar información indirecta sobre el asunto. Sería la siguiente: si el modelo X usa n variables xi (i=1..n) como entrada, vamos a hacer mil réplicas del proceso de modelado. Lógicamente, esos mil valores de temperatura que resultan serían iguales pero en estas réplicas vamos a cambiar esos valores originales añadiéndoles una desviación aleatoria: xi + ei . Esa desviación ei estará dentro del rango de incertidumbre de la medida xi. ¿Y cómo sabemos esa incertidumbre? Midiendo repetidas veces el valor xi en la realidad. Es decir, asignamos una incertidumbre a cada uno de los datos de entrada. En nuestro caso, si una de las entradas es la transparencia de la atmósfera habrá que medirla unos cientos de veces y calcular el valor medio y la incertidumbre asociada. Los modelos de cambio no se harán introduciendo repetidamente el valor medio sino muchos valores posibles calculados a partir de la incertidumbre de la medida. Y todo esto para cada variable y valor de entrada en el modelo X.
Este procedimiento nos permitirá ver, analizando los resultados, varias cosas. Entre ellas cuál es la variación en esos resultados. Cabe que esa subida de 3.0 sea, en realidad 3.0±0.3 ºC o cabe que sea 3.0±5.3 ºC. En este segundo caso el modelo no nos vale para nada que se me ocurra.

Otra cosa que podemos ver es si hay variables críticas, es decir, variables cuyas variaciones implican cambios relativamente mayores en los resultados que otras. Esas variables deben ser medidas con mayor exactitud que el resto (o dicho de otra forma, los otros pueden ser medidos con menos exactitud) lo que facilita la eficaz distribución de recursos a la hora de planificar la toma de datos.
Este análisis debe hacerse siempre, no sólo cuando el modelo no es contrastable, porque la información que nos proporciona es enormemente útil.
Dado que los modelos imitan el comportamiento de los sistemas reales sólo aproximadamente debemos analizar cuidadosamente qué modelo es adecuado para el objetivo que perseguimos y hasta que punto los resultados son de suficiente calidad.

Enlazando con el asunto del test de Turing, que un modelo haga buenas predicciones o proporcione buenos resultados no significa que funcione igual que la realidad. Por eso, la frase de Pedro mencionada al principio “si no somos capaces de falsar la hipótesis de que el modelo reproduce el comportamiento real, nos quedamos con el modelo” yo la entiendo como “si no encontramos diferencias entre los resultados del modelo y los resultados reales, aceptamos el modelo como buen generador de resultados”. Pero no podemos ir más allá y suponer que los mecanismos que generan resultados en el modelo y en la realidad son los mismos. De hecho, por la propia definición de modelo, nunca lo son. No lo sería ni siquera si el ordenador fuera inteligente porque suponer que su inteligencia fuera humana es de un antropocentrismo insostenible. De ahí mi objeción de ET al test de Turing que propuse días atrás y que hasta el momento no ha sido criticada :-)

Nota: más cosas sobre este tema han sido tratadas hace poco en CPI y en Malaciencia donde Remo y Alf han presentado aspectos distintos del asunto con ejemplos que van desde sistemas planetarios hasta el cambio climático.
Grab this Widget ~ Blogger Accessories
 
º