18 agosto 2006

Galicia se quema ¿pero cuánto?

Los satélites ofrecen información objetiva en cantidades ingentes ¿cómo es posible una guerra de cifras tan desproporcionadas sobre los incendios en Galicia?

Resumen para los colegas del otro lado del charco: en Galicia ha habido en las últimas semanas un montón de incendios. Las cifras sobre superficie quemada difieren excesivamente, entre 77000 y 170000 ha lo cual se usa como arma por los partidos políticos y sectores afines a cada cual para zurrarse.
Antecedentes: por ejemplo, en Malaprensa.

Se dice que el 99,9% de la información que se genera cada día procede de los satélites de observación terrestre. Es más, tanta es la información captada por dichos artefactos que muchos sólo funcionan intermitentemente porque es imposible transmitir los datos captados a la Tierra en el tiempo disponible. Aún así, cada día se añaden unos cuantos Tb a los archivos de las agencias espaciales que deben ser procesados, almacenados y, en su caso, servidos.
Hay dos formas de observar la Tierra. La primera es medir el reflejo de la luz del Sol; la segunda es emitir una señal propia y captar el eco. Los sensores del primer tipo se denominan pasivos ya que se limitan a medir la reflectancia de la superficie terrestre. Los sensores activos (segundo tipo) son radares cuyas antenas reciben los ecos de señales emitidas un poquito antes por ellas mismas. Al no depender del Sol pueden funcionar en cualquier lugar, sea de día o de noche. La espectacular imagen del vertido del Prestige que comenté hace un tiempo es de este tipo.

Las áreas quemadas se evalúan mediante escenas tomadas por sensores pasivos. Como ejemplo, la imagen de abajo está captada por un instrumento llamado ASTER y muestra una composiciónen falso color a partir de tres bandas (ver a continuación).

Esta imagen es un fragmento de otra mayor (180x180 km) y muestra parte del embalse de Orellana, en Extremadura (España). Las aguas profundas aparecen negras, las someras en verde, la vegetación en rojo y las zonas sin ella en azul. Pulsar para ampliar.

Cada sensor está formado por un par de miles de CCD (células fotoeléctricas) que transforman la luz recibida en una señal eléctrica proporcional entre 0 (objeto negro, no hay reflectancia) y 255 (saturación del sensor). Pero los CCD no forman una matriz como en las cámaras digitales convencionales y tampoco toman instantáneas. La imagen se forma porque los CCD están en línea perpendicular a la órbita y barren el terreno de forma continua con el movimiento del satélite.
ASTER lleva 15 sensores de barrido actuando simultáneamente. ¿Por qué tantos? El motivo es que cada sensor mide la reflectancia sólo en una estrecha ventana del espectro electromagnético. Por ejemplo, una imagen mostrará la reflectancia de la superficie a la luz verde: 0 indicará una absorción total en esta zona del espectro y 255 lo contrario. De los 15 sensores, 2 trabajan en la zona visible (verde y rojo), 1 en el infrarrojo (IR) próximo, 5 en el IR medio y 6 en el IR térmico (sí, falta uno, pero es para otra cosa que no tiene que ver con esta). Cada imagen es distinta porque los materiales tienen propiedades ópticas diferentes en cada zona del espectro. La imagen de Orellana está formada a partir de sólo tres bandas, las dos en el visible y una en el IR próximo.
Y este es el concepto importante: dos tipos de materiales diferirán en las reflectancias de algunas de las bandas. Las figuras de abajo son ejemplos de signaturas espectrales de granito y de pinos.
Figuras tomadas de Spectral Library del JPL [Pulsar para ampliar]

La idea es que si encontramos un píxel con fuerte reflectancia en la zona de 2 y 4 µm es más probable que sea granito que pino. Existen librerías de signaturas espectrales, por ejemplo, en Spectral Library del JPL pero normalmente los usuarios se construyen las suyas adaptadas a la zona de trabajo. Usando estas librerías, la zona estudiada se clasifica píxel a píxel buscando a qué clase se parece más dentro de la librería de signaturas espectrales. Para ello se utilizan distancias de diverso tipo cuyo objetivo final es dar una estimación del grado o valor de pertenencia de cada píxel a cada clase.
El problema en Galicia no es complicado en principio ya que queremos detectar zonas quemadas, cuya signatura espectral es bastante diferente a las zonas con vegetación. El proceso sería algo así:
  1. Elaborar una librería de signaturas para los diferentes tipos de bosques, matorrales, cultivos, áreas urbanas y todos los usos del suelo que existan en la zona. Para eso se usan mapas previos de ocupación del suelo.
  2. Clasificar la zona y asignar a cada píxel un valor de pertenencia a la clase de “zona quemada” (ZQ). Supongamos que este valor esté en el rango 0-1.
  3. Definir un umbral para ese valor de pertenencia a partir del cual se supone que el píxel pertenece a la clase ZQ, por ejemplo 0,65.
  4. Hacer una estimación de la superficie quemada multiplicando el número de píxeles de la clase ZQ (con valor mayor o igual a 0,65) por su superficie unitaria.
  5. Definir qué se ha quemado: se utilizan clasificaciones anteriores o mapas de usos del suelo previos a los que se superponen los píxeles quemados determinando la clase de vegetación que había antes.
El problema está servido porque la superficie que salga depende de donde se ponga el valor umbral: si elijo 0,98 estoy seguro de que he recogido sólo zona quemada pero el riesgo de pasar por alto otras zonas quemadas, tal vez con menos intensidad, es muy alto; si elijo 0,40 estoy seguro de que todo lo quemado está recogido pero también habré incluido zonas no quemadas (roquedos, ciertos tipos de matorral…) al relajar excesivamente el umbral de clasificación.
Otro factor influyente es el tamaño del píxel. En MODIS cada píxel mide 6,25 ha como mínimo por lo que será difícil detectar zonas quemadas pequeñas cuya signatura espectral quedará camuflada por la del entorno. El error se puede subsanar en parte relajando el valor umbral pero con alto riesgo de pasarse y sobreestimar el total. Por lo tanto, MODIS no es una buena opción para incendios pequeños y dispersos sino para hacer detecciones a escala continental.
Un instrumento adecuado para evaluar zonas quemadas sería el sensor TM (Thematic Mapper) transportado por los satélites Landsat pero no parece que estén disponibles aún imágenes de la zona ya que el periodo de toma es de 15 días y no se ponen a la venta de forma inmediata. ASTER es también una buena opción técnica pero es un sensor experimental y no se garantiza una toma periódica y estable de las zonas por lo que parece que no hay disponibilidad de imágenes recientes de Galicia.
Hay más variaciones, claro. Por ejemplo, el cálculo del valor de pertenencia de cada píxel a cada clase se puede hacer de muchas formas diferentes y darán resultados distintos. Curiosamente, la mayoría de los algoritmos usados son estadísticamente inadecuados, pero eso es otra historia.

¿Quién tiene razón, por tanto? Pues para saberlo sería estupendo que se hicieran públicas las clasificaciones y los metadatos sobre la metodología utilizada. Mientras tanto pongan las cifras en la fresquera, a la espera de ver cual acaba apestando más.

17 agosto 2006

Elogio de la fusión: lo específico

Por supuesto, descartemos que el protocolo de Kyoto se vaya a cumplir

Mi intención en esta entrada es comentar un breve artículo y las respuestas que se le hicieron para que sirva de material a la hora de saber qué piensan los colectivos implicados en la fusión nuclear sobre el futuro próximo.
El artículo que menciono lo escribió William E. Parkins en Science (sección Policy Forum, 10 de marzo de 2006, p. 1380). En él, Parkins es muy crítico con el futuro de la energía de fusión debido tanto a problemas técnicos como económicos; el resumen es
“Prospects for practical applications of fusion power to solve our energy problems appear dubious on engineering grounds”
¿En qué quedamos entonces? ¿Tiene futuro próximo la fusión nuclear o no? Las pistas podemos empezar a buscarlas en la circunstancia de que el artículo es aparentemente un refrito de otro similar publicado en 1977 por el mismo autor:
“It is non clear why Science has chosen to publish a reiteration of arguments against the development of fusion power that were already shown to be wrong when the author first published them in 1997” (Lopes Cardozo et al., tercera carta de réplica).
Lamentablemente no tengo acceso a esa primera versión (Physics Today, marzo de 1997) pero la observación parece verosímil porque de las 8 referencias bibliográficas, 6 son de los años 70, una de 1991 y otra del 2002. Esta circunstancia se confirma cuando el artículo de Parkins fue contestado sintética pero claramente por F. Najmabadi y C. Baker en una breve carta comentando que los argumentos se derivan de un estudio de los años 70. Los argumentos principales quedan, en mi opinión, bastantes maltrechos, especialmente al descubrirse el origen antiguo y la falta de actualización de los mismos.

Aún así, las respuestas al artículo que fueron publicadas también en Science unas semanas más tarde son interesantes: los argumentos de Parkins generan tres cartas de réplica muy diferentes (14 de julio de 2006, p. 170-171) y que dan pistas muy claras sobre las diversas posiciones ante el asunto. Les comento lo esencial de cada una de ellas.

La primera (pág. 170, segunda del PDF) está firmada por responsables jubilados del sector empresarial estadounidense. En él dicen claramente que la investigación sobre energía de fusión no interesa a las compañías y que probablemente no les interese en el futuro debido a problemas básicos no solucionables. Según los autores, la prioridad de las compañías es trabajar en el desarrollo y seguridad de las centrales de fisión, que son lo que ahora genera electricidad. Defienden que de los papers del National Research Council Burning Plasma Science Assessment se deduce que los problemas que Parkins menciona siguen vigentes. Lamentablemente, este aspecto es difícil de verificar porque eluden referencias concretas (la página web que citan contiene docenas de documentos cuya revisión llevaría semanas).

La segunda carta es de un investigador del Los Alamos National Laboratory y va por otro lado: recuerda que para resolver los problemas hay que invertir en investigación. Para ello usa una unidad monetaria circunstancial: la IWD o “Irak War Day”: el coste diario de la guerra de Irak para los EE.UU. Un IWD equivale a 190 millones de dólares y la inversión anual en la energía de fusión en EE.UU. es de 1,5 IWD, insuficiente para explorar nuevas ideas ya propuestas pero no probadas experimentalmente.

La tercera es de tres investigadores europeos y es donde se critica el desfase de los problemas planteados por Parkins señalando que alguno de ellos, definido como irresoluble, ya ha sido solucionado. Son claramente optimistas y mantienen que de acuerdo con lo que se sabe actualmente, era previsible un funcionamiento comercial de la fusión nuclear en un plazo de 30-35 años.

Personalmente creo que la primera carta es un ejercicio de hipocresía escrito con el único objetivo de desvincularse de las inversiones en investigación y que estas vengan de fondos públicos (soy un "malpensao", ya lo sé). Aún así, no tengo claro hasta qué punto las empresas están de acuerdo con ese punto de vista porque rebuscando en las páginas del Electric Power Research Institute, la empresa de dos de los firmantes, se encuentran tres documentos con el título Preliminary Study of Inertial-Electrostatic-Fusion (IEF) for Electric Utility Power Plants que forma parte de su programa estratégico de ciencia y tecnología. Sólo es accesible el resumen del primero donde se puede leer (apartado de perspectivas):
"If IEF systems prove viable, they could provide useful fusion power plants decades sooner than conventional fusion concepts. In addition, IEF plants will offer cleaner, less hazardous performance with upgrade potential to totally clean systems".
(Nota: IEF se refiere a Inertial Electrostatic Fusion, otra forma de confinamiento del plasma).

En mi opinión (no hace falta ser adivino para esto) en cuanto los problemas básicos de la fusión se hayan resuelto, las actuales empresas eléctricas se volcarán en las últimas etapas de desarrollo y en su construcción y explotación ya que será el negocio del milenio.
La segunda carta deja en evidencia las prioridades de la actual administración estadounidense, muy interesada en financiar otras actividades a pesar de que la investigación aplicada a la fusión es de innegable repercusión económica. La idea del IWD me gusta porque reduce la confusión de las grandes cifras y permite comparar costes con más facilidad. Sería bueno disponer de datos sobre construcción de escuelas, bibliotecas, ferrocarriles (no de alta velocidad) y cosas así en moneda IWD o, en el caso español, un mucho más modesto KAVE (km de ferrocarril de alta velocidad) que parece andar por los 12,5 M€/m (no tengo forma de contrastar datos, lo he tomado de aquí).

Finalmente, hay que mencionar el ITER (International Thermonuclear Experimental Reactor, un proyecto internacional en el que participan la Unión Europea, Japón, Estados Unidos, Corea del Sur, India, Rusia y China. Su finalidad es construir un reactor funcional basado en confinamiento magnético y reacción D+T. Aún así, este aparato no será comercial y habrá que esperar a los dos proyectos posteriores DEMO y PROTO para que la fusión nuclear comience a funcionar de forma comercial. ¿El plazo? Entre 30 y 50 años, a ver si llego.

Y una nota final: hay prisa. El protocolo de Kyoto no se va a cumplir, es uno de los desiderata escrito en papel mojado que no va a ser respetado ni por los que lo firmaron (lo mismo que el Convenio de Río de Janeiro sobre biodiversidad). Da igual que nos creamos o no lo del calentamiento global, la crisis energética no va a dismuir y es necesario encontrar con cierta rapidez alguna solución.

10 agosto 2006

Elogio de la fusión: lo general

La solución a la demanda energética existe aunque hay que ser un buen malabarista para manejarla

Ya sabemos que la factura de nuestro consumo energético no es sólo monetaria. El uso de los recursos no renovables es, por pura definición, insostenible, lo que descarta a medio plazo las centrales térmicas convencionales y el uso del petróleo como producto milagro. También sabemos que el control del petróleo. Un recursos muy concentrado, ha motivado guerras al estilo de Mad Max pero de verdad.
Las alternativas también están sometidas a un fuerte debate porque no hay una buena solución. Hay gente que defiende la energía de fisión nuclear (las actuales centrales) como única opción realista para cubrir la creciente demanda energética de forma inmediata. Muchos países ven aquí su única opción de desarrollo y en un futuro inmediato veremos sin duda un notable crecimiento de estas centrales. En países con las necesidades básicas mejor cubiertas y que pueden permitirse una mayor conciencia ambiental, están los partidarios de un incremento drástico del aprovechamiento de los recursos energéticos renovables, especialmente los aerogeneradores y la energía solar.
Todas estas opciones tienen problemas aunque de diferente pelaje. Las centrales de fisión generan residuos que, por el momento, son intratables, peligrosos y de muy larga vida. La energía eólica es poco fiable, muy irregular y no hay forma de almacenarla para darle salida según la demanda de cada momento. La energía solar fotovoltaica es ineficiente ya que hacen falta grandes superficies para modestas producciones; por el momento, además, también es muy cara. En cualquier caso, tampoco son energías inocuas debido a factores diversos como las grandes superficies de suelo necesarias y el impacto de las líneas de evacuación y de las infraestructuras de acceso, que puede ser enorme en zonas aún bien conservadas. Lo único que está siendo instalado en España en cantidades significativas son los colectores de energía solar térmica para surtir de agua caliente.
El mayor problema, de todas formas, es que no es previsible que las energías renovables puedan aportar un porcentaje importante de la demanda general. La opción de reducir esa demanda ahorrando energía es lógica pero poco realista y yo no volcaría mis expectativas en ella a corto plazo.

La energía solar fotovoltaica merece un comentario ideológico: es la única que puede usarse de forma descentralizada, cada uno surtiendo su casa, libre de los oligopolios energéticos. Por eso no deberíamos perderla de vista a pesar de que el coste actual es muy alto comparado con engancharse a la red eléctrica convencional.

La solución definitiva al problema se conoce desde hace tiempo: la energía de fusión nuclear. Se trata de fundir dos núcleos atómicos ligeros en uno más pesado. Si los núcleos originales son más ligeros que el hierro el proceso es exotérmico ya que la masa del núcleo pesado es menor que la suma de los originales. La diferencia de masa se transforma en energía de acuerdo con la ecuación más conocida de la física después de las leyes de Murphy: E=m·c2. Existen múltiples candidatos para intervenir en reacciones de fusión nuclear: deuterio, tritio, helio-3, litio-6, litio-7... Todos son isótopos del elemento básico (hidrógeno en los dos primeros casos). Que el mecanismo funciona ya se demostró con las bombas H, la versión de fusión de las bombas de Hiroshima y Nagasaki, que fueron de fisión.
Al día de hoy se conocen la teoría y varias alternativas prácticas para generar este tipo de energía ¿cuál es el problema entonces? ¿Por qué no disponemos ya de centrales de fusión nuclear?
El problema básico es que las reacciones sólo se producen a muy altas temperaturas y el material debe ser calentado y retenido durante un tiempo para asegurar la reacción. Hablamos de unos poco manejables 100 a 150 millones de ºC lo que, obviamente, no hay recipiente que lo soporte.
Se están ensayando soluciones para confinar este material (en estado de plasma) el tiempo suficiente para generar una reacción rentable. La más comprensible y la más clara candidata a funcionar comercialmente en primer lugar es la del confinamiento magnético, donde el plasma se retiene mediante campos magnéticos en una “cámara” toroidal. Algunas de las opciones técnicas son excitantes: electroimanes superconductores en temperaturas próximas al cero absoluto manteniendo materia en suspensión a 100 millones de grados. La reacción en estos primeros reactores probablemente será D+T ( He4 + n (D: deuterio, T: tritio, n: neutrón). El deuterio es muy abundante en la naturaleza y el tritio debe ser “fabricado” pero no plantea problemas de reservas.

Nota maléfica: en el Sol, el confinamiento es por gravedad. En la Tierra esto no es posible. Tal vez algún monje levitante quisiera echar una mano dadas sus habilidades gravitacionales pero hasta el momento no se han dignado a ello.

La fusión nuclear tiene algunas ventajillas sobre las actuales formas de producción de energía. Las más obvias son que no genera gases de invernadero, que el principal subproducto, el helio, es un gas inerte lo que garantiza la ausencia de reacciones químicas secundarias en la atmósfera y que no es posible un accidente tipo Chernobyl. Tampoco es despreciable que los recursos estén distribuidos de forma dispersa en el mundo por lo que las “complicaciones geoestratégicas” no tendrían opción de producirse como con el petróleo, muy concentrado en unos pocos países.
Por otra parte, la fusión también produce residuos radiactivos aunque de naturaleza bastante diferente que los de la fisión. La fuente de radiactividad es el neutrón resultante de algunas reacciones; la mayor parte de estos neutrones se recicla bombardeando litio para generar el tritio necesario para realimentar la fusión (y que no existe en estado natural). El tritio es radiactivo y deberá ser controlado aunque su peligrosidad es muy baja comparada con lo que se maneja en la fisión. Finalmente, los neutrones no capturados por el litio deberán ser absorbidos usando materiales estructurales adecuados, que los capturen sin volverse radiactivos; actualmente el vanadio es un claro candidato para esta función. Hay otra opción menos desarrollada: la fusión sin producción de neutrones, en cuyo caso estos problemas se eliminarían de forma absoluta. Las reacciones se conocen pero las temperaturas de funcionamiento son bastante más altas por lo que no es previsible que las primeras centrales sean de este tipo.

¿Se podrá hacer esto alguna vez? ¿Se podrá hacer antes de que el agotamiento de los combustibles fósiles empiece a plantear problemas de verdad? No se pierdan el siguiente post de la serie.

08 agosto 2006

De ratones paracaidistas y otras leyendas vivas

Donde los ratones invasores saltan desde avionetas en una conspiración estatal-ecologista

No sé si les comenté que estoy de vacaciones en un pueblo de Tierra de Campos. Para los de fuera les diré que se llama así a un paisaje de Castilla donde los árboles han sido sustituidos por campos de trigo, centeno y girasoles. Apenas ondulado, algunos chopos y álamos flanquean los ríos y en cada pueblo no falta la iglesia, una o más, construida cuando se hacían esas cosas. A falta de convento, estoy en una casa pequeña de adobe, con las paredes revestidas de barro mezclado con paja, ya que aquí nunca hubo piedra, y vigas de madera. Este pueblo no es Macondo pero tampoco desmerecería en una novela.
Por la tarde, cuando afloja el calor, la gente saca las sillas a la calle y se sienta a hablar. Los temas son limitados porque la vida no aporta muchas novedades y la política, que tanto da de sí en otras tertulias, es del color único del cacique local. La Castilla profunda tiene fama de hosca, de silencios cuando pasas a su lado y eres forastero mientras te siguen con miradas tan expresivas como la de Charles Bronson.
A veces me acerco en bicicleta hasta otro pueblo donde me dejo caer por el bar antes de comer. Este me gusta porque se considera que la cháchara en las mesas es privada pero si se produce de un lado a otro de la barra (mostrador, se decía antes) es pública y puedes intervenir sin mayores problemas. Si lo haces con acierto puede que la dueña, buena conversadora, te invite a una ronda rellenando el vaso sin preguntarte.
El otro día lo hizo dos veces porque la conversación derivó sobre los topillos, unos roedores cuyas poblaciones sufren variaciones demográficas explosivas de vez en cuando, según venga la primavera. La explicación local es otra, por supuesto:
—Pues este año el ICONA no ha soltado ratones.
—No, pero soltaron serpientes porque el otro día mataron una grande en X por la tarde de esas que no hay por aquí.
—Mientras no hagan como en XX, que soltaron chacales.
Aquí, la dueña, que no me quitaba ojo desde el principio de la conversación, me rellenó por primera vez el vaso a ver si me sacaba del estado cataléptico.
La media hora siguiente fue de lo más ilustrativo. ICONA fue el acrónimo del Instituto Nacional para la Conservación de la Naturaleza, organismo extinto hace un par de décadas aunque aquí sigan sin enterarse. Y allí intenté explicar los rudimentos de la dinámica de poblaciones bajo un amable pero impermeable silencio. Intenté decirles que yo conocí bien el ICONA y que jamás soltaron ratones ni serpientes, que eso era una leyenda recurrente. Que la serpiente que mataron en X la otra tarde fue en mi calle y que era una culebra de agua, una Natrix despistada de apenas 90 cm, inofensiva, de las que hay en el arroyo de más abajo. Que XX era mi tierra natal, Asturias, donde aún hay lobos y zorros pero nunca chacales, especie que sólo puede verse en España en los documentales de la tele.
Mi poder de convicción fue escaso y dio lugar a que surgieran otras pruebas de mi ignorancia.
—Entonces usted tampoco creerá que…
Y en ese “que” reaparecieron todos los mitos rurales que aprendí en mi infancia: las lechuzas que entran en las iglesias a beber aceite de las lámparas (siguen haciéndolo, parece ser, aunque ya no hay lámparas de aceite). O las serpientes que entran a la cuadra (la corte en Asturias) a mamar leche de los tetos de las vacas. O que las vacas paren con luna menguante o que cuando el mochuelo se pone pelmazo desde la torre de la iglesia es que va a morir alguien.
El segundo vino que me puso la dueña fue cuando uno comentó que el ICONA tiraba los ratones desde avionetas pero que, como se mataban muchos, habían terminado metiéndolos en bolsas con agua. Atados rápidamente de cuatro en cuatro, los echaban por la ventanilla. El que tenía la mala suerte de caer debajo se espachurraba pero los otros, rota la bolsa antes de ahogarse, salían corriendo empapados pero felices. Finalmente, la variante más eficaz fue, parece ser, tirarlos con pequeños paracaídas, siempre de noche para que la gente no se diera cuenta.
Los argumentos manejados eran irrebatibles: “pues lo vio fulano, que estaba a la puerta de la bodega”, o “me lo dijo el médico, que un hermano suyo vive en Madrid”. Razones de autoridad ante las cuales no caben doctorados en biología.
La conversación siguió agradablemente, aderezada con pimientos picantes fritos, hasta que llegó la hora de comer. Al irme me recomendaron sinceramente que no fuera caminando por la chana de noche, una especie de páramo local, porque a veces se oyen voces.

03 agosto 2006

Demasiada información: 1, la información basura

Donde lanzo la idea de que nuestra sociedad nos obliga a manejar ingentes cantidades de información basura

Hace unos días me bañé con el teléfono en el bolsillo. Si hubiera sido el fijo probablemente no habría ocurrido, por aquello del cable, pero era el móvil. El nuevo ya no es un teléfono, es una navaja suiza cibernética y hace de todo usando las últimas tecnologías. Yo no quería eso (sólo quería un teléfono) pero el problema principal, el que me ha hecho abordar esta entrada es que el trasto se acompaña de un manual de 118 páginas lleno de bonitas y memorables frases como ésta:
“También puede solicitar los ajustes de configuración directamente como mensaje de configuración si tiene esa disponibilidad”.
Expuesta la anécdota, paso a comentar el fondo del asunto: la disponibilidad de información en este primer mundo empieza a ser un problema, no sólo por su cantidad sino por su calidad. Hoy quería comentar dos aspectos complementarios del asunto.
El primero es la estúpida complejidad de los aparatos que deberían simplificarnos la vida pero que no lo hacen. Mi teléfono, por ejemplo, exige una inversión de tiempo y esfuerzo absurda si quiero conocer a fondo su manejo. Pero además, una buena parte de sus funciones es innecesaria aunque en esta huida hacia delante tecnológica, el próximo modelo traerá media docena más, todas ellas tan útiles como poder disfrutar del “Para Elisa” en sonido de cutre-fidelidad. O una encriptación PGP de chorrecientos bits con la que no poder hablar con nadie. O la posibilidad de enviar mensajes en código Morse.
Y claro, el elegante pero inusable diseño de los aparatos se acompaña de volúmenes de instrucciones que se supone son información útil, bien trabajada y sintética, cuando en realidad son basura escrita por un sádico. A este respecto supe que el apocalipsis había llegado cuando un amigo estuvo sin aire acondicionado en el coche nuevo durante semanas porque todo se manejaba con múltiples combinaciones de 6 botones, desde la radio hasta la alarma antirrobo. Y el manual era difícilmente distinguible de un sudoku.
Toda esa información no sólo es inútil sino que además es innecesaria ya que es perfectamente posible un aparato mejor diseñado que permita un manejo intuitivo.
El segundo aspecto del asunto es la enorme abundancia de información que debemos procesar de forma continua en nuestro ambiente artificial y que, de nuevo, es inútil en su mayor parte. Les pongo un ejemplo: vean la foto de abajo.

[Pulsar para ampliar]

Es una foto vulgar, de cualquier sitio, pero fíjense bien: pueden contarse hasta 30 puntos con información que, supuestamente, está ahí para ser procesada por el viandante. ¿No los ven? Enumero algunos empezando por la derecha: 4 vallas publicitarias con texto abundante, una señal vertical con 3 rótulos, 2 carteles en la pared, una señal en el suelo de “stop”, una señal vertical de dirección prohibida… podríamos seguir así incluyendo incluso las luces de freno del coche parado ante nuevas señales de stop (redundantes). ¡Ah! Y no se olviden del letrero azul de la ventana del 2º piso, que puede ser útil (se ofrece psicóloga).
Así, a martillazos, podemos dividir la información en nuestra vida cotidiana en dos grandes grupos: relevante e irrelevante. El objetivo es dedicar atención sólo al primer grupo, que debería ser asimilado y almacenado porque sirve de cimiento a nuestro aprendizaje. Hablaré de ella la próxima vez porque tampoco está exenta de problemas. El segundo grupo es el más preocupante. Estamos rodeados, inmersos, en información absolutamente inútil, sobredimensionada, no solicitada, ante la cual respondemos como siempre que un sentido se satura: volviéndonos insensibles. Debido a ese mecanismo de defensa circulamos por la calle de la foto como si fuéramos ciegos, dirigiéndonos en una dirección mecánicamente ignorando el entorno o atendiéndolo sólo de forma inconsciente y automática. Ese exceso de información se amplía en el caso del sonido: tráfico, bocinas, anuncios sonoros, música en un entorno absurdo, lo que nos lleva a anular un sentido más.
Un experimento interesante dentro de los nuevos movimientos urbanísticos sería el diseño de un pueblo donde la mayor parte posible de la información necesaria estuviera implícita en el propio diseño urbano y la innecesaria no existiera. No soy urbanista por lo que no puedo dar soluciones, sólo ideas, pero ha habido periodos históricos que han utilizado diseños en buena medida autoexplicativos (la ciudad romana), estructuras urbanas no repetitivas (el núcleo de la ciudad medieval europea), nombres que reflejan el funcionamiento temporal (las plazas mercado en Marruecos), diseños de fachadas que por sí solos informaban del contenido y función de la casa o tienda (algunos diseños modernistas). Y seguro que hay muchos más porque mi conocimiento del asunto es muy superficial, a pesar de lo cual creo que no sería difícil renovar diseños que faciliten cosas como la orientación espacial y temática de forma intuitiva, la limitación drástica del ruido que evita que oigamos la señal (lo útil), la imprevisibilidad del paisaje a la vuelta de cada esquina, la moderada diversidad de ambientes, armónicos con la función de cada zona, la eliminación absoluta de la publicidad. La realidad nos ha llevado a ciudades monótonas y hostiles, donde tenemos la impresión de vivir en una permanente cacofonía, no sólo de sonidos, sino de datos inútiles. Estamos en el mundo del spam.

01 agosto 2006

El trompetista de jazz y el científico absorto

Donde intento definir qué es un científico usando a Miles Davis y su trompeta

La pregunta de qué o quién es un científico no es irrelevante. Hay personas que quieren ser tomadas por tal para que sus afirmaciones ganen credibilidad. Otras usan el término “investigadores” con fines semejantes. Que algunos de estos personajes se llamen investigadores es como si yo me compro una caja de gubias y pretendo pasar por ebanista: un fraude.
Intentaré hoy contarles mi visión de este asunto. Por un lado, y con la venia de los matemáticos, definiría “científico” como un conjunto borroso. Es decir, la pertenencia a este conjunto no es una dicotomía sí/no sino que responde a una escala continua en el rango 0-1. En el 1 estaría gente como Ramón Margalef o Mariano Barbacid y en el 0 estarían el alcalde de Valdescorriel o mi querida suegra (cada uno con sus peculiaridades).

Yo, en este caso, propongo extender la escala hacia los números negativos dando cabida a la antipertenencia. Así podríamos incluir personajes de todos conocidos que intentan vender gato por liebre haciendo de la mentira una forma de vida.
Mi opinión es que aproximarse al 0 en la escala no significa nada negativo. Lo sería, en cambio, para valores menores que 0 donde, en el sentido que le estoy dando a esta historia, predominaría la superstición y la creencia irracional sobre el conocimiento crítico. Creo que si todos estuviéramos en valores positivos, aunque fueran pequeños, la sociedad avanzaría en ese camino que ya he desarrollado en posts anteriores.

La pregunta directa ¿qué es un científico? no es más difícil de responder que ¿qué es un músico?. En el primer caso es “el profesional de la ciencia”, es decir, aquella persona que hace de la práctica de la ciencia su profesión. En el segundo sería lo mismo: el profesional de la música. Pero si un día compro una trompeta y me dedico a amenizar las tardes a mis vecinos eso no me convierte en músico. Ser un profesional es algo más que dotarse de herramientas: es necesario conocer la profesión, los materiales, saber leer las partituras, conocer las técnicas adecuadas en cada caso... y eso son años de trabajo y práctica.
En el caso de la ciencia es lo mismo: un científico debe tener un buen conocimiento de sus herramientas y de las técnicas de su disciplina. Como en la música, sólo cuando la técnica deja de ser un obstáculo se puede entrar en la fase de creatividad.
Un científico es, por tanto, un profesional de la ciencia con un cierto dominio de su oficio. Y del mismo modo que si yo empiezo a tocar la trompeta con estusiasmo el resto de la orquesta sabría inmediatamente que no soy músico y que intento engañarles, trabajos como los de Von Daniken o Immanuel Velikovsky, por poner ejemplos conocidos, son muy fáciles de reconocer como un fraude desde el punto de vista de la ciencia. La pertenencia del autor al conjunto “científicos” tendría valores próximos a -1 porque ignora o viola las reglas del método científico, que son las que hacen que la ciencia tenga un nivel elevado de credibilidad.

Dentro de los profesionales de la música o la ciencia tendremos diferentes grados de originalidad y de creatividad. También encontraremos de todo en calidad, desde los mediocres hasta los virtuosos. Es cierto que en la ciencia hay pocos solistas porque ya no suele ser un ejercicio individual. Hay directores de orquesta, que marcan líneas de trabajo, distribuyen tareas y coordinan para que todo suene lo mejor posible. También pueden reconocerse pequeños grupos de rock, orquestas de cámara y hasta grandes sinfónicas. Hay buenos intérpretes de obras ajenas, también hay compositores, otros se dedican a la innovación paseando por las fronteras de lo ya conocido.
También hay diferentes personalidades y algún rasgo común. Por ejemplo, no he conocido ningún buen científico ni músico (esos que pasan del 0,8) al que no le apasione su trabajo. Eso es fácil de entender porque al ejercicio de la ciencia o de la música no se llega rápida ni fácilmente. Los que llegan lo hacen a fuerza de voluntad y de mucho trabajo aunque como premio pueden decir que se dedican a lo que más les gusta, lo que hace de estas profesiones algo privilegiado.

Por eso, al mentiroso, al estafador, se le reconoce por la falta de oficio y la ausencia de trayectoria, lo que lleva a productos de mala calidad, desafinados cuando no cacofónicos. Para investigar hace falta algo más que vestirse de bata blanca (un tópico de todas formas): hay que saber ciencia, su historia, sus éxitos y sus fracasos, sus métodos, sus técnicas... Por eso los buscadores sinceros del chupacabras desconocen el análisis del ADN y los grabadores entusiastas de psicofonías no saben qué es el ACI y los estudiosos de la transmisión del pensamiento no saben qué es la estadística no paramétrica: porque no dominan sus herramientas, porque quieren saltarse el esfuerzo y la adquisición de los conocimientos necesarios para hacer bien su trabajo. Y eso no los coloca muy altos en la escala ni hace de su trabajo algo demasiado fiable (¿se han fijado en mi delicadeza?).

Nota: en efecto, en mis vacaciones pueblerinas (sensu stricto) he conseguido acceso esporádico a internet.
Grab this Widget ~ Blogger Accessories
 
º