17 diciembre 2006

Vientos del Oeste (2)

¿Recuerdan esta figura? La puse en un post anterior donde hablaba de Vito Dumas y su inverosímil vuelta al mundo. Y también comentaba que la imagen provenía de un satélite llamado Quikscat que, con apenas 110 W, escaneaba continuamente los océanos para darnos datos de velocidad y rumbo del viento (diarios y gratuitos).


La figura representa la velocidad del viento en el hemisferio Sur, con la Antártida en el centro. La banquisa y las zonas terrestres aparecen en negro: pueden reconocer Sudamérica abajo a la izquierda, Australia arriba a la derecha y África y Madagascar asomando arriba a la izquierda.
La zona oscura central es la suma del hielo continental y oceánico con lo se puede seguir la extensión de la banquisa día a día desde que el satélite fue lanzado a mediados de 1999 (¿alguien se anima?).
Las velocidades están representadas en una gama de grises desde el negro (calmas) hasta el blanco (30 m/s o más).
En aquel post comenté la zona blanca en el Cabo de Hornos, de cuyas dificultades dan fe los testimonios literarios y los pecios en el fondo del mar. También estaba claro el cinturón de vientos llamados los 40 rugientes, por cuyo borde hizo el viaje Vito Dumas. Pero quedaban por explicar los fortísimos vientos justo al borde de la banquisa, rodeados por zonas más calmas. Hace unos días, de casualidad, encontré la razón.
El fenómeno ocurre en realidad en muchos lugares montañosos: durante el día, el Sol calienta las laderas y estas, por proximidad, el aire en contacto con ellas. Al calentarse el aire se hace más ligero y acaba por remontar ladera arriba en forma de brisa cálida. Por la noche, las laderas se enfrían por radiación y la capa de aire adyacente baja de temperatura. El aire frío, pesado, desciende ladera abajo acumulándose al final en los valles inferiores y facilitando las heladas de inversión que se acompañan frecuentemente de nieblas. Una vez sufrí un episodio que ilustra bien el fenómeno. Acampamos en el fondo de una dolina, donde se abría una cueva que queríamos explorar al día siguiente. Por la noche hizo un frío sorprendentemente intenso que apenas nos dejó dormir. Al amanecer fue suficiente con subir una centena de metros por las paredes de la dolina para que la temperatura subiera espectacularmente y, de paso, descubrir nuestra estupidez.
Se trata de los llamados vientos catabáticos, vientos de gravedad por los cuales el aire frío fluye sobre el terreno como un río hasta “desembocar” en las llanuras o en el mar.
En la Antártida, el símil debería ser más bien como un torrente o un tsunami porque se han medido vientos catabáticos de más de 300 km/h. En BBC Weather podemos leer un resumen:
But one of the strongest katabatic winds we experience on this planet blows in the Antarctic. Here the lowest layers of the air, sitting on some of the high plateaux, come into contact with the cold dense ice sheet. The air cools to very low temperatures and spills over the mountain ridges as a katabatic wind. These Antarctic winds have been measured at over 200 miles and hour and are some of the strongest winds measured on our planet at ground level, outside those in some tornadoes.
Los vientos catabáticos en esta zona son enormemente violentos no sólo por las bajísimas temperaturas sino por los grandes desniveles ya que la Antártida tiene 2500 m de altura media, una pista de aceleración magnífica porque, además, no hay árboles ni ningun otro obstáculo que retarde el flujo. El resultado es que en algunas bases científicas la velocidad media anual del viento supera los 70 km/h. Mal sitio para vivir, especialmente si la situación se adereza con episodios como el descrito en la estación Dumont d'Urville donde en 1993 se registró un periodo de vientos catabáticos de diez días durante los cuales la velocidad no bajó de 150 km/h. Como dicen en esa página, los tornados pueden ser más violentos pero desde luego no tan persistentes.
Para terminar, un recuerdo a Douglas Mawson, que trabajó en la medida sistemática del clima antártico. Fue él que que dio los primeros datos sobre estos huracanes de gravedad, tal vez porque plantó su “laboratorio” en el peor sitio posible: la Commonwealth Bay, el mejor observatorio de vientos catabáticos del mundo. Su libro The Home of the Blizzard, está disponible en Proyecto Gutemberg.

Sobre la Antártida sólo una frase: Antarctica is the coldest, highest, windiest, driest, and iciest continent on earth"(de aquí)
  • Temperatura mínima absoluta: -89.4 ºC (-129 ºF) en Vostok, 21 de julio de 1983 (temperatura mínima absoluta mundial).
  • Elevación media: 2500 m
  • Viento: lo dicho, registro de vientos de 360 km/h (200 mph) en la Commonwealth Bay.
  • Precipitación: la precipitación media no llega a los 5 l/(m2.año)
  • Hielo: en la Tierra de Wilkes se ha medido una capa de hielo de 4776 m de espesor.

13 diciembre 2006

Test de Turing: la objeción de ET

Hay temas que regresan una y otra vez, como las mareas o el cartero. El test de Turing es uno de ellos y recientemente me ha llamado la atención el post titulado ¿Superará pronto Google el test de Turing? Otro post al respecto se atreve nada menos que a decir esto:
En enero os contábamos los rumores de que Google podría estar desarrollando un sistema artificial entrenado para poder superar con éxito el test de Turing, y crear así la primera máquina realmente inteligente.
Y como he logrado recuperarme del ataque les invito a repasar brevemente la cuestión y ya me contarán sus opiniones.

Alan Mathison Turing propuso su test en un trabajo titulado Computing machinery and intelligence, publicado en la revista Mind en 1950.
El artículo comienza fuerte: I propose to consider the question, ‘Can machines think?’ Y ya en la primera página propone su “juego de imitación” como herramienta para responder a la pregunta. Posteriormente se han propuesto variantes del juego pero la explicada en la Wikipedia se entiende perfectamente:
La prueba consiste en un desafío. La máquina debe hacerse pasar por humana en una conversación con un hombre a través de una comunicación de texto estilo chat. Al sujeto no se le avisa si está hablando con una máquina o una persona. Si el sujeto es incapaz de determinar si la otra parte de la comunicación es humana o máquina, entonces se considera que la máquina ha alcanzado un determinado nivel de madurez: es inteligente.
Llegados aquí es importante distinguir entre dos cuestiones muy diferentes porque si no lo hacemos llenaremos de ruido la discusión. Y es que Turing hace algo de trampa: plantea la pregunta ¿pueden pensar las máquinas? pero no la responde sino que propone el test como vía de solución llevando las cosas a escenarios más controlables. Esta actitud genera la segunda pregunta ¿permite el test de Turing responder a la cuestión inicial? Y Turing y sus estusiastas intentan convencernos de que la segunda es equivalente a la primera.
Debo confesarles que siempre he pensado que el TT es una tontería y representa una rama del conductismo desprovista de verosimilitud. Pero también debo suponer que si tanta gente se ha pasado años discutiendo del asunto algo habrá que se me escapa. En cualquier caso, un conductista de esta secta diría que al ser indiferenciables los comportamientos, la base subyacente es la misma. Por ejemplo, entre los escritos entusiastas que he encontrado hay uno que lo expresa con claridad señalando
“si algo hace X es porque tiene la facultad, o la capacidad, o la posibilidad, o la aptitud de hacer X”
Lo cual me parece una frase interesante pero que no se ajusta a lo que en realidad ocurre en el TT por dos razones simples:
  • Cuando observamos las respuestas sólo estamos observando un efecto de su comportamiento, no el comportamiento en sí.
  • Nuestras herramientas de observación son incompletas, sesgadas y parciales lo que sólo permite en la prueba hacer una interpretación igualmente incompleta de lo observado (el efecto) cuya extrapolación a la causa es un ejercicio de fe, no de razón.
Para mí bastaría con estas dos razones que supongo alguien habrá dicho antes que yo (o a lo mejor soy un crank): que una máquina pase el TT sólo significa, en principio, que imita adecuadamente las respuestas que un ser humano. Y esta condición no es ni necesaria ni suficiente para otorgarle cualidad de inteligente.

Un contraejemplo que tal vez sea interesante es la simulación de organismos vivos (bacterias, por ejemplo) mediante programas de “vida artificial”. Ahora mismo es perfectamente posible ver en una pantalla la evolución de “organismos”, su crecimiento, sus interacciones y su división reproductiva sin que podamos distinguir si estamos observando organismos reales o virtuales. ¿Significa eso que hay vida detrás de esa pantalla?

Independientemente de mi incapacidad para darle trascendencia al test, el propio Turing plantea varias objeciones al mismo para luego demolerlas con estusiasmo. Las objeciones son banales y fácilmente refutables salvo la primera, que Turing llama desafortunadamente “objeción teológica”. Digo desafortunamente porque esta objeción está relacionada más bien con una concepción dualista donde los dioses pueden estar ausentes: el pensamiento es una propiedad del espíritu luego la superación del test es a) esencialmente imposible si el test es correcto o, b) irrelevante si el test se supera porque implicaría que hay un error en el proceso.

El problema de esta parte de la discusión es que en el planteamiento de las objeciones hay una constante confusión entre la pregunta original y la secundaria. A pesar de todo y desde mi inexperiencia en estas cosas, quiero aportar la mía a la que he llamado la “objeción de ET” y que, de nuevo, estoy seguro que no es original. Es breve: el test de Turing se basa en una concepción antropocéntrica que supone que, caso de desarrollarse una inteligencia, sería una réplica de la humana. El test sólo mediría, en el mejor de los casos, la propiedad de inteligencia "tipo-humano" que la máquina es capaz de trasladarnos. Y podemos proponer que si una máquina fuera inteligente y se sometiera al TT, en realidad sólo estaríamos observando los resultados de una interfaz comprensible para nosotros pero no “nativa”. Si la máquina quisiera que le diéramos por superado el TT tendría una doble carga: ser inteligente y desarrollar una interfaz que pudiéramos entender e imitara eficazmente nuestra forma de comunicarnos. Una emulación en cualquier caso que hace que el TT carezca de sentido.

Y aviso, anticipándome a posibles respuestas ya conocidas, que lo mio no es una objeción defensiva porque soy materialista y creo, hasta que alguien me demuestre lo contrario, que el pensamiento es sólo una propiedad emergente de la complejidad.

Nota final para tocar los bemoles: ¿está el test de Turing de moda en otros ámbitos? Por ejemplo, los polícias que mataron a Jean Charles de Menezes en Londres el 22 de julio del 2005 lo hicieron como consecuencia de un siniestro TT: observaron al joven, interpretaron que se comportaba como un terrorista luego era un terrorista. El resultado ya lo conocemos. Lo que sugiere que no todo el mundo es lo que parece ser.

Por terminar menos serio ¿quién se anima a hacer el TT a un Replicante Nexus-6? Acuérdense de cómo termina la prueba

  • Holden: Sólo son preguntas, Leon. En respuesta a la suya, le diré que me las dan escritas. Es un test hecho para provocar una respuesta emocional. ¿Quiere que sigamos? Descríbame con palabras sencillas sólo las cosas buenas que le vienen a la mente... acerca de su madre.
  • Leon: Le voy a hablar de mi madre... (disparos)

12 diciembre 2006

Porqué no escuchar a Amaral por el teléfono móvil

Hace no mucho tiempo, nuestra aspiración adolescente era conseguir tener un buen equipo de música. Y se asumía que ese equipo estaba formado al menos por un giradiscos (hablamos de discos de vinilo), por una pletina o reproductor de cassetes y por un amplificador. De ahí salían los cables a los bafles o juegos de altavoces. Nuestra máxima aspiración era un giradiscos Dual, una pletina Marantz y amplificador Grundig. Las combinaciones se multiplicaban a la hora de elegir la aguja del giradiscos, la composición de las cintas magnéticas, la necesidad o no de incluir un preamplificador…
En mi casa, el procedimiento era ritual: cuando se compraba un disco se grababa en una cassette nueva. A continuación el disco se devolvía a su envoltorio que a su vez se metía en un sobre de plástico y se sellaba para guardarlo al abrigo del polvo durante un año. Al cabo del año, la grabación magnética se había deteriorado algo y debía regrabarse: se borraba dos o tres veces la cinta y se repetía el ciclo.
El proceso permitía mantener en perfecto estado los discos de vinilo, cuya integridad apenas se sostenia más allá de una veintena de reproducciones, y disfrutar de una música de calidad durante muchos años.
La llegada del CD supuso una revolución en este proceso pero sigo teniendo la misma costumbre: copio el original, lo guardo cuidadosamente y reproduzco la copia.

Pero todo eso dependía del último eslabón de la cadena: los altavoces. Y aquí había un problema serio porque las cajas o “bafles” que se vendían en España o eran muy malos o eran muy caros. Y en mi casa nos pusimos fabricarlos importando planos y esquemas de los EE.UU., donde esto del bricolaje técnico estaba mucho más arraigado.
Baste decir que conservo 4 cajas de aquellas, cada una con 4 altavoces: uno para graves, dos para medios y uno para agudos. Los filtros están calculados y bobinados a mano para conseguir una buena separación de frecuencias. Cada caja pesa unos 15 kg y espero conservarlas hasta el final y más allá si puede ser.

Y ahora lo de Amaral. Saben ustedes que es un grupo español (dicen que un dúo) y que el otro día actuaron en un teatro en Madrid. Los medios acogieron el concierto con gran algarabía debido a una circunstancia nueva: la actuación podría seguirse a través del teléfono móvil. Esto fue aplaudido en algunos blogs como un avance en la difusión de la música a imitar por otros artistas. Mi idea es que, además de avanzar en la difusión, supone un retroceso en la calidad. Sólo he encontrado un periódico que haya mencionado que el sonido no era demasiado bueno y aún así tímidamente.
Mucha gente escucha música ahora mediante microaltavoces de sobremesa conectados al PC, a través de los altavoces del ordenador portátil, en el coche o, peor aún, mediante auriculares minúsculos conectados al reproductor de MP3. El efecto de todo esto en la calidad del sonido es devastador.
Quede claro que no es cierto que el sonido digital bien elaborado sea peor que el analógico. Y lo dice un nostálgico de los vinilos pero con los pies en la tierra. Pero a la hora de reproducirlo estamos con los mismos problemas que antes: las respuestas de los dispositivos pueden ser buenas, malas o malísimas.
En principio, un altavoz debería reproducir sonidos de frecuencias entre 20 y 20000 Hz con la misma eficacia. Esto es físicamente imposible, lo que llevó a diseñar cajas con varios altavoces de características y dimensiones diferentes que se dividían el trabajo. Las respuestas conjuntas pueden ser ya muy satisfactorias y los pequeños defectos para el oido caprichoso podían corregirse con el ecualizador. Los auriculares tienen problemas ya que un único y pequeño altavoz debe lidiar con todas las frecuencias.
Es interesante comprobar la absoluta imposibilidad de acceder a las curvas de respuesta de cualquier auricular o altavoz de los usados en nuestros PC o en los reproductores MP3. Los fabricantes deben considerar que el pequeño detalle de la calidad no es relevante para el consumidor actual. Y tal vez tienen razón.
Yo he hecho una pequeña prueba. Entren en esta página de la New South Wales University y comparen su respuesta a las diferentes frecuencias con diferentes auriculares y altavoces. Yo lo he hecho con tres: los altavoces del portátil (un Toshiba Portégé), unos auriculares convencionales de unos 12 euros de precio y unos venerables Sennheiser HD 535 ya descatalogados. Las curvas que he obtenido son las siguientes y creo que describen claramente lo ocurrido con la salvedad de que los 12 y 16 kHz están siempre a cero porque no me han funcionado:

A través de los altavoces del ordenador portátil

Con auriculares simples

Con auriculares de calidad

La prueba no es buena porque la circuitería del PC es inadecuada y el volumen no puede regularse bien con lo que a mis Sennheiser apenas les llegaba comida para sonar. Aún así pueden darsw una idea de lo que quiero comunicarles. Para insistir les haré una comparación visual. Les incluyo cuatro imágenes de la misma obra, la habitación de Van Gogh. La primera está más o menos ajustada al original:


La segunda muestra un pixelado grosero que impide apreciar los detalles.


La tercera tiene una severa distorsión en el color, con el verde reducido y el azul casi eliminado.


Y finalmente, la cuarta sufre ambos efectos, reducción de la resolución y distorsión en el color.


Convendrán conmigo en que ningún aficionado al arte aceptaría que le vendieran reproducciones así. Pues por ese motivo, exactamente, no me apetece escuchar a Amaral por el teléfono móvil.

05 diciembre 2006

Revistas de acceso abierto y entrada cerrada

Revistas open-access en las que es difícil publicar

The Royal Society se apunta al lanzamiento de revistas en internet bajo la fórmula del open access, acceso libre y gratuito para todo el mundo. Es decir, como las revistas de la Public Library of Science, que han alcanzado unos factores de impacto muy relevantes en pocos años. El pero viene cuando decides unirte a la iniciativa y que tus trabajos, si pasan el control de calidad, se publiquen bajo este formato:
The new open access' journal service, called EXiS Open Choice', is being tested by the Royal Society to see if it provides a viable way of sustaining the costs of peer review and other aspects of journal production. Authors who choose to pay to make their papers immediately available on the web will be charged a full cost of £300 per A4 page, although the Society will initially be offering a discounted rate of £225 per A4 page to encourage authors to use the service.
Un trabajo nuestro puede ocupar entre 4 y 8 páginas (somos minimalistas); echando cuentas, publicar aquí un artículo nos saldría por 1200 a 2400 libras (1775 a 3550 euros, sin aplicar el descuento). A mí, la verdad, no me salen las cuentas, tendré que seguir sacando las cosas en revistas normales a menos que mi financiación suba escandalosamente.

04 diciembre 2006

Los cromosomas de las palabras

Iba a pasar del asunto, se lo juro. Pero el idioma merece un respeto y con ese objetivo, sólo con ese, me meto en el fangal. La cosa salió en el blog de Javier Armentia, donde se nos informa de una iniciativa del Instituto de la Mujer promocionando a) el uso del femenino a la hora de mencionar, por ejemplo, oficios ejercidos por mujeres y b) el recurso al neutro cuando el genérico sea masculino o, alternativamente, la enumeración de ambos sexos. Ejemplos del caso a) albañila, estudianta, bedela, bachillera…(tomados del blog citado); ejemplo del caso b) donde antes se decía “a los árabes” ahora tenemos varias opciones: “al pueblo árabe”, “a la población árabe”, “a las personas árabes”, “a las y los árabes”, “a los y las árabes”.
La entrada de Armentia generó un amplio debate de más de 100 comentarios donde hubo de todo, desde argumentaciones más o menos pedestres hasta unas pocas de buen nivel por ambas partes salpimentadas con faltas de ortografía y sintaxis exóticas que llaman la atención dado el contexto del debate. Se citaron artículos de Pérez Reverte donde trata este tema con su prosa característica, tal vez incluso algo más ácida que de costumbre (¿existen los pH negativos?).
Pero yo quería abordar el asunto desde una perspectiva distinta pero igualmente apasionada.
Las palabras, los idiomas, no son artilugios donde ahora aprieto una tuerca, luego le cambio los halógenos y mira qué bien me ha quedado el tuning. Son sistemas complejos fruto de una evolución de siglos y en cuya forma intervenimos todos cuando nos toca vivirlos. Y si hablamos del nuestro, del castellano o español, que tanto me da, la sensación es de vértigo ante los centenares de millones de personas que hemos dado forma a esta herramienta que hoy permite que nos comuniquemos.
En este contexto, la iniciativa del Instituto de la Mujer incurre, en mi opinión, en dos errores.
El error básico es suponer que las lenguas pueden ser manejadas desde arriba, tirando de este hilo por aquí y del otro por allá para que se muevan en la dirección deseada. Subyacente al error parece estar algo peor: el desprecio al idioma, al que se quiere amputar, remendar y suplementar como un Frankenstein con su criatura, con la prepotencia que solo da la insensatez. Esto es sólo una suposición mía, claro, pero es que en la exposición de la iniciativa el predominio de los argumentos ideológicos sobre los lingüísticos (inexistentes) es demoledor.
El segundo error es que ese desprecio conduce a un perverso efecto colateral: el uso del idioma como arma de segregación. Porque, a partir de ahora, los que escribimos o hablamos sin seguir las directrices de la neolengua caemos bajo sospecha. Ya no podré escribir “los árabes” sin que haya gente que me acuse, como mínimo, de tibieza en la defensa de la igualdad de sexos. Y no seguiré la neolengua porque disfruto escribiendo y ni los corsés ni los cilicios han dado nunca placer.
Finalmente, habría que recordar que las palabras no surgen mágicamente de la marmita del brujo de turno. Alex Grijelmo habla en su “Defensa apasionada del idioma español” de los “cromosomas” de las palabras, queriendo decir que tienen historia y que sus formas pasadas, actuales y futuras son parte de ella y no son mudables a demanda.
Ya comenté otras veces mi defensa a ultranza de las lenguas separándolas de los intereses politicos por lo que sólo repetiré aquí lo esencial: las lenguas son inocentes, no así sus hablantes. Dejen en paz a las palabras y no carguen sobre ellas la responsabilidad de distinguir entre buenos y malos que ya tienen bastante con sobrevivir a la incultura.

01 diciembre 2006

La universidad de los mercaderes

El cierre de titulaciones en Reading, un aviso a navegantes

Hace tres o cuatro años que se ha planteado en las universidades españolas una campaña de reeducación que a mí se me antoja algo discutible. Uno de los arietes es el tema de la interacción universidad-empresa. Desde mi punto de vista, las relaciones U-E están bien y son interesantes a veces. Pero no son el objetivo principal ni deben conducir (o coaccionar) las actitudes universitarias. Tal vez mis líneas de investigación no interesen a ninguna empresa. Eso no debería ser un demérito sino simplemente la constatación de que los intereses de "Fibrocementos Acme" no son los mismos que los del "grupo Kraken". Lo cual no debería sorprender a nadie.
Las relaciones se van a establecer con más facilidad con aquellos que se dediquen a la investigación aplicada y sólo en un número limitado de campos. En términos generales, no será posible para la investigación pura, que suele dedicarse a la ampliación de conocimiento en campos de nulo interés para la empresa.
La justificación de la imperiosa necesidad de que la universidad establezca vínculos indisolubles con la empresa fue en su momento aquello de que la universidad vive en su torre de cristal, aislada de la sociedad y tal... Una idea tan falsa como estúpida porque la universidad es una parte de la sociedad y los que estamos en ella interactuamos con el resto como cualquiera o más. Pero como en los tiempos que vivimos nos alimentamos de tópicos, el mensaje inicial se ha acompañado de ideas colaterales aún más preocupantes. Por ejemplo, que la universidad debe adaptar sus contenidos docentes a “lo que la sociedad demanda”. La expresión entrecomillada es más falsa que un euro de chocolate por dos motivos: 1. Se quiere decir “lo que las empresas demandan” y las empresas no son la sociedad, sólo una parte de ella con unos intereses peculiares y particulares, y 2. La demanda lo es siempre a corto plazo y no tiene porqué ser lo deseable a medio y largo plazo para el conjunto de la sociedad.

El eslogan anterior convierte a la universidad es una academia al servicio de los intereses empresariales, muy respetables pero ajenos a lo que deberíamos contemplar. Las consecuencias son previsibles ¿para qué una licenciatura o un grado en matemática, por ejemplo, si no hay demanda social? Los matemáticos son entes molestos que tardarán años en incorporarse a una plaza laboral, probablemente en la propia universidad, jodiendo las estadísticas durante ese periodo (“España va bien”).
Lo mismo con el arte, la historia, la física... por no hablar de la filosofía. Si creen que exagero, entre los criterios de calidad de las titulaciones que se están cocinando cosas tan bonitas como el porcentaje de egresados que consigue empleo en el primer y segundo año, o el tiempo que tardan en terminar la carrera los alumnos... Lo que convierte a nuestras aulas en un centro de colocación: hay que enseñar sólo lo que integre ipso facto al alumno en el ciclo productivo y, además, no conviene exigir demasiado porque entonces el alumno terminará en 5 o 6 años en vez de en los 4 políticamente correctos y eso restará puntos a la titulación.

Hay mucha gente con vocación por conocer, investigar y vivir en el descubrimiento de las cosas, mucha. Lamentablemente, esa gente se verá condicionada por planes de estudios que deberán atender otras prioridades porque así se marca desde el Ministerio del ramo. Porque, o pasas por las horcas caudinas o te quedas con títulos no homologados y sin financiación. Así de claro. Ya comenté en este blog en otro momento que es perfectamente posible, según los planes actuales, que un universitario consiga el título de grado sin haber tenido ningún contacto con la investigación. Incluso hay modalidades de postgrado que tampoco la contemplan y donde se valora la presencia de patrocinadores empresariales que sufraguen los gastos. Y se supone que es enseñanza reglada, que ha de ser estable y captar profesores de calidad. Seguro.
Bien, hasta aquí el desahogo. Para que vean por dónde van los tiros, les traduzco una noticia de la Universidad de Reading (GB), aparecida en el Science de esta semana (vol. 314:1363).
La Universidad de Reading se ha convertido esta semana en la vigésimoprimera universidad británica que desde 1997 anuncia el cierre de su Departamento de Física. A pesar de las protestas de profesorado y estudiantes y de las peticiones de más de 2000 investigadores de todo el mundo, el Consejo de la universidad votó el pasado 20 de Noviembre no aceptar más estudiantes de física. El Departamento se cerrará en el 2010.
Las universidades de Gran Bretaña están financiadas en gran parte por la administración, con cantidades dependientes del número de alumnos y de la calidad de la investigación. El vicerrector de Reading, Gordon Marchall, comunicó en una carta abierta que el Departamento de Física está perdiendo sobre 1 millón de dólares al año debido a que no consiguen suficientes nuevos estudiantes (28 este año sobre un objetivo de 50) ni suficientes ingresos por investigación.
Estos dos párrafos apuntan alguna otra perversión. Por ejemplo, la evaluación de los departamentos atiende a su balance económico. Esta ingeniosa idea supone implícitamente:
  • considerar que la universidad es un negocio y no una inversión: el balance económico debe ser equilibrado a corto plazo, no importa que los egresados se integren posteriormente en el sistema de investigación nacional y a lo mejor desarrollen una carrera larga y fructífera.
  • cerrar titulaciones por la escasa demanda, sin tener en cuenta que hay carreras que son en sí mismas minoritarias pero cuya eliminación supone una pérdida social no evaluable económicamente y que conduce, poco a poco, a la degradación cultural de la sociedad.
  • descargar en los profesores no sólo la docencia y la investigación sino también la responsabilidad de captar alumnos en la enseñanza secundaria a menos que quieran ver como su disciplina se extingue.
  • concebir que la investigación debe incrementar las cuentas más que incrementar el conocimiento (que no se evalúa). La necesidad de ingresar dinero obliga a dirigir los proyectos hacia líneas de financiación jugosas (lo que se ha venido en llamar sexy-science). ¡Ay de aquél que se salga de las líneas marcadas!
Para finalizar les confesaré que soy pesimista y que creo que el cierre de titulaciones será una consecuencia ineludible del enfoque economicista de las reformas universitarias. En el fondo está siempre el desprecio al conocimiento, lo que lleva a ver la universidad como un negocio más: hay que compensar los sueldos de sus profesores introduciendo a los alumnos lo antes posible en el ciclo económico de los “mileuristas”. La formación científica, la cultura, el espíritu crítico son irrelevantes en este esquema, cuando no perniciosos. Y las titulaciones que no entren por el aro que se vayan muriendo ellas solas de déficit crónico.
Grab this Widget ~ Blogger Accessories
 
º