Mostrando entradas con la etiqueta tecnología. Mostrar todas las entradas
Mostrando entradas con la etiqueta tecnología. Mostrar todas las entradas

11 octubre 2010

8 hechos sobre el buen uso de las baterías de iones de litio

Hay una confusión generalizada sobre el mantenimiento de las baterías de un ordenador portátil. Actualmente todas son de iones de litio, en vez de las de níquel-cadmio de hace unos años. Aún así, algunos seguimos usándolas como si fueran iguales y no las recargamos hasta que se descargan completamente, o a lo mejor las quitamos cuando estamos conectados a la red, o siempre que podemos las usamos sin enchufar para que no estén de vacaciones... Como acabo de estrenar un ordenador me he puesto a mirar por internet a ver si aclaraba mis ideas. Por lo que he leído (a veces un poco contradictorio) deduzco que debería haberlo mirado antes porque estaba haciendo las cosas bastante mal  :-(

Los ordenadores portátiles han evolucionado un poco desde este IBM "portable"
 Aunque el tema se ha tocado en bastantes sitios, la página de mayor interés que he encontrado y de donde se puede extraer una información muy completa es BatteryUniversity.com. Les pongo abajo una síntesis algo desordenada de los hechos más relevantes que he sacado en claro. 
  1. Cuando las llegan las baterías vendrán con una carga aproximada de un 40%: basta con cargarlas hasta que el indicador señale carga completa. No es necesaria una primera carga larga y es una muy mala práctica hacer ciclos de carga/descarga completos antes de usar la batería por primera vez.
  2. La intensidad de carga es crítica con estas baterías: no debemos usar nunca cargadores que hagan cargas rápidas o ultrarrápidas porque se reducirá muy sensiblemente la vida útil de la batería.
  3. El número de ciclos carga/recarga es limitado por lo que el deterioro de la batería es inevitable. Según las condiciones, este número está en el rango de 300 a 800 (sobre este asunto se encuentran muchas cifras incoherentes pero estas parecen las más fiables).
  4. Si trabajamos con el ordenador conectado a la red hay dos motivos para quitarle la batería y otro para mantenerla, usted decide. Interesa quitarla cuando la temperatura del ordenador sube sensiblemente porque el calor es un enemigo mortal de la batería. También porque esa batería estará permanentemente al 100% de carga y eso no es bueno para su conservación. Sin embargo, interesa mantenerla si la corriente no es estable ya que la batería protegerá al ordenador del corte a menos que tengamos un SAI.
  5. Las baterías de iones de litio no deben descargarse completamente. Al contrario que las de niquel-cadmio, les benefician recargas cuando la carga remanente está aproximadamente al 20%. Sólo tiene justificación una descarga mayor cuando el medidor de la batería (el que nos dice cuanto queda de tiempo de alimentación) ofrece estimaciones erróneas y se considera necesario reajustarlo. En ese caso podra hacerse una descarga más intensa pero nunca con frecuencia.A mí esto último nunca me ha pasado pero como lo dicen por ahí, lo cuento.
  6. Las baterías pueden dejarse conectadas a la corriente de red porque incorporan un sistema para desconectarlas cuando la carga es completa. No es necesario, por tanto, estar muy atento a los tiempos de recarga.
  7. En el caso de almacenar las baterías durante unas semanas sin uso, estas deben guardarse con una carga de aproximadamente un 40% y en una zona fría (5-15 ºC estará bien). Hay pruebas que dicen que tras un año de almacenamiento a 25 ºC, esa batería podrá recuperar el 96% de su capacidad pero si se dejó completamente cargada, la recuperación será solamente del 80%.
  8. Como hemos visto, es difícil que las baterías de iones de litio soporten mucho más de 600 ciclos de carga/descarga, incluso tratándolas bien. Es conveniente, por tanto, no usar las baterías innecesariamente si existe la posibilidad de conectar el ordenador a la red ya que ahorraremos ciclos de su vida útil. Dado que en el ordenador estarán completamente cargadas es bueno quitarlas si se opera enchufado a la red pero deben retirarse dejándolas a media carga (40%), no completamente llenas, por las razones de conservación que vimos en el punto 7.
En fin, esto es todo lo que he sacado en limpio y me ha parecido coherente. Que sus baterías (y las mías) disfruten de una larga vida.

    04 marzo 2009

    Escáneres, huellas y dinosaurios

    En este artículo se da a conocer el hallazgo y análisis de una serie de huellas humanas de 1.5 millones de años de antigüedad:
    Matthew R. Bennett et al., 2009, Early Hominin Foot Morphology Based on 1.5-Million-Year-Old Footprints from Ileret, Kenya. Science, 323(5918): 1197-1201.
    En este otro se estima el volumen corporal y masa de unos dinosaurios:
    Karl T. Bates et al., 2009, Estimating Mass Properties of Dinosaurs Using Laser Imaging and 3D Computer Modelling. PLoS ONE 4(2): e4532.
    ¿Qué tiene en común estos dos artículos? La respuesta es que ambos han usado una herramienta de medida relativamente nueva: el escáner láser. En el primer caso usaron un Konica Minolta VI900, montado horizontalmente sobre un armazón a unos 60 cm sobre las huellas. Cada huella fue representada mediante unos 300000 puntos superpuestos a fotografías digitales (Nikon D200) que fueron corregidas geométricamente.

    Modelos digitales de las huellas localizadas en Kenia, a orillas del lago Turkana (figura disponible como Supporting online material del artículo)

    En el otro artículo se usó un escáner láser Riegl LMS-Z420i para tomar medidas de los esqueletos de cinco grandes dinosaurios (entre ellos un par de tiranosaurios), con la diferencia de que, en este caso, la forma compleja obligó a usar tomas desde diversos puntos de vista y unirlas para forma un modelo tridimensional único.


    Reconstrucción de un tiranosaurio a partir de un esqueleto modelado con un escáner láser (figura del trabajo original).

    ¿Cómo funcionan estos aparatos? Como todas las buenas ideas, el principio es muy simple: se lanza un rayo láser contra el objeto y se recibe el "eco" o reflejo. Según la distancia al objeto y la forma de operar hay dos tipos básicos de escáneres láser. El primero se usa para objetos cercanos (menos de un par de metros) y funciona por triangulación: el emisor de luz, el punto de "impacto" sobre la superficie del objeto y el sensor receptor forman un triángulo en el cual el primer y último componente están perfectamente localizados. Un poco de cálculo trigonométrico y se estima la distancia al objeto con una incertidumbre de una décima de mm más o menos. Lógicamente, o el objeto o el rayo de luz o ambos se mueven para cubrir toda la superficie desde diversos ángulos.
    Cuando el objeto es lejano se usan escáneres que miden el tiempo entre la emisión y la recepción de la luz. La incertidumbre es mayor pero las distancias pueden llegar al centenar de m. Una incertidumbre típica es de ±2 mm a 25 m. Algunos modelos más sofisticados aprovechan que el láser es luz coherente y usan la fase para aumentar precisión y exactitud. Como en el caso anterior, los pulsos láser barren el objeto para cubrir toda la superficie. Salvo que se trate de objetos más o menos planos (fachadas, por ejemplo) es habitual realizar varias tomas moviendo el escáner de lugar. El procesado final consiste en unir las nubes de puntos en una sola, eliminar los errores groseros por métodos estadísticos y restaurar la forma aproximada del objeto en tres dimensiones superponiendo fotografías digitales para asignarle textura. Un escáner de este tipo puede tomar de 2 a 3 millones de puntos.en 30 segundos cubriendo un campo de vista casi esférico.
    ¿Por qué les cuento esto? Bueno, aparte de que creo que son instrumentos interesantes y de que los artículos son bastante llamativos, es que hemos comprado uno recientemente (tan recientemente que está empaquetado aún). Mi intención es convencer a los grupos de investigación de mi universidad de que lo usen aunque no sea para fines tan exóticos como los de los artículos mencionados arriba. Fachadas de edificios históricos, conducciones romanas (acaba de escanearse parte de la Gran Muralla china), excavaciones arqueológicas, procesos geomorfológicos... a ver para qué nos da la imaginación ¿alguna idea o propuesta interesante?

    Modelo de la Gran Muralla realizado mediante escáner láser aerotransportado y vista en colores reales de la zona

    Actualización: en Mundo Neandertal, Martín Cagliani nos cuenta algo más sobre las huellas de Kenia: 1 y 2.

    29 diciembre 2008

    Innovaciones tecnológicas alternativas del 2008


    Y no, no son teléfonos ni miniordenadores. Es el listado de 10 innovaciones que la revista The Scientist cataloga como más destacadas del año 2008 dentro del amplio ámbito de la biología y medicina. En otros lugares aparecen otras listas, cómo no, donde destacan cosas que, en mi sesgada opinión, son más una operación de marketing que un auténtico avance en ciencia o tecnología.Los evaluadores de The Scientist aplican criterios distintos que nos permiten ver “el otro lado” de la tecnología, muy diferente de los gadgets de consumo. Los pongo sólo unos pocos, la lista completa está en el enlace anterior:

    1. Uno de los artefactos “premiados” es un secuenciador de ADN llamado Polonator G.007. No es que vayamos a tener uno en nuestra cocina pero su impacto en la investigación biomédica es enorme y al final somos nosotros los beneficiados. Dentro del conjunto de secuenciadores de ADN, lo que distingue éste es que la ferretería es de bajo coste y que tanto software como protocolos son open source. Y es que parece que este movimiento del conocimiento abierto acaba llegando a todos los rincones de la sociedad, lento pero seguro.

    El secuenciador, a la izquierda, es del tamaño de una lavadora. La imagen es de Popular Mechanics. A la derecha vemos que no en todos los laboratorios sobre sitio.

    2. Otro puesto de honor está reservado para un sistema llamado PFS (Perfect Focus System) que soluciona un problema cotidiano y molesto: consigue mantener las imágenes de microscopio enfocadas de forma automática, algo especialmente útil en el seguimiento de células en movimiento y para observaciones de muestras sometidas a cambios de temperatura, presión o índice de refracción. Para ello usa un haz de luz infrarroja que permite reajustar el foco cada pocos milisegundos.

    3. Fucci es un sistema para observar el ciclo celular con células vivas. Uno de los usuarios dice que ha comenzado a utilizarlo para observar en directo el efecto de medicamentos contra el cáncer en la división y migración de las células tumorales. El sistema se basa en células modificadas genéticamente que muestran dos proteínas esenciales para la división celular con colores fluorescentes rojo y verde. Las imágenes muestran situación y movimiento de estas proteínas lo que se traduce en información espacial y temporal completamente nueva de los procesos de división celular.

    Sección de embrión de ratón mostrando las zonas de crecimiento (en verde) y las de diferenciación (en rojo). Imagen de aquí.

    4. Microscopio confocal de láser blanco TCS SP5 X. Lo de “láser de luz blanca” es una expresión contradictoria en sí misma pero sintetiza lo que hace este trasto: barrer la muestra con láseres en diferentes longitudes de onda (en un rango continuo que abarca el ultravioleta y el visible) para generar imágenes compuestas (multiespectrales) mediante la excitación de zonas con marcaje fluorescente.

    Imagen tomada del SIDI, Servicio Interdepartamental de Investigación de la UAM. La alfa-tubulina (constituyente de los microtúbulos) aparece en verde, en rojo la tinción con faloidina y en azul la tinción de ácidos nucleicos.

    Hay vida más allá del iPod.

    09 junio 2008

    Al principio fue el disco...

    Una mañana de estas me entretuve con F haciendo fotografías a discos de ordenador, desde fijos a removibles. Las cintas (otro día vemos algunas) ya no se usan. Los discos, en cambio, siguen siendo una tecnología segura y rápida. Sólo que no siempre pudieron llevarse en el bolsillo. Comencemos...

    Una unidad con tres discos de 40 cm de diámetro y un peso de una docena de kg. La pieza negra de la derecha es el motor que hace girar el eje. F ha conseguido rastrear el modelo: un Data General de 5 (cinco) Mb de capacidad (los tres platos juntos, no cada uno) y en uso desde 1982 a 1988. Motores y discos aún giran pero ya no hay ordenadores que sean capaces de manejarlos.

    Detalle de una cabeza de lectura/escritura. Aquí pueden distinguirse los tres discos.



    La aparición de los discos flexibles (disquettes o floppys) en los años 70 fue un gran avance para facilitar la movilidad de la información, el almacenaje y las copias de seguridad. Inicialmente se fabricaron de dos tamaños: 8 y 5 ¼ pulgadas. Ambos eran una delgada lámina de plástico con una capa magnética en un "sobre" de cartón. No se les podía pedir mucho, apenas 1.2 Mb para los grandes (ya evolucionados, al principio era menos) y 360 kb para los pequeños. Bastante después aparecieron los de 3 ½ en carcasa de plástico. Estos últimos llegaron a almacenar 1.44 Mb a finales de los 80.
    Arriba pueden ver un lector para discos de 8 pulgadas. Con un peso de unos 6 kg su tamaño era de unos 40 x 25 cm (el CD de 12 cm de diámetro que hay encima permite hacerse una idea).

    Cuando era necesaria una mayor movilidad se usaban discos removibles. El de la foto de arriba mide unos 35 cm de diámetro y se insertaba en el lector de forma que los cabezales entraban por la ventana rectangular para alcanzar el disco interno. Como en la unidad anterior, los discos parecen fabricados de baquelita.

    Esta unidad de 4 discos de acero ya tiene dimensiones más moderadas, de unos 15x12 cm y un peso más discreto (aunque no demasiado, sorprende cuando lo levantas).

    Iomega sacó a mediados de los 90 los discos ZIP que usaban el mismo material que los floppys de 3.5 pulgadas pero podían almacenar 100 Mb debido a que no había rozamiento con la carcasa ni contacto con las cabezas lectoras.

    El siguiente avance dentro de los discos magnéticos removibles fue el JAZ, todo 1 Gb de información comercializado a partir de 1997. JAZ usaba dos platos internos con tecnología similar a los discos duros de la época.

    ¿Y en qué estamos ahora? No resisto la tentación de enseñarles el último juguete, este algo más moderno. Resulta que tenemos algunos análisis que espero contarles pronto cuya ejecución lleva bastantes horas de CPU y cuyo almacenamiento, incluso borrando resultados intermedios, puede requerir unos cientos de Gb. Para estas cosas hemos tenido que acudir a unidades como la de la foto: 4 Tb de discos extraibles en modo RAID 5.

    13 diciembre 2007

    Aquellos poderosos ordenadores

    Mi tesis de licenciatura, que iba sobre climatología, exigió una serie de análisis estadísticos que me obligaron a viajar a Santiago de Compostela, donde existía un ordenador con el paquete estadístico BMDP. El proceso era ritual: llegabas por la mañana, justo a la hora de abrir la puerta del Centro de Cálculo. La sala no tenía nada más que unos cajones de madera en una de las paredes. Tirabas de uno e introducías un paquete de tarjetas de cartón unidas por una goma elástica. Esas tarjetas contenían los parámetros que había que pasarle al BMDP y los datos sobre los que debía trabajar. Empujabas el cajón y se suponía que una mano misteriosa, en algún momento, recogía el paquete desde el otro lado.

    Las tarjetas habían sido perforadas una a una en una suerte de pupitre con teclado, y mi tesina contaba con 642. Cada tarjeta podía almacenar 80 caracteres alfabéticos o numéricos.

    Una vez introducido el paquete podías dedicarte a deambular por la granítica ciudad hasta pasado el mediodía. En ese momento volvías a la sala y abrías el cajón. Si no había nada era que aún no habían tenido tiempo para procesar el encargo y podías tomarte el día libre (lo cual solía tomar forma de vino de Ribeiro y queso con anchoas). Si había algo eran las fichas y un montón de papel rayado ("pijama" se decía). Salvo errores de lectura, allá estaban los cálculos impresos con una enorme impresora matricial.

    Mi primer ordenador fue un Sharp 3201 al que llamé Cornelia (no me pregunten la razón, siempre quise darle nombre a estos trastos). Cornelia ganaba por goleada a sus congéneres de principios de los 80 porque mientras todos tenían 32 Kb de RAM, aquí podíamos disfrutar de 48 Kb. Además podía trabajar con una cinta de cassette para almacenar secuencialmente un "sinfín" de datos. Con Cornelia se elaboró el Estudio Epidemiológico en la Población Escolar de Avilés que comenté hace poco.

    Luego mejoré notablemente mis capacidades comprando un Digital Rainbow 100+ de nombre Mariana que ya contaba con 128 kb de RAM aunque aún carecía de disco duro. Mariana se reseteaba cada vez que alguien pulsaba el timbre de la puerta. Por suerte encontré la solución: un gran transformador 220 a 220 V; y sí, en efecto, transformar no transformaba nada pero evitaba los picos y con ellos el desplome del sistema y del trabajo.

    Por el medio muchas variantes de cálculo, desde una calculadora HP-41CV que aún uso (cumple estos días 27 años de funcionamiento intachable), hasta la regla de cálculo Faber-Castell que aprendí a manejar por pura afición porque, obviamente, hacía años que pertenecía al Jurásico.

    Hoy, Cornelia II es un ordenador con 4 procesadores, 8 Gb de RAM y 2 Tb de disco duro. Poéticamente, ya no es lo mismo, pero es de una eficacia aplastante.

    Cornelia II

    06 noviembre 2007

    [Breves] Avances en antivirus

    ¿Se han preguntado por qué los antiguos habitantes de México, los toltecas por ejemplo, no tenían virus en sus ordenadores a pesar de lo limitado de su tecnología?

    De mi visita a Aguascalientes traje la milenaria solución que, certifico, ha funcionado perfectamente.

    23 julio 2007

    [Breves] Muestreando

    JC está terminando su tesis sobre modelos de distribución. Los sujetos son mariposas y la zona de procedencia de los datos es Angola. La historia es curiosa y se sintetiza en que Angola fue colonia portuguesa (inicialmente fue suministradora "privilegiada" del comercio de esclavos) hasta que consiguió su independencia en 1975. Los destacamentos militares y cuerpos técnicos durante ese periodo se aburrían como ostras y se popularizó entre los oficiales y los engenheiros la colección de mariposas. Esa afición fue el origen de los cientos de ejemplares custodiados hoy en los armarios de madera del Instituto de Investigaçao Científica e Tropical (IICT) de Lisboa. Probablemente muchos otros se perdieron en Angola en los años de guerra civil tras la declaración de independencia. Por suerte otros regresaron a Portugal y sus propietarios (o sus viudas en muchos casos) los legaron al IICT. Podemos rescatar así nombres como el engenheiro Nozolino de Azevedo, de los Caminhos de Ferro de Benguela, o el Teniente General y Piloto de Navío António Figueira, que probablemente nunca supusieron que su afición pudiera tener este curioso destino.

    Lógicamente no se trataba de una prospección sistemática y uno de los problemas importantes en este análisis es un muestreo muy irregular. El engenheiro Azevedo, por ejemplo, se desplazaba con una vagoneta por las líneas férreas y no parece que se alejara mucho de ellas. Otros utilizaban sólo los caminos existentes o las vías fluviales si eran navegables. Tampoco ha sido facil recuperar todas las localizaciones geográficas debido a que no solían tomarse coordenadas y los nombres podían darse en versión portuguesa o en transcripciones más o menos exactas de las lenguas locales.

    Pero bueno, el post de hoy era sobre todo para mostrarles la foto de abajo, procedente del archivo del IICT, donde se muestra el sistema que algunos usaban para no mancharse los bajos de los pantalones.

    Angarilla para transporte (de blancos). Foto del archivo del IICT.

    Recuerden un caso similar (aunque peor) aquí.

    11 abril 2007

    Trágame tierra, o 10 frases para olvidar

    El seguro de sí mismo:
    Toda esa palabrería acerca de los viajes espaciales es en realidad una rematada basura.
    Richard Woolley, undécimo Astrónomo Real británico en 1956, cinco años antes de que Yuri Gagarin realizara su vuelo orbital.

    El augur:
    Quienquiera que espere una fuente de potencia de la transformación del átomo está soñando con la Luna.
    Ernest Rutherford, físico, premio Nobel en 1908.

    El listillo:
    La luz viaja en el agua más rápìdamente que en el espacio vacío.
    Isaac Newton, físico, matemático, alquimista, filósofo.

    El iniciado:
    Debemos admitir con toda seguridad que el espacio y el tiempo son inmutables: no están ni siquiera a disposición de los matemáticos.
    Oliver Joseph Lodge, diez años después de que Einstein publicara su teoría de la relatividad especial.

    El observador:
    El tratamiento antirrábico de Pasteur es inútil, peligroso y desprovisto de valor científico. Pasteur no está curando la rabia sino inoculándola en realidad. Se debería cerrar su laboratorio.
    Professeur Peter de la Academia Francesa de Medicina, tras comunicarse la noticia de la recuperación del niño Joseph Meister, mordido por un perro rabioso.

    El visionario:
    No creo que las ondas inalámbricas que he descubierto tengan ninguna aplicación práctica.
    Heinrich Rudolf Hertz, físico, descubridor de la radiación electromagnética.

    El idealista:
    La guerra es una reliquia bárbara destinada probablemente a volverse tan obsoleta como el batirse en duelo.
    William Thomson (Lord Kelvin), aunque también dijo: "Los rayos X han demostrado ser una patraña".

    El guarro:
    La antisepsia de Lister es absurda en teoría e imposible en la práctica.
    El sádico:
    Imaginar que el dolor pueda ser abolido en cirugía es hacerse ilusiones y sería un absurdo intentar conseguirlo.
    Alfred Armand Louis Marie Velpeau, cirujano, hablando en 1839.

    El experto:
    Esta es la mayor tontería que hemos hecho nunca, La bomba no estallará jamás, y hablo como experto en explosivos.
    William Daniel Leahy, almirante estadounidense dirigiéndose al presidente Truman respecto a la bomba atómica estadounidense.

    Las frases se citan en Youngson, R., 2003, ¡Fiasco! Aprendiendo de los errores de la ciencia.
    Ediciones Robinbook, Barcelona.
    El título original era bastante más minimalista: Scientific blunders.

    30 enero 2007

    [Breves] Un Windows ligero para el PC de la abuela

    Uso dos ordenadores portátiles, uno con Linux (Ubuntu) y otro con Windows XP. Me atrae el software libre, obviamente, y casi todo lo que tengo funcionando en ambos aparatos entra en esa categoría. Aún así, algunas aplicaciones pesadas o de cálculo intensivo son de pago y las ejecutamos remotamente en un servidor mediante escritorio remoto o similar. Y para hacer esto con más eficacia llevaba un tiempo buscando un sistema operativo ligero que nos devolviera a los tiempos de terminal contra mainframe. En Linux esto está razonablemente bien resuelto pero en Windows faltaban piezas.
    Y hace dos o tres días me he enterado de una versión de Windows XP surgida el año pasado y pensada para funcionar sobre ordenadores viejos: Windows Fundamentals for Legacy PCs. Las necesidades no son muchas: 128 MB de RAM, un procesador Pentium, 1 Gb de disco y tarjeta de red y aunque dice que está pensado para funcionar en modo terminal parece que no es cierto, que funciona sin problemas de forma autónoma.
    Podrán encontrar más información en la wikipedia o en la propia Microsoft. También he encontrado una zona de descarga vía bitTorrent en este enlace donde pueden obtener una imagen del CD de instalación (eso sí, paciencia: 575 Mb) ¿Clientes de bitTorrent? Yo estoy usando en estos momentos Ktorrent desde Ubuntu pero hay unos cuantos clientes libres para Windows como, por poner un ejemplo, Azureus. Para que WFLPC funcione es necesaria una clave pero leo que pueden usar la misma que la de su WXP normal. Como estoy en fase de descarga aún no me ha dado tiempo a probarlo, ya les contaré si resucito algún PC fósil.

    21 enero 2007

    Que no, que no trabaje con imágenes JPEG

    Es sabido que la compresión de imágenes tiene las ventajas de reducir el tamaño de almacenamiento y, consecuentemente, las necesidades a la hora de trasmitir los datos: menos ancho de banda o, lo que es equivalente, más imágenes por unidad de tiempo.
    Es menos conocido que los satélites de observación terrestre no toman todas las imágenes que podrían porque no hay tiempo para transmitirlas a las estaciones terrestres. El cuello de botella es, en este caso, el ancho de banda. Por este motivo y otros similares, los algoritmos de compresión se aplican desde las pequeñas imágenes que usamos en las páginas web (mejor 40 kb que 400 a la hora de visitar una página) hasta los Gb de las imágenes hiperespectrales. Por poner un ejemplo, una imagen tomada con una cámara digital de 5 megapíxeles se codifica en tres canales de 8 bits, uno por cada color primario en el modelo RGB. Eso hace un total de 24 bits/pixel lo que supone 15 Mbytes si guardamos la imagen sin comprimir. Como ninguna imagen contiene los más de 16 millones de colores que pueden codificarse con los 24 bits/píxel (y en cualquier caso no podríamos distinguirlos) una de las opciones más utilizadas para reducir el tamaño es usar un solo byte por pixel, cuyo valor representa un color determinado. La paleta de 256 colores se construye en función de las caracteristicas de cada imagen y el resultado suele ser visualmente indistinguible del original aunque realmente suponga una fuerte pérdida cromática. En las imágenes GIF se utiliza esta técnica y cada imagen se acompaña del diccionario de colores “a medida” para permitir la decodificación.
    Pero la clave del proceso está en la palabra visualmente. En realidad la pérdida es importante y este procedimiento no es aceptable para todas las aplicaciones. Por ejemplo, en las imágenes destinadas a proceso numérico jamás debe perderse resolución radiométrica. El motivo es que los algoritmos que extraen información de estas imágenes sí “ven” las variaciones y los resultados se verán a su vez afectados.
    Los algoritmos de compresión se suelen dividir en dos clases: sin pérdida y con pérdida. Los primeros garantizan que la imagen decodificada es idéntica a la inicial; en los segundos, en cambio, se acepta una distorsión en los valores originales para aumentar la tasa de compresión. Entre los primeros están las compresiones LZW, usadas en los formatos TIFF y GIF habitualmente. Entre los segundos el más conocido es el formato JPEG, que se basa en un sofisticado proceso de codificación que permite una compresión a demanda: más compresión con más pérdida o menos compresión con menor modificación de los valores originales.
    Realmente, el algoritmo JPEG puede comprimir algunas imágenes con una eficacia aplastante sin que visualmente se note la diferencia. Pero todo tiene su precio y hay un efecto menos evidente que puede convencerles de no usar el formato JPEG ni siquiera para sus fotos de vacaciones. El problema es que si vamos a regrabar la misma imagen varias veces, por ejemplo, para varias sesiones de retoque, la distorsión se acumula en cada ciclo de descompresión-compresión sin que sea posible recuperar la calidad original. El número de ciclos necesarios para que la distorsión sea aparente dependerá de los parámetros que controla la calidad de la compresión: abajo les pongo un ejemplo para que vean el efecto.

    Fragmento ampliado de la imagen original en formato TIFF

    El mismo fragmento tras 20 ciclos de grabación con compresión JPEG con calidad 40 (en una escala 0-100).

    En la imagen superior verán fuertes distorsiones cromáticas y de luminosidad, así como un efecto de bloques. Este se debe a que JPEG trabaja sobre bloques de 8x8 píxeles cuyos parámetros de compresión no tienen continuidad con los vecinos.
    ¿La solución? Huir de la compresión JPEG y usar el formato TIFF con 24 bits por píxel para guardar las imágenes. Ya estarán a tiempo de reducirlas para su blog o destrozarlas para otros objetivos pero al menos mantendrán un original en buen estado. Para más detalles pueden seguir el protocolo aconsejado por Paulo Porta que pueden encontrar aquí junto con otros artículos que desvelan aspectos básicos de la fotografía digital. Muy recomendable invertir un rato en leerlos todos.

    Nota: dos programas para trabajar con imágenes. Para verlas y alguna manipulación simple, lo mejor que en encontrado es Irfanview, muy ligero y con operaciones útiles como, por ejemplo, la transformación masiva en "batch". Para edición en serio, el GIMP que además se distribuye con licencia GNU. Ambos gratuitos, claro.

    02 enero 2007

    Secuelas de MacGyver

    Cuando no hay material, hay recursos.

    Fotografiado en un pueblo de Zamora. Vista de detalle abajo, obsérvese el puntal contra el muro para evitar el cimbreo y la barroca construcción de la escalera de color claro.

    [pulsar para ampliar la imagen]

    18 diciembre 2006

    Que no, que los SMS ni son lenguaje ni son una novedad

    222 entradas, el número de entradas del segundo hermano pequeño de la bestia

    Contexto: si, soy un borde. No tanto como House pero a veces me acerco. Desde hace tiempo me llegan correos electrónicos pidiendo información o ayuda sobre cuestiones académicas. Salvo error, contesto a todos intentando echar una mano. Pero eso se acabó. El reciclador de bits va a tener trabajo añadido.
    Intenten entenderme: me llega un correo de un remitente genérico (tkpelot@yahahoo.com) que ni siquiera firma. El texto consta de una o dos líneas y no entiendo nada de lo que dice. No tiene acentos, no tiene signos de puntuación, no diferencia mayúsculas y minúsculas (o a veces me llega sólo en mayúsculas ¿me grita tal vez?). Eso sí, este viene con un saludo y una despedida, menos da una piedra:
    k tal? kro un sig gtis pero kmo no se ingls qro mnual en espñl
    Luego ya caigo: el tipo ha escrito como no tuviera un artilugio rectagular de más de 100 teclas delante del morro. Tal vez tenía que ir al baño urgentemente. El caso es que no le voy a contestar. La razón es que, de entender la pregunta, mi respuesta intentaría ser meditada, informativa, tal vez con un par de referencias o enlaces… lo que me llevará un cuarto de hora como mínimo. Y resulta que el tipo se ha despachado en 15 segundos sin molestarse en escribir con un mínimo de corrección y suponiendo que soy criptopolíglota. Pues no, dedicaré a la respuesta más o menos el mismo tiempo e interés que él a la pregunta pero redondeando: cero.

    Pero además de aguantar el correo, con este tipo de escritura ocurre como con los grafitis o pintadas, que han pasado a llamarse “arte urbano” aunque decoren el acueducto de Segovia. Algunos se han empeñado en definir esta cutrez como nuevo lenguaje. Vean la introducción de diccionarioSMS.com (las cursivas son mías):

    Los jóvenes están desarrollando nuevas formas de comunicarse a través de los móviles e Internet, su lenguaje es transgresor, sintético, rebelde y práctico. Una forma de comunicarse que es utilizada diariamente por millones de jóvenes, una realidad que va a influir en la evolución de la lengua y de la gramática.

    Fíjense en los cuatro adjetivos calificativos (¿aún se llaman así?) de la primera frase y digan lo primero que se les venga a la cabeza. A mí me sale algo así:

    Transgresor: chachi, guai, connotación positiva del atributo, la juventud es transgresora, rompe el idioma, un idioma que lleva siglos haciéndose por la gente, por todos nosotros, no por legisladores (por si alguien se siente tentado, la RAE, con trescientos años de historia, no legisla sobre las palabras sino que las recoge). Y si yo, que ya no tengo 20 años, escribo así ¿será transgresión chachi también?

    Sintético: hay prisa, mucha prisa, no tienes tiempo para escribir un mensaje completo porque vas corriendo, aunque no sepas si de algo o hacia algo. Mucha síntesis: prescinde de los adverbios, luego de las vocales, finalmente de todo, total para lo que hay que decir.

    Rebelde: ¿contra quién? ¿es lo mismo que la transgresión? ¿cómo se dice transgresión en SMS? ¿y literatura? ¿y biblioteca? Huy, perdón, que ya no se escribe de eso, además son palabras largas, no tengo tiempo, corred, corred. En realidad, les confieso que sí, que creo que alguno se siente rebelde con esta costumbre e incluso que supone que los poderes tiemblan ante un SMS suficientemente comprimido.

    Práctico: mentira, todo lo contrario, ver más abajo.

    Luego viene lo de “una realidad que va a influir en la evolución de la lengua y de la gramática”. Aquí ya dejo de correr y me paro a pensar un momento. Tres hipótesis ligeras al respecto:
    Hipótesis 1: esto no es un lenguaje. Su sintaxis es un residuo de la castellana, no hay aportaciones propias ni desarrollo de ningún tipo, sólo pérdida. No tiene gramática, no tiene tiempos verbales compuestos (¿para qué?), no tiene tildes ni signos de puntuación.
    Hipótesis 2: esto no es nuevo (ni de coña). Los radioaficionados llevan décadas utilizando síntesis cuando se comunican en morse (sí, en onda larga, que da la vuelta al mundo, aún se hace) donde la brevedad es virtud. Se ha llamado código Q (hay también un código Z) que conforma un conjunto ternas de letras con significados predefinidos. Con la ventaja de que es un código (fíjense que no lo llaman lenguaje) universal.
    • Hipótesis 3: los SMS tienen los días contados. El tecleo en el teclado del móvil es una operación técnicamente primitiva e ineficiente. Es un canal de comunicación prácticamente unidireccional, sin posibilidad de respuestas ágiles y sin capacidad para trasmitir información mínimamente elaborada. Actualmente se utiliza por cuestiones de precios y moda, por lo que eso de práctico queda en evidencia. Es mucho más práctico, rico y funcional llamar y hablar.

    ¿Si no es un lenguaje, qué es entonces esta forma de escribir? Pues aunque a muchos les parezca una novedad tecnológica, tampoco lo es. Su nombre es taquigrafía, que puede definirse como una forma de escribir basada en signos y abreviaturas con el objetivo de transcribir un dictado. Los SMS han perdido incluso este último sentido, son tributarios de la prisa y de la neurona huérfana. Y las taquigrafías (ha habido muchas) no han influido en la “evolución de la lengua y la gramática”. Ninguna. Nunca.

    12 diciembre 2006

    Porqué no escuchar a Amaral por el teléfono móvil

    Hace no mucho tiempo, nuestra aspiración adolescente era conseguir tener un buen equipo de música. Y se asumía que ese equipo estaba formado al menos por un giradiscos (hablamos de discos de vinilo), por una pletina o reproductor de cassetes y por un amplificador. De ahí salían los cables a los bafles o juegos de altavoces. Nuestra máxima aspiración era un giradiscos Dual, una pletina Marantz y amplificador Grundig. Las combinaciones se multiplicaban a la hora de elegir la aguja del giradiscos, la composición de las cintas magnéticas, la necesidad o no de incluir un preamplificador…
    En mi casa, el procedimiento era ritual: cuando se compraba un disco se grababa en una cassette nueva. A continuación el disco se devolvía a su envoltorio que a su vez se metía en un sobre de plástico y se sellaba para guardarlo al abrigo del polvo durante un año. Al cabo del año, la grabación magnética se había deteriorado algo y debía regrabarse: se borraba dos o tres veces la cinta y se repetía el ciclo.
    El proceso permitía mantener en perfecto estado los discos de vinilo, cuya integridad apenas se sostenia más allá de una veintena de reproducciones, y disfrutar de una música de calidad durante muchos años.
    La llegada del CD supuso una revolución en este proceso pero sigo teniendo la misma costumbre: copio el original, lo guardo cuidadosamente y reproduzco la copia.

    Pero todo eso dependía del último eslabón de la cadena: los altavoces. Y aquí había un problema serio porque las cajas o “bafles” que se vendían en España o eran muy malos o eran muy caros. Y en mi casa nos pusimos fabricarlos importando planos y esquemas de los EE.UU., donde esto del bricolaje técnico estaba mucho más arraigado.
    Baste decir que conservo 4 cajas de aquellas, cada una con 4 altavoces: uno para graves, dos para medios y uno para agudos. Los filtros están calculados y bobinados a mano para conseguir una buena separación de frecuencias. Cada caja pesa unos 15 kg y espero conservarlas hasta el final y más allá si puede ser.

    Y ahora lo de Amaral. Saben ustedes que es un grupo español (dicen que un dúo) y que el otro día actuaron en un teatro en Madrid. Los medios acogieron el concierto con gran algarabía debido a una circunstancia nueva: la actuación podría seguirse a través del teléfono móvil. Esto fue aplaudido en algunos blogs como un avance en la difusión de la música a imitar por otros artistas. Mi idea es que, además de avanzar en la difusión, supone un retroceso en la calidad. Sólo he encontrado un periódico que haya mencionado que el sonido no era demasiado bueno y aún así tímidamente.
    Mucha gente escucha música ahora mediante microaltavoces de sobremesa conectados al PC, a través de los altavoces del ordenador portátil, en el coche o, peor aún, mediante auriculares minúsculos conectados al reproductor de MP3. El efecto de todo esto en la calidad del sonido es devastador.
    Quede claro que no es cierto que el sonido digital bien elaborado sea peor que el analógico. Y lo dice un nostálgico de los vinilos pero con los pies en la tierra. Pero a la hora de reproducirlo estamos con los mismos problemas que antes: las respuestas de los dispositivos pueden ser buenas, malas o malísimas.
    En principio, un altavoz debería reproducir sonidos de frecuencias entre 20 y 20000 Hz con la misma eficacia. Esto es físicamente imposible, lo que llevó a diseñar cajas con varios altavoces de características y dimensiones diferentes que se dividían el trabajo. Las respuestas conjuntas pueden ser ya muy satisfactorias y los pequeños defectos para el oido caprichoso podían corregirse con el ecualizador. Los auriculares tienen problemas ya que un único y pequeño altavoz debe lidiar con todas las frecuencias.
    Es interesante comprobar la absoluta imposibilidad de acceder a las curvas de respuesta de cualquier auricular o altavoz de los usados en nuestros PC o en los reproductores MP3. Los fabricantes deben considerar que el pequeño detalle de la calidad no es relevante para el consumidor actual. Y tal vez tienen razón.
    Yo he hecho una pequeña prueba. Entren en esta página de la New South Wales University y comparen su respuesta a las diferentes frecuencias con diferentes auriculares y altavoces. Yo lo he hecho con tres: los altavoces del portátil (un Toshiba Portégé), unos auriculares convencionales de unos 12 euros de precio y unos venerables Sennheiser HD 535 ya descatalogados. Las curvas que he obtenido son las siguientes y creo que describen claramente lo ocurrido con la salvedad de que los 12 y 16 kHz están siempre a cero porque no me han funcionado:

    A través de los altavoces del ordenador portátil

    Con auriculares simples

    Con auriculares de calidad

    La prueba no es buena porque la circuitería del PC es inadecuada y el volumen no puede regularse bien con lo que a mis Sennheiser apenas les llegaba comida para sonar. Aún así pueden darsw una idea de lo que quiero comunicarles. Para insistir les haré una comparación visual. Les incluyo cuatro imágenes de la misma obra, la habitación de Van Gogh. La primera está más o menos ajustada al original:


    La segunda muestra un pixelado grosero que impide apreciar los detalles.


    La tercera tiene una severa distorsión en el color, con el verde reducido y el azul casi eliminado.


    Y finalmente, la cuarta sufre ambos efectos, reducción de la resolución y distorsión en el color.


    Convendrán conmigo en que ningún aficionado al arte aceptaría que le vendieran reproducciones así. Pues por ese motivo, exactamente, no me apetece escuchar a Amaral por el teléfono móvil.
    Grab this Widget ~ Blogger Accessories
     
    º