Publicado en Introducción a la Microbiología

Ejercicio 5: Los murciélagos como fuentes de virus patógenos

Los murciélagos son los únicos mamíferos capaces de volar, maniobrando en el aire mejor, incluso, que las aves. En Zoología se clasifican dentro del orden Chiroptera, que agrupa unas 1.100 especies, desde el más pequeño que no supera los 34 milímetros, el nariz de cerdo de Kitti, hasta los zorros voladores que pueden llegar a pesar 1,6 kg y medir 1,7 metros de punta a punta de las alas. Habitan todos los continentes excepto la Antártida. Acerodon jubatus, Zorro volador de corona dorada By Gregg Yan – Low resolution derivative work from original photograph personally provided by photographer., CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=19210444

Los murciélagos suponen el 20% de las especies de mamíferos, solo detrás de los roedores.

Esto significa, como dice el microbiólogo Ignacio López Goñi en su libro Virus y pandemias (imprescindible para entender mejor lo que estamos viviendo), que los murciélagos son muchos y están por todas partes, por lo que su papel en los ecosistemas es muy importante y, de paso, son muy beneficiosos para el ser humano. Los que tienen una alimentación insectívora controlan las plagas, mientras que los que se alimentan de fruta y plantas facilitan la polinización y la dispersión de semillas. Pero también tienen su lado oscuro, ya que son un reservorio natural para gran número de microbios patógenos, transmitiendo enfermedades infecciosas a los animales domésticos y al ser humano. Y no hay que olvidar que en muchos lugares se emplean como alimento o remedio medicinal.

En el murciélago gigante de la India, Pteropus giganteus, se han llegado a encontrar 55 virus distintos, de los que 50 eran desconocidos, pertenecientes a siete familias: Coronavirus, Paramyxovirus, Astrovirus, Bocavirus, Adenovirus, Herpesvirus y Polyomavirus. También se ha demostrado que son el reservorio de los filovirus, familia a la que pertenece el virus Ébola; así como del virus de la rabia, de los coronavirus que provocaron los síndromes respiratorios agudos SARS y MERS, antecesores del actual SARS-CoV-2; de varios Paramyxovirus, de Hanta-virus, del de la hepatitis B y del de la gripe.

Ante esta situación, sería lógico preguntarse cómo es que los murciélagos son inmunes a la infección de semejante cantidad de virus. Los expertos están divididos. Algunos creen que no hay nada especial: habiendo tantas especies, con colonias que pueden tener miles de individuos, y con especies que pueden llegar a vivir más de 35 años, la posibilidad de intercambiar virus es enorme.

Por el contrario, otros consideran que es debido a la fisiología de estos animales. Se ha visto que, a diferencia de otros mamíferos, el sistema de reparación de daños en el ADN está activo de forma continua. Esto puede ser debido a que el vuelo de los murciélagos consume mucha energía, por lo tanto requiere de un metabolismo muy activo que puede dañar las células. Esos sistemas podrían evitar el daño producido por los virus, haciendo que los murciélagos sean portadores inmunes.

Otra hipótesis basada en la fisiología del vuelo es que acarrea un aumento de la temperatura similar a la fiebre, 40ºC. Como en el resto de los mamíferos, la fiebre activaría las defensas del virus.

El problema es que se calcula que en los mamíferos puede haber más de 300.000 virus distintos, la mayoría desconocidos todavía. Los investigadores del CSIC Javier Juste Ballesta, Antonio Figueras Huerta y Juan E. Echevarría Mayo, aunque tampoco lo tienen claro, creen que los murciélagos no son más peligrosos en relación a posibles zoonosis que el resto de los mamíferos, y ponen de ejemplo dos trabajos.

El primero es un libro publicado en 2015 dedicado a la relación entre murciélagos, virus y enfermedades infecciosas, en el que uno de los capítulos está dedicado, precisamente, a dilucidar la cuestión de si los murciélagos son “especiales” como reservorios de virus. Los autores, basándose tanto en la revisión de resultados de investigaciones anteriores como en la suya propia, no encuentran nada que vaya en esa dirección. Creen que esa percepción puede ser debida, en primer lugar, al hecho ya comentado de ser uno de los principales grupos de mamíferos, junto con roedores y primates; grupos estos últimos que también albergan una alta proporción de virus. En segundo lugar, mencionan la poca investigación en esta línea realizada hasta el momento en el resto de los grupos taxonómicos de mamíferos; de hacerlo, quizás también se encontraría su participación en las zoonosis. A continuación, mencionan una serie de huecos que deberían cubrirse con más investigaciones, como los mecanismos de infección que hacen que un murciélago muestre síntomas clínicos, y que llevan a que se convierta o no en reservorio de un determinado virus.

El otro trabajo citado por los investigadores del CSIC, publicado este mismo año, analiza el riesgo de zoonosis como reservorios de virus de diferentes grupos de mamíferos y aves, y concluye que es homogéneo y, como en el caso anterior, que las diferencias se corresponden con el tamaño de los grupos:

El libro Virus y pandemias se publicó en 2015 y el microbiólogo termina el capítulo dedicado a este tema avisando de que los miles de virus que albergan los mamíferos son “Todo un arsenal que muy probablemente se volverá contra nosotros, solo es cuestión de tiempo. ¿La solución?: ¡hay que invertir más en ciencia!

Como recoge Juan Ignacio Pérez en Sí con mis impuestos, el 4 de abril Ignacio L. Goñi hizo una encuesta en Twitter con la siguiente pregunta:

En la entrada, Juan Ignacio Pérez hace un repaso de todos los aspectos implicados en la pandemia actual, junto con las disciplinas científicas encargadas de su estudio: zoología, virología, epidemiología, biología molecular, inmunología, analítica, microscopía electrónica, bioinformática, biología celular… y concluye “Pues bien, ninguna de ellas se habría podido desarrollar sin contar antes con un conocimiento profundo de materias a cuya investigación muchos no querrían que se destinasen sus impuestos”.

Armas, gérmenes y acero - Megustaleer

Creo que a esa visión miope de algunos sectores de la sociedad se le podría añadir la de la clase política, limitada casi siempre a conseguir resultados en cuatro años. Ignacio L- Goñi no ha sido, ni mucho menos, el único científico que ha estado avisando del peligro de pandemia los últimos años. Y Jared Diamond describió en su libro Armas, gérmenes y acero (1997), de forma extraordinaria, el papel de las epidemias en la historia, propiciando la caída de imperios y la sustitución de unas potencias por otras. Como indica su título, los gérmenes son uno de los factores, junto con las armas y la disponibilidad de ciertos recursos estratégicos, que han modelado la historia de la Humanidad.

Veremos, una vez superada la pandemia actual, si todo lo que hemos pasado ha servido para cambiar la mentalidad de los políticos y de la opinión pública o, por el contrario, volvemos a la situación anterior.

Bibliografía

Publicado en El Universo a grandes rasgos

Ejercicio 4. Qué entiendo yo de cosmología

La cosmología es la rama de la astronomía que intenta, por un lado, explicar cómo nació el Universo, y, por otro, describir todos aquellos elementos y fenómenos del Universo que todavía desconocemos o no entendemos bien. Aunque en los últimos doscientos años se han dado avances espectaculares en ambos campos, como pasa en todas las disciplinas científicas, cuanto más conocemos, más conscientes somos de cuánto ignoramos.

Hasta finales del siglo XIX la astronomía utilizaba como herramienta principal las matemáticas y la física clásicas de Galileo, Newton, Kepler y compañía, para describir los movimientos y las características de los cuerpos celestes vistos por el telescopio. Pero en ese momento, el desarrollo científico-tecnológico permitió el uso de nuevas técnicas y nuevos desarrollos teóricos como la física cuántica y la relatividad, lo que abrió un nuevo abanico de posibilidades para esta ciencia que amplió enormemente la visión que se tenía del Universo hasta entonces.

El telescopio Leviatán de Parsonstown (1869) De Internet Archive Book Images – https://www.flickr.com/photos/internetarchivebookimages/14778071311/Source book page: https://archive.org/stream/laverreriedepuis00sauz/laverreriedepuis00sauz#page/n293/mode/1up, No restrictions, https://commons.wikimedia.org/w/index.php?curid=42100020

De esa manera, pasito a pasito, durante el siglo XX se fue estructurando el relato sobre cómo nació el Universo y como ha ido evolucionando hasta el momento actual. En la actualidad se considera que el inicio a partir de una gran explosión, el Big Bang, no solo dio lugar a la materia y la energía tal y como la conocemos, sino que también fue el origen del espacio y el tiempo, además de otros tipos de materia y energía, las oscuras, que intuimos pero todavía no hemos sido capaces de detectar, a pesar de ser, por lo que parece, más abundantes que las convencionales.

Y aquí es donde empiezan los problemas de comprensión de la teoría: antes del Big Bang no había ni tiempo ni espacio, algo que para seres materiales y finitos en el tiempo y en el espacio como nosotros, resulta difícil de asimilar. Aunque creo que tampoco es algo nuevo: los problemas metafísicos y existenciales son tan antiguos como el ser humano, solo ha cambiado la forma de afrontarlos. Tampoco las interpretaciones mitológicas, mágicas o religiosas han conseguido explicar con detalle todos los fenómenos físicos observados y, al final, deben echar mano de una fe basada en la creencia de ciertos principios establecidos en tiempos remotos por uno o varios profetas, por la tradición y las costumbres de una cultura, o porque “siempre se ha hecho así”.

Y ese tipo de explicaciones no siempre eran sencillas o intuitivas. Por ejemplo, en la cosmogonía islámica según la entendía el astrónomo persa del siglo XIII Zakariya al-Qazwini, la Tierra se considera plana y está rodeada por una serie de montañas, entre ellas el Monte Qaf, que la mantienen en su lugar como clavijas; la tierra está sostenida por un buey que se encuentra sobre Bahamut, un monstruo marino (pez gigantesco o ballena) que mora en un océano cósmico; el océano está dentro de un tazón que se sienta sobre un ángel o jinn. La diferencia es que las explicaciones dadas por la ciencia se basan en observaciones comprobadas y no aseveran nada que no pueda demostrarse; hay una clara separación entre evidencias y especulaciones.

Entender las bases sobre las que se sustenta la cosmología actual resulta muy complicado para los que no somos especialistas en ese campo, y dependemos de que algunos de esos especialistas sean a la vez buenos divulgadores, como Neil deGrasse Tyson, para poder hacernos un “croquis” mental de cómo es el Universo, cómo nació y cuál puede ser su destino. By NASA/Bill Ingalls – https://www.flickr.com/photos/nasahqphoto/3806476522, Public Domain, https://commons.wikimedia.org/w/index.php?curid=30276758

Los últimos años se han hecho avances espectaculares en el entendimiento del Universo. La información aportada durante 30 años por el telescopio Hubble que, gracias a estar fuera de la atmósfera, ha llegado donde nunca antes lo habían hecho los telescopios terrestres, ha vuelto ha ensanchar los límites del Universo de la misma forma que lo hicieron 100 años antes los avances que he comentado al principio. Y, con seguridad, el uso de las ondas gravitatorias como nueva fuente de información, junto a las imágenes que proporcione el sustituto del Hubble, el Telescopio Espacial James Webb (100 veces más potente), supondrán otro salto adelante en esa dirección.

Estoy seguro de que todos esos avances nos ayudarán a entender mejor dónde vivimos pero no van a aclararnos si existe un Creador o un Plan divino, entre otras cosas porque es imposible demostrar lo que no existe; la discusión, probablemente, seguirá mientras exista el ser humano, tal y como recoge este artículo Qué es la “tetera de Russell”, uno de los argumentos más usados en las discusiones entre ateos y creyentes.

Mientras tanto, yo me quedo con el “Dios innecesario” de Stephen Hawking.

Dr. Stephen Hawking, a professor of mathematics at the University of Cambridge, delivers a speech entitled “Why we should go into space” during a lecture that is part of a series honoring NASA’s 50th Anniversary, Monday, April 21, 2008, at George Washington University’s Morton Auditorium in Washington. Photo Credit: (NASA/Paul. E. Alers)

Publicado en El Universo a grandes rasgos

Ejercicio 3. Mi momento espæcial

En el primer ejercicio de esta asignatura ya expliqué cómo influyó en mi infancia y adolescencia la aventura espacial, empezando por la llegada del ser humano a la Luna y siguiendo por el transbordador espacial, que tan popular se hizo durante más de 30 años debido a sus numerosos viajes, pero también, por desgracia, por dos terribles accidentes.

La diferencia de los transbordadores con los vehículos espaciales utilizados hasta entonces era que parte de los componentes del vehículo eran reutilizables. Los transbordadores se lanzaban verticalmente, como los cohetes clásicos, adosados a un enorme tanque de combustible y dos cohetes. Antes de que el transbordador entrara en órbita se desprendían el tanque, que se perdía, y los cohetes, que se recuperaban. De NASA – http://spaceflight.nasa.gov/gallery/images/shuttle/sts-120/html/sts120-s-028.html, Dominio público, https://commons.wikimedia.org/w/index.php?curid=2986692

Una vez en órbita baja, el transbordador permanecía durante un tiempo dando vueltas a la Tierra, mientras realizaban experimentos en su interior o ponían satélites en órbita. Por ejemplo, el telescopio Hubble fue puesto en órbita de esta forma, y diversas misiones de los transbordadores llevaron a cabo tareas de mantenimiento. Cuando la misión terminaba, el transbordador reentraba en la atmósfera y planeando (de ahí su forma similar a la de un avión) podía aterrizar en bases de Estados Unidos.

El Challenger fue el segundo transbordador en entrar en servicio, con su primera misión en 1983. El 28 de enero de 1986, cuando despegaba para realizar su décima misión, una junta de uno de los cohetes falló y quemó el tanque de combustible, explotando y formando una enorme bola de fuego.

By Kennedy Space Center – http://grin.hq.nasa.gov/ABSTRACTS/GPN-2004-00012.html, Public Domain, https://commons.wikimedia.org/w/index.php?curid=530754

Son muchos los videos en youtube que explican lo que pasó. Lo más sorprendente es que el transbordador resistió la explosión y solo se destruyó al estrellarse contra el océano tras una caída de más de 15.000 metros. Queda la terrible duda de si en ese momento los astronautas seguían vivos.

Columbia By NASA – http://www.spacefacts.de/english/flights.htm, Public Domain, https://commons.wikimedia.org/w/index.php?curid=80053367

El Columbia fue el primer vehículo de estas características, llevando a cabo su primera misión el 12 de abril de 1981. En 2003, cuando finalizaba su 28ª misión, de carácter científico y de 16 días de duración, se desintegró al reentrar en la atmósfera. En el despegue se había desprendido una pieza de espuma aislante del tanque de combustible externo que impactó cerca del tren de aterrizaje, provocando el desprendimiento de varias losetas de aislamiento. Como consecuencia de las enormes temperaturas generadas en la reentrada, el ala izquierda se fundió y el transbordador se desestabilizó, girando sobre sí mismo hasta desintegrarse.

Este video de la BBC reconstruye el accidente. Se recogen las últimas imágenes de la tripulación con vida, la última conversación con el control de la misión en Houston, la reacción de estos cuando pierden la comunicación con el Columbia, y las imágenes de los restos del transbordador tras su desintegración.

Quizás estos han sido algunos de mis momentos más espæciales, ya que sirvieron para hacerme volver a la vida real y darme cuenta de que lo que parecía un camino lógico hacia el espacio, tal y como aparecía en las películas de ciencia ficción, iba a ser mucho más duro e iba a ir mucho más despacio de lo me había imaginado.

Sin embargo, quiero quedarme con otro momento espæcial, mucho más positivo: cuando a principios de los años 80 emitían la serie COSMOS, y Carl Sagan nos contaba cómo era el Sistema Solar que las sondas Voyager y Viking iban descubriendo, y cómo sus reflexiones me ayudaban a entender las dimensiones del Universo y el lugar del ser humano en él.

Sagan junto a una maqueta de las sondas Viking, destinadas a posarse sobre Marte. El científico estudió los posibles lugares de aterrizaje con Mike Carr y Hal Masursky. De JPL – https://www.nasa.gov/multimedia/imagegallery/image_feature_599.html, Dominio público, https://commons.wikimedia.org/w/index.php?curid=498811

Publicado en El Universo a grandes rasgos

Ejercicio 2. La escala del Universo explicada con una secuoya

El General Grant, ademas de ser uno de los protagonistas de la guerra de secesión de los Estados Unidos, es uno de los árboles más grandes del mundo, con 1.650 años de edad según los últimos cálculos. Ahí van los datos:

Altura desde la base81,5 m
Circunferencia al nivel del suelo32,8 m
Diámetro a 1,4 m de altura8,8 m
Diámetro a 18 m de la base5,0 m
Diámetro a 55 m de la base3,9 m
Volumen estimado1.320 m3

Me ha parecido que es una buena referencia tomar uno de los seres vivos más grandes del planeta para explicar la escala del Universo, ya que, cuando nos explican las distancias entre los cuerpos celestes o los tamaños de estos simplemente con números (millones de kilómetros, Unidades Astronómicas, años luz), no somos conscientes de las proporciones que existen entre ellos. Lo mismo nos ocurre cuando hablamos de la edad del Universo, del Sistema Solar, de la Tierra, de la aparición de los seres vivos, etc., y se suele utilizar la escala de un año, de forma que el ser humano apareció segundos antes de las campanadas del 31 de diciembre.

Podemos usar al General Grant para representar el tamaño del Sistema Solar, colocando al Sol en la base del tronco y al cinturón de Kuiper, el cinturón de asteroides y planetas enanos que orbita el Sol más allá de Neptuno, en la punta de la rama más alta. Por simplificar el dibujo no he colocado todos los planetas. Esto es lo que me ha quedado:

Lo primero que vemos es que Plutón, actualmente considerado planeta enano, debido a su órbita tan excéntrica, estaría subiendo y bajando desde la copa del árbol, o sea, desde el cinturón de Kuiper, hasta cerca de la mitad del tronco, estando en algunos momentos más cerca del suelo que Neptuno. Un poco más abajo de la mitad del tronco nos encontraríamos con Urano. Bastante más abajo, a una décima parte de la altura del árbol estaría Júpiter; Marte, al alcance de un jugador de baloncesto y los restantes tres planetas por debajo de la altura de una persona.

Si queremos usar la sequoia como referencia para visualizar la distancia entre el Sol, en la base del árbol, y la estrella más cercana, Próxima Centauri, nos tenemos que salir del Kings Canyon National Park, incluso del estado de California.

Aunque el dibujo está hecho a mano y quizás no sea muy exacto, creo que es suficiente para que nos hagamos una idea de las distancias de las que estamos hablando. Nos tendríamos que separar unos 426 km del General Grant, de forma que por el sur podríamos llegar hasta Tijuana, en la frontera de México; por el noroeste hasta San Francisco; por el norte hasta Reno en el estado de Nevada; y por el este, más allá de Las Vegas, hasta el límite con el Gran Cañón.

Quizás así sea más fácil hacernos a la idea de que las películas y las novelas en las que se viaja fuera de nuestro Sistema Solar seguirán incluidas en el género de ciencia-ficción durante mucho tiempo: todavía no hemos aprendido a volar más allá de las ramas del General Grant.

Publicado en Matemáticas de la vida cotidiana

Ejercicio 5. Artículo: Historia de Google y su algoritmo Pagerank

Como me pasaba con otra asignatura de este máster, la de Inteligencia Artificial, me cuesta bastante seguir el desarrollo matemático que llevan todas las aplicaciones informáticas. Y eso que, en su momento, no tenía excesivos problemas con el cálculo de matrices, allá por el antiguo COU (actual 2º Bachillerato), pero, claro, estamos hablando del siglo pasado, y son muchos años sin haber usado esa parte de las matemáticas.

La conclusión que he sacado de las lecturas de PageRank y el Surfista Aleatorio y Es mi internet y busco como quiero, y repasando las biografías de los creadores de Google Larry Page y Sergey Brin en la Wikipedia, es que el mérito de estos consiste en haber utilizado herramientas existentes al alcance de todos para dar solución a un problema gordo: cómo ordenar una ingente cantidad de información que cada año crecía de forma endiablada. En definitiva, que supieron innovar.

El problema requería de un modelado matemático que asegurara que los algoritmos usados eran correctos y de unas técnicas computacionales adecuadas para obtener una resolución efectiva y eficiente. No hay que olvidar que, cuando hacemos una búsqueda en Google, en milisegundos nos da el resultado tras haber analizado millones de páginas web. Y para conseguirlo, Page y Brin echaron mano del álgebra lineal básica de matrices y resolución de sistemas de ecuaciones (creo recordar que eso era lo que hacía yo en COU), y lo aplicaron para calcular los valores de los grafos que representan las preferencias de los navegadores, que no dejan de ser relaciones binarias entre páginas webs. Otro de los aciertos de su algoritmo es que ha permitido ir mejorándolo a medida que se descubrían sus limitaciones o que cambiaban las características y las necesidades de la red.

Si no he entendido mal, el algoritmo llamado Pagerank que utilizaba Google en sus inicios (y que se llevó por delante al resto de buscadores de la época) para ordenar la relevancia de las webs cuando se hace una búsqueda, se basa, en primer lugar, en un grafo que representa las relaciones entre todas las webs en función de los enlaces que llevan de unas a otras; estas relaciones se ordenan en una tabla, que en matemáticas se denomina matriz, y se les asigna una probabilidad de que sucedan. Supongo que una cuestión importante será acertar con el valor que se dé a esa probabilidad, para ajustarse lo máximo posible a la realidad. A continuación, mediante una serie de pasos utilizando el cálculo matricial se obtiene el peso de cada página web.

En la actualidad, parte de estos cálculos no se conocen, por ejemplo, el cálculo citado de la probabilidad de visita de cada página. Así, entre otras cosas, se evita que sea manipulable por medios externos para posicionar una página artificialmente. Y, en sentido contrario, Google puede modificar los parámetros a voluntad si pagas para estar mejor posicionado. Parece ser que el algoritmo actual es una mezcla de algoritmos, donde el Pagerank original cada vez tiene menos peso. Por otro lado, como he dicho antes, otra de las ventajas que tiene Google es su capacidad de mejora, por ejemplo, adaptándose a las necesidades del cliente: ahora tiene en cuenta las búsquedas anteriores del usuario para darle un resultado de búsqueda personalizado. Es decir, dos personas diferentes que hagan la misma búsqueda obtendrán resultados diferentes. Supongo que todas estas nuevas características llevan consigo el ir aumentando los elementos que forman los algoritmos y, por tanto, su complejidad; y que esto sea técnicamente posible gracias a la creciente capacidad de procesamiento de los ordenadores.

Personalmente me resulta admirable la capacidad de los matemáticos y las matemáticas para representar un problema complejo con todos los elementos que lo componen, junto con las relaciones entre ellos y los factores que les afectan, y asignarle a cada uno de ellos un valor adecuado; posteriormente, ir paso a paso haciendo cálculos y, si hace falta, dando rodeos cuando, aparentemente, se ha llegado a un callejón sin salida, hasta conseguir, finalmente, llegar al objetivo. Quizás sea porque disponen de forma innata de un algoritmo mental que les da la capacidad de abstracción necesaria para hacer unos análisis tan finos.

Publicado en Matemáticas de la vida cotidiana

Ejercicio 4. Futurama y las matemáticas

Si son muchas las alusiones a conceptos científicos en la longeva serie de Los Simpson, son muchas más las que aparecen en Futurama. Esto no es algo que deba sorprender, ya que, por un lado, ambas series fueron creadas por Matt Groening y David X. Cohen, y, por otro, Futurama está ambientada en el futuro y es, por tanto, una serie de ciencia-ficción.

De hecho, en Futurama la ciencia es una parte importante del andamiaje tanto del argumento como de la ambientación, y se presenta en muchos casos a un nivel que normalmente se escapa a los no especialistas en la disciplina científica correspondiente. Y ello fue posible gracias a que en el equipo creativo de la serie había varios licenciados en ciencias, que supieron sortear hábilmente el mandato que les había dado Groening para que “la ciencia nunca superara la comedia”. Como consecuencia de ello, la serie resulta doblemente divertida para todo aquel que atrape todas esas referencias científicas, más o menos escondidas.

Son innumerables esas referencias y en internet hay muchos artículos que las explican. Y de entre todas las disciplinas científicas que aparecen en la serie, quizás merecen una mención especial las correspondientes a las matemáticas, tanto a las puras o académicas como a las aplicadas en otros campos, principalmente la informática. Y es que uno de los guionistas era Ken Keeler, doctor en Matemáticas por la Universidad de Harvard, además de ingeniero eléctrico.

Empezando por las segundas, las relativas a la informática, son numerosas las referencias a los albores de la informática moderna, es decir, a los primeros ordenadores personales: la aparición del número del microprocesador de los primeros Apple en la década de los 70, o juegos de palabras con ordenadores famosos de la década siguiente, como los Sinclair o el Commodore 64. Muchas son también las referencias a lenguajes de programación, como el ochentero Basic (del que llegué a aprender un poco) de los modelos mencionados, o los códigos binario, ASCII, Fortran, etc.

El otro tipo de referencias matemáticas son más difíciles de atrapar para los no iniciados. El 1729, llamado «Número de Hardy-Ramanujan» por ser estos dos matemáticos quienes se dieron cuenta de que es el número más pequeño expresable como la suma de dos cubos de dos maneras diferentes, aparece muchas veces, empezando por ser el número de unidad de Bender; en otro episodio aparece el 87539319, que es el menor número entero que puede ser representado de tres maneras diferentes como la suma de dos cubos positivos. Y, como en Los Simpson, también se hace referencia a las clases de complejidad P y NP.

Pero, sin duda, lo más curioso es que el ya citado Keeler llegó a desarrollar en uno de los capítulos un teorema basado en la teoría de grupos, que ha pasado a ser conocido como el Teorema de Futurama, algo que parece excesivo a su autor, que lo considera una simple demostración matemática, pero que, por otro lado, matemáticos prestigiosos lo llaman Teorema de Keeler.

Referencia

Publicado en Matemáticas de la vida cotidiana

Ejercicio 3. Artículo gripe A

En marzo de 2009 apareció en México la última influenza pandémica, que despertó todas las alarmas por tener unas tasas de mortalidad inusualmente elevadas. El virus fue identificado como influenza A H1N1, con un posible origen en los cerdos.

La enfermedad se propagó rápidamente a Estados Unidos y la Organización Mundial de la Salud orientó a los gobiernos para que prepararan planes para hacerle frente. Su gravedad fue calificada de moderada, con tasas de hospitalización y letalidad bajas, similares a las epidemias estacionales, pero con un alto porcentaje de defunciones en personas jóvenes, probablemente por carecer de la inmunidad que a los nacidos antes de 1950 les proporcionó los restos de la gripe H1N1 de 1918 que todavía circulaban en la primera mitad del siglo XX.

En España la enfermedad apareció la primera semana de octubre y el H1N1 predominó sobre el resto de las cepas del virus de la gripe. Este estudio de 2011 tenía como objetivo, entre otros, calcular el número reproductivo básico de esta onda pandémica de gripe A en España, y para ello utilizó dos métodos: el primero, utilizando la tasa de crecimiento de la incidencia acumulada de gripe durante la fase de crecimiento exponencial, y el segundo mediante el análisis de las fechas de inicio de los síntomas observadas en pares de casos en función de la distribución del tiempo de generación, que es el periodo de tiempo desde el comienzo del estado de infeccioso en una persona hasta el comienzo de ese mismo estado en los casos secundarios producidos por la primera persona

El valor de R0 en la fase de crecimiento de la onda fue de 1,29 (IC95%: 1,25-1,33) estimado con el primer método, y de 1,01 (IC95%: 0,99-1,03) con el segundo método. Como estos cálculos se hicieron cuando ya se habían empezado a tomar medidas sanitarias para frenar la pandemia, los valores obtenidos son más bajos que los estimados para el brote de México. Asimismo, estos valores son similares a los de la gripe estacional y más bajos que los estimados para pandemias anteriores. Los autores son conscientes de las limitaciones de estos métodos y apuntan cómo se podría mejorar el cálculo. Por ejemplo, en el caso de disponer de estudios serológicos para conocer la proporción real de susceptibles, se podría haber calculado el número reproductivo efectivo R = R0 × proporción de susceptibles. Otro ejemplo es, en el caso del primer método, que asume un crecimiento exponencial que puede no ser adecuado.

En esa línea, en este otro artículo consideran que el R0 es insuficiente para describir la dinámica de las enfermedades infecciosas, pero para una población determinada y junto con otros parámetros epidemiológicos, permite conocer mejor el brote epidémico y preparar la respuesta de salud adecuada.

Bibliografía

Publicado en Matemáticas de la vida cotidiana

Tarea 2. Resumen de artículo sobre el uso de las redes sociales para analizar aspectos sociológicos.

Rapid assessment of disaster damage using social media activity Kryvasheyeu et al. Science Advances. 2016; 2 : e1500779 11 March 2016.

Evaluación rápida de daños catastróficos usando la actividad de las redes sociales”

Sandy Oct 25 2012 0320Z.png

En este artículo los autores analizan el uso de Twitter en 50 áreas metropolitanas de Estados Unidos antes, durante y tras el huracán Sandy para ver si existe correlación entre la actividad en esa red y la intensidad del daño ocasionado en cada zona. Su estudio parte de los resultados de trabajos anteriores sobre el uso de diversas redes sociales en situaciones de catástrofe. Por ejemplo, Twitter ha mostrado su utilidad en emergencias por su facilidad para difundir información relevante, mientras que el uso de Flickr muestra cierta correlación con la intensidad del desastre. By NASA, MODIS/ LANCE, HDF File Data processed by Supportstorm – ftp://ladsftp.nascom.nasa.gov/allData/5/MOD021KM/2012/299/, Public Domain, https://commons.wikimedia.org/w/index.php?curid=32030479

Este estudio se ha realizado a diferentes niveles, nacional, estatal, condado y distrito postal, analizando el comportamiento y la respuesta de las comunidades; han geolocalizado los mensajes en los dos estados más afectados (Nueva York y Nueva Jersey) y registrado su distribución y, por último, han comparado la actividad en Twitter por zonas con la evaluación de daños realizada tras el desastre.

Su conclusión es que la actividad en Twitter se relaciona directamente con la proximidad al huracán, y va disminuyendo paulatinamente con la distancia hasta desaparecer a los 1200-1500 km. Asimismo destacan que en las áreas más cercanas al desastre se genera más contenido original y descienden los retuiteos, a la vez que estos tuits generan más interés en las zonas alejadas, donde se incrementa su retuiteo.

By Cyclonebiskit – Created by Cyclonebiskit using WikiProject Tropical cyclones/Tracks. The background image is from NASA. Tracking data is from from the National Hurricane Center.[1], Public Domain, https://commons.wikimedia.org/w/index.php?curid=22384003

En cualquier caso, la correlación observada no es completamente uniforme para todos los eventos, lo que debe ser tenido en cuenta a la hora de desarrollar aplicaciones prácticas. Además, dado que la relación entre la actividad en las redes sociales y los fenómenos de la vida real es indirecta, los posibles cambios en el uso de determinadas plataformas online obligan a ser cautelosos a la hora de desarrollar herramientas predictivas basadas en el análisis de Big Data.

Por todo ello consideran que con la monitorización de las redes sociales a lo largo del tiempo se podrían desarrollar modelos predictivos, una vez que se hayan analizado un número suficiente de eventos de esta naturaleza. Además, en su opinión, esta metodología podría ser útil para describir y cuantificar otros fenómenos naturales, económicos o culturales.

Publicado en Matemáticas de la vida cotidiana

1. Redacción de artículo sobre gráficas

Para realizar esta tarea he elegido la siguiente estadística del INE: Emisiones totales de gases de efecto invernadero a la atmósfera. Esta serie de datos abarca desde 2008 hasta un avance de los datos de 2018, e incluye las emisiones de todos los gases de efecto invernadero expresados en miles de toneladas de CO2 equivalente, realizadas por todas las ramas de actividad económica y por los hogares. Dado que trabajar con todos esos datos desglosados excedería el objetivo de esta tarea, lo he reducido a la emisión anual de la suma de todos los sectores.

Cuando he ido a hacer las gráficas a partir de estos datos, me he encontrado con el primer problema. Siempre he hecho las gráficas de series temporales de izquierda a derecha, es decir, el valor más antiguo a la izquierda y el más reciente a la derecha, y verla así me confunde. Así que mi primer impulso ha sido hacer una tabla nueva para que me salga directamente la gráfica como yo quiero. Pero luego he pensado que nuestro querido excel, que periódicamente, cuando ya lo controlamos medianamente bien, saca una versión nueva y nos cambia las cosas de sitio, quizás dé la posibilidad de hacer la gráfica con los datos en orden inverso a los de la tabla… Y efectivamente, lo tiene. Pero a costa de poner los valores del eje Y a la derecha de la gráfica. En fin…

Para representar estos datos me han parecido adecuada la clásica gráfica de barras porque, hablando de gases de efecto invernadero, nos interesa que, de alguna forma, se visualice la cantidad o el volumen de emisiones, y creo que las barras consiguen crear ese efecto:

Igualmente me parece importante que los valores del eje Y aparezcan desde cero por dos razones. Por un lado, así podemos ver cuánto nos queda por hacer en cuestiones medioambientales; pero, quizás más importante sea el hecho de que, de esta forma podemos ver rápidamente que proporción representan las variaciones anuales, los aumentos o descensos, con respecto al total de emisiones. Si el eje Y partiera, por ejemplo, de 200.000 miles de toneladas equivalentes de CO2, las diferencias anuales darían la idea de ser mayores proporcionalmente.

El resto de los elementos que aparecen en la gráfica son los mínimos imprescindibles para interpretarla adecuadamente, y evita distracciones o información superflua. Por ejemplo, se podía añadir a cada barra el valor de emisión anual, pero no nos aporta nada, es un dato que no vamos a memorizar, ya que lo que nos interesa es ver la tendencia y el grado de variación anual. También se podía haber hecho en 3D o con más colores, pero creo que así queda elegante, a la par que sencilla.

Por último, en cuanto al contenido, destacar la caída en las emisiones de 2008 a 2009, por la crisis, supongo; y la muy ligera tendencia descendente, que quizás tenga que ver con el cumplimiento de los objetivos de reducción de emisiones.

Publicado en El Universo a grandes rasgos

Ejercicio 1. La Luna no estaba tan cerca

El 21 de julio de 1969 yo tenía 4 meses y 5 días. En aquel tiempo mis abuelos regentaban una taberna en la planta baja del caserío familiar, en un momento en el que los caseríos de la zona estaban cediendo su lugar a fábricas y viviendas obreras, una transformación que sufrieron todos los pueblos de la periferia de Bilbao.

Mis abuelos disponían de una televisión parecida a la de la imagen, algo que todavía no era muy común en la época, y su bar era el punto de encuentro de las gentes del barrio. Así que cuando llegó ese histórico día, los vecinos pudieron ver las imágenes de la llegada del primer ser humano a la Luna mientras, probablemente, me escuchaban llorar.

https://www.rtve.es/television/60-aniversario-tve/

Con todas sus limitaciones, estos aparatos de televisión eran muy resistentes, y el de mis abuelos duró hasta mi adolescencia, cuando ya no quedaban piezas de recambio.

Aunque el programa Apolo fue clausurado cuando yo contaba con tres años, mi infancia estuvo rodeada de alusiones a la aventura espacial. Ya, meses antes de nacer yo, se había estrenado 2001: Una odisea del espacio, y tenía 8 años cuando se estrenó la que entonces se llamó La guerra de las galaxias. Sin embargo, no tengo ningún recuerdo de Star Trek hasta mucho después, supongo que Televisión Española, la única televisión en aquel momento, no emitiría la serie original.

Space1999 Year1 Title.jpg

De la que serie que sí me acuerdo, porque me encantaba, es Espacio: 1999, emitida entre 1975 y 1979. Debido a una explosión nuclear la Luna sale despedida de su órbita fuera del Sistema Solar, y los científicos que se encontraban en la base lunar se ven obligados a vagar por el espacio profundo con la única ayuda de unas cuantas naves de transporte.

Esas naves me encantaban, y solía intentar reproducirlas con las piezas del juego de construcción TENTE, la versión española de LEGO. En la imagen uno de los ladrillos del juego.

Esta serie solo duró dos temporadas, 48 episodios. Según se explica en este blog, la serie estaba dirigida principalmente al mercado anglosajón, y, precisamente, fue donde menos éxito tuvo. Parece ser que el argumento de la primera temporada era demasiado sesudo para los gustos estadounidenses y en la segunda temporada, con el objetivo de hacerla más “ligera”, se llevaron a cabo una serie de cambios de actores y de argumento que la desvirtuaron bastante. Una pena…

Con la llegada de los años 80, la Luna ya estaba completamente superada, así que llegó la mítica serie documental Cosmos: un viaje personal de Carl Sagan, con la que pude recorrer el Sistema Solar.

Pero es que en ese mismo momento, en 1981, tuvo lugar el primer vuelo de prueba del transbordador espacial.

Transbordador espacial Discovery. De NASA – http://spaceflight.nasa.gov/gallery/images/shuttle/sts-120/html/sts120-s-028.html, Dominio público, https://commons.wikimedia.org/w/index.php?curid=2986692

Blade runner logo red.jpg

Y en 1982, para redondearlo todo, llegan E.T., el extraterrestre y:

ambientada en 2019.

El caso es que, a medida que íbamos creciendo y nos acercábamos al siglo XXI, y con esos antecedentes culturales, muchos de mi generación pensábamos que a estas alturas de siglo, 2020, el ser humano ya tendría, como mínimo, bases permanentes en la Luna y en Marte, y, quizás, hasta contacto con extraterrestres. Pero pasaron los 80 y, para cuando me di cuenta, nos plantamos en 1999 y, no solo no había bases en la Luna, sino que la mayor preocupación tecnológica en aquel año era qué iba a pasar con los ordenadores y el efecto 2000.

En fin, como se suele decir, citando a Niels Bohr, “hacer predicciones es muy difícil, sobre todo las del futuro”.

Parece ser que en la actualidad hay nuevos planes a corto plazo de llegar a la Luna La nueva carrera espacial a la Luna, aunque vista la experiencia de los últimos años conviene ser escéptico El programa Artemisa de la NASA para pisar la Luna en 2024: ¿humo o realidad? Las dificultades técnicas, junto con el enorme coste económico con poco retorno a corto plazo, son obstáculos difíciles de superar. En cualquier caso, me parece una buena señal que esos planes se basen en la colaboración internacional, y no, como hace 50 años, en una competición entre dos potencias, como parte de una carrera armamentística.