Publicado en Neurociencia

Ejercicio clase 9: Elegir fotografías de células nerviosas que sorprendan por su belleza y claridad.

Cuando hablamos de células nerviosas, automáticamente pensamos en las neuronas, olvidando que estas son solo una parte del tejido nervioso. Son las más conocidas, porque son las encargadas de generar y transmitir los impulsos nerviosos, y se calcula que en el cerebro humano hay alrededor de 86.000 millones. Pero no podemos olvidar que, por cada neurona hay otras 10 células que se encargan de sostenerlas, alimentarlas y protegerlas, además de contribuir a la transmisión del impulso nervioso. Son las células de apoyo o glía.

Su nombre significa “cemento, pegamento” y hay varios tipos. En este caso me voy a centrar en las células de la microglía. Cuando hay una infección se activan y cambian de forma, se transforman en macrófagos y fagocitan restos celulares, desechos y las células responsables de la infección. Son células pequeñas, con pocas ramificaciones y su número aumenta en las infecciones.

A continuación presento cuatro fotos de la microglía, extraídas de varias ediciones del Concurso de Fotografía Científica de la Universidad del País Vasco-Euskal Herriko Unibertsitatea.

Titulo: La microglía de la mesa redonda

La microglía en estado activado sobreexpresa unas u otras moléculas dependiendo del estado de activación. La microglía anti-inflamatoria aparece de color verde mientras que la microglía pro-inflamatoria aparece en rojo. Los núcleos aparecen en azul. En el centro de la foto podemos ver una microglía multinucleada con los núcleos dispuestos en círculo. Autor: Alazne Zabala Olaizola

Titulo: Banquete celular

 Célula microglial, en verde, fagocitando células muertas, en rojo.
Autor: Oihane Abiega Etxabe

Titulo: Phagocytic microglia engulfing apoptotic cells in the hippocampus

Las células apoptóticas (moribundas) con el núcleo blanco son fagocitadas por células de la microglía, de color cian. Autor: Ainhoa Plaza Zabala

Titulo: What happens when you die…

 La imagen muestra a la microglía (cian) “harta” de inclusiones de restos de neuronas (magenta) que han muerto. Autor: Virginia Sierra de la Torre
Publicado en Historia de la Tierra y de la vida

Tarea 5.1. – Reflexión

¿Qué cosas puedes pensar sin necesidad de recurrir al lenguaje, es decir, sin que sea preciso que “aparezcan” palabras en tu mente?

¿Crees que de ese modo (es decir, sin lenguaje) es posible elaborar planes de acción y transmitirlos a los congéneres?

La verdad es que este es un ejercicio bastante complicado. Me resulta difícil encontrar algo en lo que pensar que no requiera de palabras, como no sean sentimientos o sensaciones. Incluso en estos casos, cuando vas más allá de la pura sensación física o anímica, en el momento que quieres valorar lo que estás experimentando, creo que ya aparecen las palabras: si es una sensación ligera o fuerte, si será puntual o duradera, si es banal o preocupante, etc.

Y a la hora de comunicárselo a los demás, únicamente las sensaciones físicas o anímicas comunes que todos experimentamos, y esto dentro un contexto determinado, como dolor de tripas después de comer algo o tristeza después de la pérdida de algo o alguien, pueden ser expresadas sin palabras. Si la sensación o el sentimiento es más complejo, veo difícil poder transmitírselo a los demás.

Para poder responder a la segunda pregunta, por un lado, he intentado ponerme en la situación de un grupo de antepasados nuestros, del género Homo, que todavía no tuvieran un lenguaje hablado y que tuvieran que planificar una estrategia de caza. Y por otro lado, analizando la forma de cazar de las manadas de lobos o leones en la actualidad.

En un primer momento, me parece complicado ser capaz de organizar una estrategia sin poseer un mínimo de pensamiento simbólico, de forma que puedas “colocar” a los participantes en la caza en diferentes situaciones y prever qué va a pasar en cada una de ellas, para después decidir cómo actuar en cada momento. Pero eso creo que supondría asignar a los depredadores actuales ese pensamiento simbólico, y puede ser que no sea más que un aprendizaje por imitación y acumulación de experiencias. Si esto es así, creo que sí sería posible elaborar planes y transmitirlos a los congéneres sin lenguaje, pero planes sencillos y con poca variedad de situaciones diferentes.

Publicado en Bioquímica cotidiana

Tarea 5.1 – Bebidas energéticas

Ingredientes:

Agua Carbonatada, Sacarosa, Jarabe de Glucosa, Acidulante (Ácido cítrico), Aromas naturales, Taurina (0,4%), Corrector de la acidez (Citrato de Sodio), Extracto de raíz de Panax Ginseng (0,08%), L-Carnitina L-Tartrata (0,04%), Cafeína (0,03%), Conservantes (Ácido Sórbico, Ácido Benzóico), Colorantes (Antocianinas), Vitaminas (B2, B3, B6, B12), Cloruro sódico, D-Glucoronolactona, Extracto de semilla de guaraná (0,002%), Inositol, Edulcorantes (Sucralosa)

Ingredientes

Agua carbonatada, azúcar, dextrosa, acidulantes: ácido cítrico y ácido fosfórico, aromas naturales, colorante E150d, corrector de acidez: bicarbonato sódico, cafeína (0,03 %), conservadores: benzoato sódico y sorbato potásico, vitaminas: niacina (B3) y vitamina B6, extracto de guaraná (0.001%).

Ingredientes

Agua, Sacarosa, Glucosa, Acidulante Ácido Cítrico, Dióxido de Carbono, Taurina 0,4%, Regulador de Acidez (Carbonatos de Sodio, Carbonato Magnésico), Cafeína 0,03%, Vitaminas (Niacina, Ácido Pantoténico, B6, B12), Aromas, Colorantes (Caramelo, Riboflavina)

BebidaAzúcar total (100 ml)Cafeína total
Green MONSTER, lata 50 clAzúcares 11 g
Hidratos de carbono 12 g
0,03%
Bebida energética COCA COLA Energy, lata 25 clAzúcares 10,3 g
Hidratos de carbono 10,3 g
0,03%
Bebida energética RED BULL, lata 25 clAzúcares 11 g
Hidratos de carbono 11 g
0,03%

Análisis de la tabla

Contenido de cafeína:

En los tres casos tenemos la misma concentración: 0,03%. Para calcular la cantidad total debemos suponer que este porcentaje se refiere a peso del soluto en gramos/volumen 100 c.c. de solución. De esa forma quedaría:

  1. Monster: 0,03 g cafeína en 100 c.c.= 10 cl, por tanto, en 50 cl hay 0,150 g de cafeína.
  2. Coca Cola: 0,03 g cafeína en 100 c.c.= 10 cl, por tanto, en 25 cl hay 0,075 g de cafeína.
  3. Red Bull: 0,03 g cafeína en 100 c.c.= 10 cl, por tanto, en 25 cl hay 0,075 g de cafeína.

Contenido de azúcar:

En la información nutricional separa azúcares de hidratos de carbono. Supongo que por azúcares se entiende los azúcares clásicos, principalmente, glucosa, sacarosa y fructosa.

En los casos de Coca Cola y Red Bull el contenido de azúcar coincide con el de hidratos de carbono, por lo que habría que suponer que no contiene ningún otro tipo de hidrato de carbono diferente. En el caso de Coca Cola los azúcares aparecen como “azúcares” y “dextrosa”, o sea, glucosa. Por su parte, Red Bull presenta los azúcares como sacarosa, glucosa y caramelo.

En la información nutricional de Monster aparecen 11 gramos de azúcar y 12 gramos de hidratos de carbono. Entiendo que como azúcares se refiere a la sacarosa y al jarabe de glucosa; el resto de hidratos de carbono, pueden ser la D-Glucoronolactona, un derivado de la glucosa y precursor de la vitamina C, y, quizás, los que se encuentren en la raíz de ginseng y en la semilla de guaraná.

En la etiqueta no aparece, pero supongo que las cantidades se refieren a 100 ml de bebida. Tomando como azúcar total solo lo que llaman “azúcares”, esta la clasificación:

1. Monster, con 55 gramos.

2. Red Bull con 27,5 gramos.

3. Coca Cola, con 25,75 gramos.

Publicado en Historia de la Tierra y de la vida

Tarea 4.2. – Reflexión: La aparición de una cultura y su evolución

La evolución biológica hace que las especies varíen o a lo largo del tiempo, por un lado, como consecuencia de las diferencias genéticas entre una generación y la siguiente, y por otro, por las capacidades que esas variantes genéticas dan a cada generación para adaptarse al medio que le circunda. Los mejor adaptados tienen más posibilidades de sobrevivir y, por tanto, de transmitir sus genes a sus descendientes. Algunas especies, además, como complemento a esa adaptación biológica, cuentan con culturas simples, por ejemplo, la utilización de palos y piedras como herramientas.

Simplificando en gran medida todo el proceso, podemos decir que ese fue el caso también de los primeros homínidos que vivían en África hace entre 4 y 6 millones de años. Un cambio climático que hizo que la selva fuera sustituida por la sabana favoreció la aparición del bipedismo, una adaptación que permitía tener una mejor visión del entorno y liberaba las manos para diferentes usos. Así, en los Australopithecus (hace 2-4 m.a.) los brazos se acortan, la columna y piernas se verticalizan, la cadera se ensancha, el cráneo crece en altura y la cara se reduce.

https://www.museoevolucionhumana.com/media/files/Evolucion.pdfhttps://www.museoevolucionhumana.com/media/files/Evolucion.pdf

La posibilidad de utilizar las manos abre todo un abanico de posibilidades, que van desde el transporte de objetos hasta su manipulación y transformación. Pero el desempeño de esas funciones requiere el desarrollo paralelo de una serie de habilidades cognitivas, que permita al individuo hacer pruebas, memorizar, prever, planificar, etc. Además, siendo una especie social, también debe ser capaz de comunicarse con el resto de individuos de su comunidad: tiene que entender a los demás y hacerse entender, intentar saber qué es lo que están pensando sus congéneres y prever lo que van a hacer, etc.

Clica para aumentar

A medida de que sus habilidades físicas y cognitivas van evolucionando, también lo hacen sus hábitos de vida. El uso de herramientas y armas le permite ahora alimentarse de carroña o cazar; esto aumenta su suministro de proteínas y de energía, lo que, a su vez, permite a su cerebro crecer y seguir mejorando sus capacidades cognitivas. Esta tendencia evolutiva se ve acrecentada con el uso del fuego, que evita contraer enfermedades y facilita la digestión: de la misma cantidad de comida se extrae más alimento y se gasta menos energía en su digestión. Todo ello, permite acortar el aparato digestivo y dedicar a otras funciones los recursos empleados en su mantenimiento.

Clica para aumentar

De esta forma se genera una retroalimentación: las características biológicas permiten la aparición de ciertas funciones; estas funciones suponen una mejora en su adaptación al medio y favorecen que esas características, no solo se hereden, sino que sigan evolucionando en una determinada dirección. Además, en el caso del genero Homo, a una gran capacidad de aprendizaje y de memorización hay que añadir la capacidad de transmitir el conocimiento. Esto permite, por un lado, el traspaso de conocimiento entre grupos diferentes, con el enriquecimiento mutuo que ello supone; por otro lado, también permite que el conocimiento pase de una generación a otra, con el consiguiente efecto acumulativo.

Esta retroalimentación hace que, con el tiempo, las relaciones entre los homínidos sean cada vez más complejas, y requieran el desarrollo de habilidades cognitivas de mayor nivel, lo que, a su vez, requiere la aparición de nuevas adaptaciones morfológicas y fisiológicas. Por tanto, en el caso de la especie humana, en su evolución han intervenido, además de los factores biológicos que afectan al resto de especies, los factores culturales.

Clica para aumentar

Bibliografía

  • Museo de la Evolución Humana
  • Bruner, E. 2012: “La evolución cerebral de los homínidos”, Orígenes del pensamiento – Investigación y Ciencia nº 425.
  • Laland, K. 2018: “La evolución de nuestra excepcionalidad”, Humanos- Investigación y Ciencia nº 506.
  • Sherwood, C.C. 2018: “¿En qué se distingue nuestro cerebro?”. Humanos – Investigación y Ciencia nº 506.
Publicado en Historia de la Tierra y de la vida

Tarea 4.1 – Respuesta razonada

¿A qué llamamos código genético?

Los ácidos nucleicos estás formados por la combinación de cuatro bases nitrogenadas. En el ADN estas bases son adenina (A), timina (T), citosina (C) y guanina (G); en el ARN la timina es sustituida por uracilo (U). Estas bases se pueden emparejar mediante enlaces de hidrógeno de la siguiente manera: A-T y C-G, lo que permite emparejar dos hebras de ADN y, de esa forma, crear la molécula de doble hélice de ADN; cuando la unión se realiza entre una hebra de ADN y otra de ARN, las bases que se emparejan son C-G y A-U.

Por tanto, la estructura de cada molécula de ácidos nucleico se puede describir como una hebra formadas por una secuencia determinada de bases nitrogenadas. Un ejemplo de una secuencia de ADN podría ser: TACAATCTCGTACTG; en el caso del ARN podría ser: AUGUUAGACCAUGAC. El código genético consiste en que cada grupo de tres bases de la molécula de ARN, llamado codón, determina un aminoácido concreto a la hora de sintetizar la proteína correspondiente.

Características del código genético

  1. Son posibles 64 codones, muchos más que aminoácidos (20), por lo que cada aminoácido puede estar codificado por más de un codón.
  2. Algunos codones no codifican ningún aminoácido, sino que marcan el final del proceso de traducción.
  3. El codón AUG codifica el aminoácido metionina y es la señal para que comience el proceso de traducción.
  4. El código genético es universal, es decir, aparece en casi todos los seres vivos, sean procariotas o eucariotas, unicelulares o pluricelulares. Esto indica que todos los seres vivos tenemos un antepasado común que ya utilizaba este código, y que ha ido pasando de generación en generación desde hace miles de millones de años.
Publicado en Inteligencia Artificial

Alan Turing y su test para medir la inteligencia de las máquinas.

Alan Turing es conocido, entre otras cosas, por haber contribuido a derrotar a los alemanes en la 2º Guerra Mundial descifrando los códigos que estos utilizaban para sus mensajes, y que eran generados por la máquina Enigma. Una vida complicada (Atención: SPOILER) con un triste final, y que se recoge en la película “El Juego de la Imitación” (2014):

The imitation game (Descifrando Enigma) – Trailer español.

Es considerado el padre de la informática y de la computación; de hecho, según he leído en algún sitio, puede ser que la manzana mordida de la marca Apple haga referencia a la forma en que Turing murió: suicidándose con una manzana envenenada.

Entre sus trabajos destacan On Computable Numbers, with an Application to the Entscheidungsproblem de 1937, donde define la Máquina Universal, y “Computing machinery and intelligence“, de 1950, donde propone su famosa prueba: “El test de Turing“. El objetivo del test es comprobar si una máquina es capaz de pensar, y para ello propone el juego de la imitación: se trata de ver si una máquina podría imitar las respuestas de un ser humano, de tal forma que un interrogador que hace las preguntas a ciegas no podría distinguir si está respondiendo un ser humano o una máquina. Al comienzo de este artículo, plantea la necesidad de concretar el punto de partida de la cuestión, y para ello propone empezar definiendo qué es “pensar” y qué es “máquina”. Su noción de inteligencia, referida tanto al ser humano como a las máquinas, se considera el punto de partida para el desarrollo de la Inteligencia Artificial.

El papel de interrogador puede ser hecho tanto por una persona como por un ordenador, y este último caso es el que se aplica en la actualidad para comprobar si el que está rellenando un formulario en Internet es realmente humano: el test CAPTCHA, acrónimo de “Completely Automated Public Turing test to tell Computers and Humans Apart”) es un test de Turing realizado por una máquina, y que utiliza cifras, letras, figuras, imágenes, etc., de tal forma que no pueden ser reconocidas por una máquina actual.

Casi 70 años después de la muerte de Turing, su trabajo sigue dando frutos, contribuyendo a los avances que se están dando en la actualidad en el desarrollo de la Inteligencia Artificial.

Referencias:

Máquinas inteligentes (I): Del molino de viento al test de Turing.

Turing y la inteligencia de lo no computable,

Una prueba de Turing para el futuro.

El Test de Turing revisitado.

ALAN TURING 100 URTE: Makinei bizia eman zien pertsona.

Wikipedia.

Publicado en Historia de la Tierra y de la vida

Tarea 3.1 Búsqueda y descripción

Los ciclos de Milankovitch (1)

El clima de la Tierra está gobernado por varios factores, siendo los más importantes: la insolación o cantidad de radiación que nos llega, los gases invernaderos y, por último, el albedo, que es la fracción de la radiación que se refleja y se devuelve al espacio exterior. En opinión de los científicos, las variaciones en la insolación son las responsables de los cambios climáticos ocurridos en los últimos cientos de miles de años, incluidas las glaciaciones. A su vez, estas variaciones pueden ser consecuencia del bamboleo que sufre la órbita de la Tierra a lo largo de miles de años.

Estos cambios periódicos en la órbita de la Tierra son conocidos como los Ciclos de Milankovitch, por ser el científico serbio Milutin Milankovitch el primero en relacionar los cambios en la órbita con los cambios en el clima. Hay tres tipos de variaciones en la órbita de la Tierra:

  1. Excentricidad (Forma de la órbita). La órbita terrestre no es circular sino ligeramente elíptica, por lo que la distancia de la Tierra al Sol varía a lo largo del año. Esto hace que la cantidad de insolación también varíe, aunque en un porcentaje muy pequeño. Pero esta excentricidad no es fija sino que en periodos de 100.000 y 400.000 años pasa de ser casi circular a ser una suave elipse.
  2. Inclinación axial (Oblicuidad). En la actualidad el eje de la Tierra gira alrededor del Sol con una inclinación de 23,5 grados. Esto da lugar a que a lo largo del año los hemisferios se turnen en inclinarse hacia el Sol o en alejarse de él, dando lugar a las estaciones. Esta inclinación también cambia con el tiempo, oscilando entre 22,1 y 24,5 grados. A mayor ángulo, mayores diferencias entre las temperaturas de verano e invierno. El periodo entre la mínima y la máxima inclinación, y volver a la mínima, es de 41.000 años. En este momento se encuentra en un punto intermedio y dentro de 20.000 años alcanzará el punto de menor inclinación.

3. Precesión axial. La dirección del eje de rotación también varía con respecto a las estrellas a lo largo del tiempo, de forma similar a como lo hace una peonza. En un ciclo de 20.000 años, el polo norte pasa de apuntar hacia la estrella polar, como en la actualidad, a apuntar hacia la estrella Vega. Esto hace que varíe el momento en que suceden las estaciones con respecto a la distancia al Sol. De NASA, Mysid – Vectorized by Mysid in Inkscape after a NASA Earth Observatory image in Milutin Milankovitch Precession., Dominio público, https://commons.wikimedia.org/w/index.php?curid=3993432

Ver referencia (1) en Bibliografía

Como vemos, estos tres ciclos tienen periodos diferentes, y han dado lugar a cambios climáticos que han quedado registrados en los sedimentos y en el hielo. Por ejemplo, el periodo de excentricidad de 100.000 años ha determinado el ritmo de las glaciaciones. Los geólogos también han encontrado evidencias de estos ciclos en rocas de cientos de millones de años.

En cuanto a la forma en que estos ciclos afectan al clima, el hecho es que no tienen mucho impacto en la insolación total que recibe la Tierra. En realidad lo que varía son los momentos en que cada parte de la Tierra recibe más o menos insolación; además, los efectos de los ciclos pueden sumarse o neutralizarse, aumentando o disminuyendo las variaciones en la insolación.

Efecto de la Luna sobre el clima

Hemos visto que el clima de la Tierra está influido por los cambios que nuestro planeta experimenta en su desplazamiento por el espacio. Pero a nivel astronómico hay unos cuantos factores más que le afectan de forma directa. Sin duda, uno es la actividad solar, ya que de ella depende la cantidad de energía que nos llega. Sin embargo, lo que no está tan claro es la influencia de la Luna en el clima.

By Rfassbind – Own work, Public Domain, https://commons.wikimedia.org/w/index.php?curid=42565168

La órbita de la Luna presenta unas variaciones similares a las que acabamos de ver de la Tierra: excentricidad variable, ángulo con respecto a la eclíptica variable, etc., y, por tanto, también varía la distancia a la Tierra. Sin embargo, su efecto sobre el tiempo atmosférico o el clima es muy débil. Lo mismo ocurre con la radiación solar reflejada por la superficie lunar. El único mecanismo por el que sí que parece que influye la Luna en el clima es modificando las corrientes oceánicas que redistribuyen el calor de unas zonas a otras del planeta, a través de la modulación de las mareas. En la práctica resulta muy difícil distinguir entre anomalías en la emisión de calor solar, la influencia de las mareas lunares y otros efectos (2).

De hecho, sí hay algunos estudios recientes (3) que sugieren la posibilidad de que la Luna tenga efectos directos en el aumento de precipitaciones. En momentos determinados, cuando aumenta la atracción gravitatoria de la Luna, provoca un aumento de presión atmosférica, lo que, a su vez, eleva la temperatura, y como el aire húmedo es capaz de acumular más agua, aumenta la probabilidad de lluvia. Pero son variaciones imperceptibles, que únicamente pueden ser útiles en predicciones a largo plazo, donde al coincidir varios factores, se pueden dar fenómenos meteorológicos extremos.

Bibliografía

(1) VV.AA. Sustainability: A Comprehensive Foundation (2012) Rice University, Houston, Texas.

(2) Camuffo, D. Lunar influences on climate. (2001) Earth, Moon and Planets 85-86: 99-113.

(3) Kohyama, T., Wallace, J.M. Lunar gravitational atmospheric tide, surface to 50 km in a global, gridded data set (2014) Geophysical Research Letters.

Publicado en Bioquímica cotidiana

Tarea 3.1 – Estrategia del asterisco

La estrategia del primer producto ya la expliqué en la Tarea 2.1: Danone se encargó durante muchos años de hacernos creer que los yogures elaborados con un tipo de Lactobacillus, el L. casei, reforzaba nuestro sistema inmunológico. Cuando la legislación ya no lo permitió, esta empresa buscó el resquicio para seguir manteniendo la alegación: añadirle vitamina B6. Dado el éxito conseguido, otras empresas le han copiado la estrategia.

Ingredientes: LECHE desnatada, agua, azúcares (azúcar, jarabe de glucosa y jarabe de azúcar caramelizado), LECHE desnatada en polvo, almidón modificado, zumo de limón concentrado, edulcorante (sucralosa), fibra alimentaria (oligo-fructosa), vitaminas (b6 y ácido fólico), L. CASEI y otros fermentos LÁCTICOS. puede contener trazas de FRUTOS DE CÁSCARA. origen de la leche: España.

El siguiente producto también es una leche fermentada, en este caso con un preparado para darle aroma y color, y a la que se le han añadido sales de potasio, para las cuales está permitida la alegación de “El potasio contribuye al mantenimiento de una tensión arterial normal”.

Ingredientes: LECHE desnatada, preparado aromatizado (agua, fructosa, sales de potasio (citrato tripotásico), almidón modificado, regulador de acidez (ácido cítrico), aroma, colorante (carotenos), edulcorantes (aspartamo y acesulfamo potásico), LECHE desnatada en polvo y fermentos LÁCTICOS. contiene una fuente de fenilalanina. puede contener trazas de FRUTOS CÁSCARA. origen de la leche: españa.

Publicado en Neurociencia

Clase 5: La mercadotecnia de lo “NEURO-“

“El cerebro es una máquina ensamblada, no para entenderse a sí mismo, sino para sobrevivir. Puesto que estos fines son básicamente diferentes, la mente, sin la ayuda del conocimiento basado en los hechos que da la ciencia, ve el mundo en pequeños pedazos. Se centra en aquellas porciones del mundo que debe saber para poder vivir un día más, y rinde el resto a la oscuridad. Durante miles de generaciones la gente vivió y se reprodujo sin la necesidad de saber cómo funciona la máquina del cerebro. Fueron los mitos y los autoengaños, las identidades y los rituales tribales, más que la verdad objetiva, los que les dieron la ventaja adaptativa”. Consilience: The unity of knowledge, 1998. Edward O. Wilson (Traducción propia).

Edward O. Wilson-By Ragesoss – Own work, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=2940724

Neurociencia, la última moda en ciencia.

En la década de los 70 del pasado siglo aparecieron un nuevo tipo de tecnologías de imagen que permitían observar la actividad cerebral con gran detalle. Rápidamente, la neurociencia salió de los laboratorios de Medicina y fue entrando poco a poco en las facultades de Derecho, Economía, Comercio y Filosofía, y, como consecuencia de ello, desde entonces, han ido apareciendo paulatinamente multitud de disciplinas con el prefijo “neuro-“, todas ellas, supuestamente, aplicaciones de la neurociencia: neuroderecho, neuroeconomía, neurofilosofía, neuromarketing, neurofinanzas, neuroestética, neurohistoria, neuroliteratura, neuromusicología, neuropolítica, neuroteología… [Satel, 2013].

El descubrimiento de los secretos del cerebro ha sido un desafío muy atractivo para sabios y científicos desde la antigüedad. Pero cuando llegaron las primeras imágenes resplandecientes obtenidas con Resonancia Magnética Funcional, se desató la imaginación del público, y las neuroimágenes se convirtieron en uno de los símbolos de la ciencia. Esto no resulta sorprendente, ya que el cerebro es la estructura más compleja que conocemos: compuesto de 100 mil millones de células, su funcionamiento se basa en las conexiones entre dichas células, y el número de conexiones posibles entre ellas es mayor que el número de estrellas de la Vía Láctea. El hecho de que un órgano de 1,5 kg como este se capaz de desarrollar sentimientos subjetivos es uno de los mayores misterios para la ciencia y la filosofía.

El sentido más desarrollado en los seres humanos es la vista, pero lo que ha sido una ventaja en la evolución nos origina un sesgo cognitivo: pensamos que el mundo es tal y como lo vemos; es lo que los psicólogos y filósofos llaman “realismo naif”. Tampoco las imágenes de estudio del cerebro son lo que parecen: no son imágenes del cerebro cuando está trabajando. Esas coloridas imágenes muestran las zonas donde se incrementa la actividad, son el resultado de medir el incremento del consumo de oxígeno, cuando el individuo está realizando una tarea o está respondiendo a un estímulo. Después de hacer la medición, el ordenador le asigna un color a cada nivel de oxígeno para poder diferenciar los niveles de actividad de cada zona del cerebro. Ser capaz de interpretar bien esa imagen es todo un reto; de ahí deducir qué es lo que está pensando el individuo no es más que una exageración. De hecho, diferentes emociones pueden activar la misma área cerebral.

La neuroimagen es una ciencia joven y todavía tiene que mejorar y refinarse para poder dar por sentado los resultados de las investigaciones. Si no se cogen los resultados con prudencia se corre el riesgo de crear malentendidos y errores, y, como consecuencia de ello, pueden aparecer la neuromanía, la neuropublicidad y las neuroexageraciones, que van más allá de lo probado. De hecho, en la actualidad, resulta más fácil vender un producto si le colocamos el prefijo “neuro-“.

A juicio de algunos expertos, la neurociencia será capaz de explicar y de prever todos los comportamientos humanos, el mismo potencial que antes se le atribuyó al psicoanálisis, al behavorismo radical de Skinner y al determinismo genético. Para huir de ese neurodeterminismo y neurocentrismo no debemos olvidar que en las neuroimágenes se observa la actividad a nivel celular, que el estado consciente está en otro nivel, en el que se encuentran nuestros pensamientos, sentimientos, percepción, conocimiento y deseos; y que todos ellos se adaptan según el contexto social y cultural, que, a su vez, está en otro nivel.

Con la intención de hacer frente a semejante situación, cada vez más investigadores denuncian los malos usos de la neurociencia Los malos usos de la neurociencia, la publicidad sin medida [Styx, 2018], y considerarla como la panacea que arreglará todos los problemas de la sociedad La neurociencia como religión. Por tanto, mejor será echar mano del escepticismo la próxima vez que veamos algún resultado o aplicación sorprendente de la neurociencia.

Neuroeducación y neurodidáctica

La educación y todas las disciplinas relacionadas, como la pedagogía, didáctica, psicología cognitiva, etc., no han sido una excepción en esa expansión de la neurociencia explicada en el apartado anterior. Además, en las últimas décadas, el mundo de la educación ha tenido cierta tendencia a aceptar rápidamente metodologías y conceptos nuevos, muchas veces sin asegurarse de que dan mejores resultados que los convencionales. De hecho, se ha ido asentando una colección de mitos relacionados con el aprendizaje, algunos de ellos relativos al funcionamiento del cerebro: los “neuromitos”. Quizás, los más conocidos sean “las inteligencias múltiples” y “los estilos de aprendizaje” [De Bruyckere, 2015; ver los blogs de Jesús C. Guillén y J.R. Alonso]. Algunos de esos mitos son viejas teorías científicas y ya está demostrado que son erróneas; otras derivan de una mala interpretación de un descubrimiento científico, o de una mala interpretación hecha en un primer momento; y un tercer grupo proceden de una teoría que estaba sin demostrar cuando se difundió, pero como estaba revestido de ideas atractivas, fue rápidamente aceptado en el mundo educativo. En este último caso, a pesar de que las investigaciones realizadas han demostrado que no tienen base científica o que los resultados no son mejores que los de la metodología tradicional, permanecen fuertemente enraizados entre muchos educadores y entre los que deciden las políticas educativas.

Como consecuencia de esa situación, en los últimos años han aparecido multitud de metodologías en el mundo educativo, proclamando que iban a revolucionar el proceso de enseñanza-aprendizaje. Para su implementación se ha invertido gran cantidad de dinero queriendo mejorar la imagen de los centros o de todo el sistema educativo. Pero, pasada la novedad, los resultados son dudosos y, como pasa con las modas, enseguida aparece otra metodología nueva que sustituirá a la anterior, y que viene tras la pista del dinero. En la actualidad, esa moda es la “neuroeducación”.

Desde el principio, poder aplicar los descubrimientos de la neurociencia en la educación despertó el interés de varias entidades de prestigio, y el término “neuroeducación”, entre otros, se extendió rápidamente [Ansari, 2010]. Por ejemplo, la Organización para la Cooperación y el Desarrollo Económicos (OCDE) creó la iniciativa “Brain and Learning” en 1999, con el objetivo de explorar las potencialidades de la neurociencia en la educación, de donde salieron documentos como La comprensión del cerebro. Hacia una nueva ciencia del aprendizaje (2003) y La comprensión del cerebro. El nacimiento de una ciencia del aprendizaje (2009). Por otro lado, universidades y gobiernos crearon centros de investigación, entidades específicas e iniciativas, como “International Mind, Brain and Education Society” de Harvard y la iniciativa del Ministerio de Educación alemán “Neuroeducación, Instrucción y Aprendizaje”. Por último, también aparecieron algunas revistas científicas con el propósito de examinar y difundir los trabajos realizados en este campo: Science of Learning (del grupo Nature), Trends in Neuroscience and Education, Educational Neuroscience, etc. Todo esto se suele tomar como argumento para justificar la seriedad de esta disciplina y para reivindicar que merece la pena trabajar en ella ¿Es la Neuroeducación un concepto hueco?

En cualquier caso, la polémica es clara en el mundo de la ciencia: al artículo que defiende la utilidad de la neuroeducación le sigue otro que defiende lo contrario. Por ejemplo, en 2014 unos investigadores de Argentina y Brasil publicaron en la revista Nature Neuroscience el artículo “Neuroscience and education: prime time to build the bridge” [Sigman, 2014]. En él se recogían, a juicio de los autores, las importantes aportaciones que la neurociencia había hecho a la educación. Por ejemplo, ahora se conoce qué tipo de efectos tiene en la fisiología del cerebro, es decir, a nivel celular, las condiciones del entorno del alumno y sus actividades, y sus consecuencias a nivel cognitivo, entre otros: nutrición (es el órgano que más glucosa consume, las dietas con exceso de grasas cambian el metabolismo del hipocampo y la neurotransmisión), ejercicio físico y un ambiente rico (se incrementa la neurogénesis en el hipocampo), el sueño (tiene efecto en la memoria y en la atención, regulando la activación y organización de las neuronas; en la pubertad se retrasan los ciclos del sueño). Junto con ello, la neurociencia sirve para el diagnóstico temprano de ciertas enfermedades, como la sordera congénita tras el nacimiento; adelantar las intervenciones correctoras mejora el desempeño académico del alumno sordo. Igualmente ha demostrado que, en los recién nacidos y en los niños antes de empezar a hablar, cuando oyen hablar, la activación de las zonas del cerebro es similar a la de los adultos; por tanto, que los padres hablen a los hijos en esas edades podría facilitar el desarrollo del lenguaje. Por último, los autores consideran necesario la colaboración entre los profesionales de la neurociencia y de la educación.

Pero también hay ejemplos del extremo contrario. J. S. Bowers, de la Universidad de Bristol, publicó en 2016 en Psychological Reviews su opinión clara y rotunda: no hay ejemplos claros de métodos de enseñanza surgidos de la neurociencia que sean efectivos, y no parece que los vaya a haber. Lo único que concede a la neurociencia es una aportación indirecta: la posibilidad de hacer un diagnóstico temprano permite empezar el tratamiento antes, lo que mejorará el proceso de aprendizaje de los niños sordos o con déficit de atención. En este contexto de discusión, Nikolas Westerhoff ha recogido en un artículo de la revista Cuadernos Mente y Cerebro similares opiniones contrapuestas [Westerhoff, 2018].

Por tanto, resumiendo, podríamos decir que hasta ahora la neurociencia le ha hecho pocas aportaciones a la innovación educativa, pero que ha sido útil para entender y asentar lo mostrado por la práctica educativa. Por un lado, ha explicado por qué algunos métodos (tanto nuevos como convencionales) dan buenos resultados o por qué algunas condiciones del entorno facilitan el proceso de aprendizaje. Por otro, también ha valido para corregir ideas erróneas o para dejar de lado los neuromitos. Pero entender el funcionamiento del cerebro es un camino largo y su tremenda complejidad obliga a ir despacio. Sin duda, en el futuro la neurociencia impulsará el desarrollo educativo, pero eso requiere colaborar con las disciplinas citadas antes, y también como se ha comentado en el apartado anterior, siempre de la mano del escepticismo y de la prudencia.

Bibliografía

Publicado en Inteligencia Artificial

Tarea 1.1 Reflexión sobre la Inteligencia Artificial

Definición de IA

¿Es una ciencia como otras o no?

Desde lo poco que conozco la Inteligencia Artificial creo que se parece bastante al resto de las ciencias. Por ejemplo, veo cierta similitud entre las relaciones física-ingeniería y matemáticas-inteligencia artificial. La física, con el conocimiento existente, elabora los planteamientos teóricos, y la ingeniería los utiliza para aplicarlos en la construcción de objetos útiles. Creo que hay una relación similar de las matemáticas con la inteligencia artificial. Además, me parece que comparte objetivos con el resto de las ciencias.

¿Cuál creéis que debe ser su objetivo?

Como el resto de las ciencias, debe servir para aumentar el conocimiento y facilitar la vida del ser humano, por ejemplo, haciendo tareas peligrosas, repetitivas o complejas.

¿Presenta riesgos?

Como el resto de las ciencias, tiene aplicaciones peligrosas. Por ejemplo, contra los derechos humanos, utilizándola para el control de las personas con la correspondiente pérdida de privacidad; distorsionando la realidad mediante la alteración de los hechos de modo creíble (fake news); ciberataques, aplicaciones militares, y en un futuro, quizás, pérdida del control de las máquinas, como en 2011: una odisea en el espacio o en la saga Terminator.