Publicado en Inteligencia Artificial

Tarea 10.1 Visión crítica

Desde la última década del siglo XX, las tecnologías de la información y la comunicación han experimentado un desarrollo extraordinario, hasta el punto de que han transformado los hábitos y costumbres sociales. Esas diferencias son especialmente notables cuando comparamos las formas que tenemos de relacionarnos ahora con respecto a cómo lo hacíamos a finales del siglo pasado.

Pero los cambios producidos por este desarrollo tecnológico no se han producido solo en el ámbito de las comunicaciones, es decir, en los teléfonos inteligentes, en internet y en el correo electrónico. La capacidad de gestionar enormes cantidades de datos, junto con la miniaturización de los dispositivos, ha tenido un tremendo impacto en los diferentes ámbitos de la investigación científica.

Un ejemplo claro es el proyecto Genoma Humano. Este no hubiera sido posible de no haber aplicado esas tecnologías a la secuenciación de genes. No hay que olvidar que el genoma humano consta, aproximadamente, de 3.200 millones de pares de bases, agrupadas en unos 24.000 genes. Para poder extraer y procesar esta ingente cantidad de información hubo que desarrollar, en primer lugar, equipos de secuenciación de genes que pudieran secuenciar a la vez y de forma automática una gran cantidad de muestras. Posteriormente, hubo que almacenar ordenadamente la información extraída, de forma que pueda ser utilizada cuando sea necesario.

Pero en este ámbito de investigación en ciencias de la vida, el proyecto Genoma Humano solo fue el primer escalón en la aplicación de estas tecnologías, ya que, posteriormente, aparecieron nuevas áreas en biología molecular como la proteómica, metabolómica, microbioma, viroma, etc., basados todos ellos en la acumulación y procesamiento de gran cantidad de datos.

Y consecuencia de todo ello, es la aparición de la bioinformática, la disciplina que se encarga de gestionar toda la información con la que se trabaja en esas áreas, así como de hacer simulaciones de nuevas configuraciones moleculares o de los efectos de determinados cambios en moléculas.

Todo ello está permitiendo avanzar a una gran velocidad en áreas como el desarrollo de nuevas vacunas y medicamentos; en la caracterización de las poblaciones de microbios del suelo o del intestino humano; en la caracterización de variaciones genéticas asociadas con la diferente susceptibilidad a ciertas enfermedades, etc. Un ejemplo claro lo tenemos de plena actualidad: la búsqueda contrarreloj de una vacuna o de medicamentos contra el SARS-CoV-2.

Y esto no ha hecho más que empezar, ya que a la vez que las tecnologías de la información se van aplicando a la investigación científica, las propias tecnologías siguen desarrollándose con gran rapidez. La capacidad de almacenamiento y la velocidad de procesamiento de datos sigue creciendo a gran velocidad, valga la redundancia. De la memoria de disco magnético se ha pasado a la memoria flash y a la de estado sólido. Los procesadores son cada vez más rápidos y, creo que, a medio plazo, los ordenadores cuánticos supondrán un salto enorme en este ámbito. Y todo ello complementado con las ventajas que presenta el aprendizaje profundo a la hora de “aprender” automáticamente cuando se dan determinadas condiciones, como ya hemos visto en la asignatura: gran cantidad de datos, condiciones estables, posibilidad de categorización, etc.

Todos estos avances han dado lugar a lo que hoy conocemos por inteligencia artificial, y que ya se utiliza en la conducción automática, en las aplicaciones online para compras o en las redes sociales, etc. Desde el punto de vista científico-tecnológico, el objetivo de la inteligencia artificial debe ser aumentar el conocimiento y facilitar la vida del ser humano, por ejemplo, haciendo tareas peligrosas, repetitivas o complejas.

Pero, como el resto de las ciencias, no carece de riesgos, ya que tiene aplicaciones peligrosas. Por ejemplo, contra los derechos humanos, utilizándola la posibilidad de gestionar una enorme cantidad de datos para el control de las personas, con la correspondiente pérdida de privacidad y de libertad; o distorsionando la realidad mediante la manipulación de imágenes, videos o audios que alteren los hechos de modo creíble, dando lugar a bulos y fake news; ciberataques contra empresas y organizaciones gubernamentales, a cambio de dinero o como sabotaje; aplicaciones militares como drones o robots; y, finalmente, en un futuro más lejano, quizás, la pérdida del control de las máquinas, un tema repetido en la ciencia ficción, como en 2001: una odisea en el espacio o en la saga Terminator.

Por tanto, debe ser la sociedad la que ponga las condiciones necesarias para que se produzca el uso limitado de esta tecnología y se evite su abuso con fines económicos, ideológicos, o de otro tipo. Los sistemas democráticos tienen establecidos mecanismos de control para ello, pero, en los últimos años, las crisis económicas, de seguridad (terrorismo) y ahora la sanitaria, con la inestabilidad que generan, dificultan el funcionamiento de esos controles. De hecho, incluso en situaciones de estabilidad social, ya hemos sacrificado nuestra privacidad a cambio del alto grado de conectividad del que “disfrutamos” en la actualidad con el móvil, la Tablet, las redes sociales, nuestros datos en la nube, nuestras compras online, etc. En mi opinión, la aplicación adecuada o inadecuada de la inteligencia artificial solo es un paso más en esta línea.