CSN El imperio del algoritmo - Alfa 54 Revista Alfa

Saltar al contenido

Su versión de Internet Explorer no es la adecuada para una correcta visualización de esta página web. Debe utilizar Internet Explorer 9 o superior.

Aceptar

Contenido principal

Alfa 54

El uso de las radiaciones para tratar a los enfermos de cáncer ha recorrido una larga trayectoria, uno de los últimos avances es la teragnosis, una terapia personalizada, que prolonga la vida del paciente y reduce los efectos secundarios. Algoritmo es una de las palabras que mayor difusión han tenido en los últimos años, ya que se sabe que está detrás de muchas aplicaciones tecnológicas y cuya utilización suscita temores. 
En la parte más técnica de la revista ofrecemos un artículo dedicado al almacenamiento geológico profundo, considerado por los expertos como la opción más adecuada para la gestión final de los residuos radiactivos. Además analizamos la contaminación radiactiva de las pruebas nucleares atmosféricas realizadas por las grandes potencias, entre 1945 y 1980 y abordamos la guía sobre protección radiológica en el manejo de fallecidos tras un tratamiento con radionucleidos.
La entrevista de este número es para Eloísa del Pino, presidenta del Consejo Superior de Investigaciones Científicas que muestra la situación actual del mayor organismo español de I+D+i y sus perspectivas de futuro.
Atrás

El imperio del algoritmo

El impacto del uso de algoritmos en la vida de las personas ha aumentado en los últimos años: desde la concesión de un crédito a la selección de personal, desde las recomendaciones que nos aparecen en Internet a los procesos de producción industrial. La inteligencia artificial también tiene mucho que ver con esto y una parte de la población se pregunta si nos estamos dirigiendo de forma inexorable hacia una dictadura de los algoritmos.

Texto: Patricia Ruiz Guevara

Comienza una visita guiada en el Espacio Fundación Telefónica de Madrid. Personas de todas las edades y bagajes están a punto de ver la exposición “Código y algoritmos. Sentido en un mundo calculado”, y el guía empieza formulando la pregunta: ¿qué es un algoritmo? Y hay respuestas variadas: “matemáticas”,“lógica”,“informática”,“un programa”,“una receta”. Todos tienen parte de razón. Según la Real Academia Española, un algoritmo es “un conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”. Efectivamente, en cierto modo es una receta, pues agrupa una serie de instrucciones y pasos para hacer algo.

“Preparar el desayuno, ir al trabajo, hacer la compra o planificar un viaje son acciones que siguen un algoritmo. Las aplicaciones y programas del ordenador son implementaciones de algoritmos y tienen más influencia en nuestras vidas desde que muchos dispositivos de nuestra actividad diaria se convirtieron en ordenadores, desde el móvil hasta el televisor, pasando por relojes o incluso la aspiradora”, explica Coral Calero, catedrática de Lenguajes y Sistemas Informáticos en la Universidad de Castilla-La Mancha. 

Pero la palabra algoritmo no se escucha tanto últimamente, la que más suena es otra que lleva meses acaparando titulares: la inteligencia artificial (IA). Durante el recorrido de la exposición, los asistentes se dieron cuenta de que la IA ya permea en capas de su vida de las que no eran ni conscientes. También se darán cuenta los lectores de este reportaje. Esto genera oportunidades, pero también retos y temores.

Por el principio: ¿qué relación hay entre algoritmos e IA? Los algoritmos son las instrucciones informáticas que sigue la inteligencia artificial; es decir, detrás de toda IA, hay un sistema algorítmico.“El término inteligencia artificial se refiere técnicamente a un modelo creado para resolver un problema específico o prestar un servicio concreto. Para crear estos modelos se necesitan dos piezas fundamentales: algoritmos de aprendizaje y datos con los que entrenarlos”, resume Celeste Campo, profesora titular del Departamento de Ingeniería Telemática de la Universidad Carlos III (UC3M) y colaboradora en The Conversation, donde escribe sobre estos temas.

Ricardo Peña, catedrático de Informática en la Universidad Complutense de Madrid (UCM), explica que hay que diferenciar entre los algoritmos clásicos,“los que calculan la nómina de un trabajador o deciden la ruta óptima en el navegador de nuestro coche y que, ante unos mismos datos de entrada, producen siempre la misma salida y esta es siempre correcta” y los sistemas de inteligencia artificial,“entrenados mediante una ingente cantidad de datos y que, ante una entrada desconocida, reaccionan en base a dicho entrenamiento previo”. Estos pueden producir respuestas incorrectas y no siempre las mismas ante entradas muy similares.

Algoritmos cotidianos

Hay algoritmos y sistemas de IA por todas partes: en los sistemas de recomendación que nos aconsejan qué ver, qué leer, qué comprar o qué amigos seguir en las redes sociales, y también en la “detección del correo basura”, ejemplifica Celeste Campo. Los hay en las “recomendaciones de personas en aplicaciones de citas, según las preferencias que hemos mostrado en selecciones anteriores, y en chats inteligentes que atienden los casos más comunes de incidencias con clientes”, añade Marco Gómez, director de Career Support en 4Geeks Academy. Sin olvidar los algoritmos en candidaturas a ofertas laborales, despidos, concesiones de créditos bancarios, hipotecas o cualquier proceso de selección que se nos ocurra.

”Llevamos décadas conviviendo con algoritmos, solo que eran residuales”, indica Gómez. ¿Qué ha hecho que ahora los algoritmos de inteligencia artificial impacten tanto en la sociedad? Según Campo,“que ahora tenemos datos suficientes que nos permiten entrenarlos y capacidad de cómputo suficiente para realizar tanto el entrenamiento del modelo como su ejecución”. Y esto no ha hecho más que empezar, dice Gómez:“A medida que la sociedad se digitaliza, evidentemente encontraremos más y más sistemas automatizados y algoritmos a nuestro alrededor”.

Además de en nuestro día a día como ciudadanos, los algoritmos se utilizan en numerosos procesos industriales. José Aguilar, investigador sénior en IMDEA Networks, resalta que la diferencia es que “con la IA se puede incluir la capacidad de autonomía, que permite la auto configuración, la auto reparación, la auto optimización y la auto regulación”. Esto se puede aplicar por ejemplo “para vigilar el tráfico, en la gestión de accidentes, en los sistemas de gestión energética para predecir la demanda y para monitorear centrales nucleares”, resume Aguilar. En concreto, Rafael López, responsable de Arquitectura de Soluciones EMEA/LATAM de Perception Point, señala que“en el sector nuclear pueden ser importantes para anticiparse a posibles incidentes en las centrales”.

Si hablamos de ciberseguridad, López indica que “existen varios estudios de predicción de ciberataques en sistemas industriales SCADA a través de la implementación del filtro Kalman, y esto logra procedimientos que reducen el riesgo y la exposición en los incidentes”. Campo, de la UC3M, añade que la IA permite detectar tráfico anómalo en la red que podría ser maligno y así evitar ataques. Ricardo Peña añade que “las cadenas de montaje de una empresa de fabricación de automóviles, o de cualquier otro producto complejo, están totalmente controladas por ordenadores y la mayoría de los trabajos los realizan robots automatizados”. También “la logística del transporte de pasajeros o de mercancías en empresas como Renfe, Iberia o Repsol se calcula mediante algoritmos deterministas de optimización de costes”.

En flujos de trabajo,“los algoritmos controlan cómo se estructuran las tareas, cómo se realizan, cuál es su orden correlativo, cómo se sincronizan y cómo fluye la información que soporta dichas tareas”, detalla Peña.

Sesgos y desinformación

Como vemos, el uso de algoritmos y de sistemas de IA es muy útil, pero también puede tener una parte mucho menos luminosa. En los sistemas algorítmicos puede haber sesgos que discriminan y nos afectan directamente. Los ejemplos que ya se han dado son muchos: algoritmos que predicen el riesgo de que una persona vuelva a cometer un delito y que sospechan más de población negra, que también sufre discriminación con los sistemas de reconocimiento facial; o el algoritmo de contratación de Amazon que dejaba fuera a las mujeres, igual que suelen hacer los sistemas de IA que conceden préstamos bancarios. También tiene un papel potente la desinformación y los filtros burbuja que los algoritmos nos pueden generar: si son ellos quienes deciden qué vemos en una red social o qué nos sugiere un comercio electrónico o una plataforma, nos quedamos restringidos a esa parte de la realidad.

Por eso, Marco Gómez, de 4Geeks Academy, cree que “hay un deber ético en quienes los desarrollan y un deber moral de la sociedad en garantizar que esos algoritmos no vayan en detrimento de nuestra humanidad ni atenten en contra de la propia sociedad”. Los algoritmos deberían contener“la más amplia diversidad de casos, para que eviten sesgos por infrarrepresentación o sobrerrepresentación y no condicionen unas respuestas sobre otras”.

Al final, un sistema de IA no deja de ser un algoritmo entrenado con datos. Si los datos tienen sesgos, habrá que tener cuidado con que el sistema no los adquiera. Además, detrás de todo desarrollo de un algoritmo hay una persona y, como Gómez recuerda,“la propia sociedad tiene sus sesgos implícitos y eso también hay que evitarlo si queremos algoritmos justos y balanceados”.

El escenario es complejo y quedan frentes abiertos, pero ante tal despliegue algorítmico hay muchas personas preocupadas: ¿gobernamos nosotros a los algoritmos, o es al revés? ¿Se dirige nuestra sociedad hacia una 'dictadura de los algoritmos'? Para responder a esta pregunta, Sara Degli-Esposti, investigadora científica en Ética e Inteligencia Artificial del Instituto de Filosofía del Consejo Superior de Investigaciones Científicas (CSIC), menciona al transhumanismo: “Esta teoría que proclama que la IA representa un riesgo existencial para la humanidad es, como toda narrativa de ciencia ficción, tan bonita como totalmente infundada”. Pero subraya que esto “no significa que estos desarrollos tecnológicos no sean problemáticos, sino que sus riesgos no se pueden entender sin pensar en las personas detrás de ese desarrollo”.

Degli-Esposti indica que se está trabajando en cómo la inteligencia artificial puede desarrollarse respetando los valores y las normas sociales: “Intentamos entender cómo cambiar el diseño de las aplicaciones para que se adapten y respeten nuestras posturas morales”.

Mientras esto se consigue, José Luis Serrano, profesor titular de Tecnología Educativa de la Universidad de Murcia (UMU), cree que “sería importante parar un poquito la avalancha que tenemos actualmente de información, o al menos dejar de pensar que estamos en una película de Hollywood; los avances impresionan, pero el mundo no va a cambiar tan rápido como parece”. Degli-Esposti también llama al sentido común: “Cuando hablamos de los riesgos y de los beneficios de la IA tenemos que desconfiar tanto de los que intentan asustarnos como de los que intentan entusiasmarnos”.

Desde un punto de vista más práctico, también hay cosas que podemos hacer para evitar que los algoritmos gobiernen nuestras vidas. Una es básica: ser conscientes de que existen.“El peligro no es navegar por internet y recibir recomendaciones, el peligro es que una persona no sea consciente de que el algoritmo está decidiendo por ella. Ojo, las recomendaciones no tienen por qué ser malas, pero la persona debe poder decidir”, afirma Serrano.

Una actitud crítica

Entonces, ¿qué actitud podemos tener ahora que somos conscientes de que los algoritmos y la IA impactan en nuestra vida? ¿Hay razones para tenerles miedo? Para empezar, Degli-Esposti incide en “la necesidad de fomentar el pensamiento crítico a la hora de usar cualquier tipo de sistema de IA”. Ricardo de Querol, subdirector de El País y autor del libro La gran fragmentación, coincide en que hay que “animar un debate social en profundidad sin catastrofismos ni tecnoutopías, sino con escepticismo y espíritu crítico”. Algo muy presente en el periodismo, donde nos enfrentamos al riesgo de la desinformación y de los contenidos generados por inteligencia artificial.

“El lector debería ser capaz de distinguir qué información ha sido hecha por humanos y cuál por una inteligencia artificial o robótica. Igual que los artículos en prensa van firmados, tendrá que firmar una IA para saber quién se responsabiliza de esa información”, indica De Querol. Sin embargo, el periodista recuerda que, aunque puede que se deleguen ciertas labores rutinarias en los algoritmos, el periodista humano no se puede reemplazar:“Una IA no podrá abordar información un poquito compleja o que requiera de análisis, que es la información verdaderamente relevante”.

Precisamente, la mayor preocupación que solemos tener respecto a la IA es que nos quite el empleo, pero Serrano considera que esto no tiene mucho fundamento “porque igual que se destruyen empleos, se crean nuevos trabajos”. En este sentido, subraya que lo que sí es muy probable es que los trabajos vayan cambiando:“Es muy complicado saber por dónde van a ir las profesiones del futuro. Yo tendría miedo como trabajador si no me gusta cambiar, si no me gusta aprender, si me preocupa mucho la incertidumbre y no veo esto como una oportunidad”.

En cualquier caso, hay cosas que la inteligencia artificial de momento no puede imitar, como nuestra creatividad. Como señala Ricardo de Querol en su libro,“es la naturaleza caótica de nuestra mente, que se despista, se equivoca y olvida, la que produce alguna genialidad”. Por esto y por otras muchas limitaciones, la IA está muy lejos de ser perfecta, señala De Querol, que atisba como problema que le demos demasiada “credibilidad” a lo que nos diga un algoritmo o una IA, y que los consideremos “superiores”. Como concluye Celeste Campo,“en nuestra mano está hacer que se empleen para mejorar nuestro futuro”.