CSN “Necesitamos la inteligencia artificial para sobrevivir como especie, para afrontar los retos del siglo XXI” - Alfa 56 Revista Alfa

Saltar al contenido

Su versión de Internet Explorer no es la adecuada para una correcta visualización de esta página web. Debe utilizar Internet Explorer 9 o superior.

Aceptar

Contenido principal

Alfa 56

La demanda de radioisótopos para el diagnóstico y tratamiento de enfermedades crece permanentemente en todo el mundo y es el tema de portada de este nuevo número de Alfa. Otro reportaje está dedicado a las convenciones internacionales dentro del mundo nuclear y radiológico, donde juegan un papel importante. también se aborda la producción alimentaria. En este número, analizamos la ciencia ciudadana y la creciente implicación de la sociedad en los proyectos de investigación y la participación en su desarrollo. Dedicamos a Severo Ochoa la sección Ciencia con nombre propio y la entrevista en este número está protagonizada por Nuria Oliver, directora de la Fundación ELLIS Alicante, un centro de investigación sobre inteligencia artificial (IA). La sección Radiografía aborda los efectos de las radiaciones sobre las mujeres gestantes, a partir del documento informativo que el CSN publicó el año pasado sobre embarazo y radiación. Un artículo técnico se aproxima al análisis de accidentes mediante la descripción de las metodologías BEPU (Best Estimate Plus Uncertainties). El otro, trata de los planes de restauración de emplazamientos nucleares y su aplicación concreta a la central nuclear José Cabrera. Por último, la sección CSN I+D, recoge un proyecto de la Universidad de Santiago de Compostela sobre la percepción pública y la información ciudadana sobre el radón.

Atrás

“Necesitamos la inteligencia artificial para sobrevivir como especie, para afrontar los retos del siglo XXI”

Nuria Oliver Ramírez (Alicante, 1970) es una reconocida experta española en inteligencia artificial y directora de la Fundación ELLIS Alicante, miembro de la red europea ELLIS de institutos de investigación en este ámbito. Tras graduarse en Ingeniería Eléctrica e Informática en la Universidad Politécnica de Madrid se doctoró en el Instituto Tecnológico de Massachusetts (MIT) en el año 2000. Su trayectoria incluye 12 años en diferentes centros de investigación de Estados Unidos y otros tantos en España y está llena de logros pioneros, como haber sido la primera mujer directora científica de Telefónica I+D, la cuarta mujer miembro de la Academia de Ingeniería o la primera científica española distinguida por la Association for Computing Machinery. Especializada en modelos computacionales de comportamiento humano y técnicas de aprendizaje automático, ha realizado contribuciones importantes en el desarrollo de la inteligencia artificial. Ha recibido, entre otros, el Premio Rei Jaume I en Nuevas Tecnologías (2021), el de Científico Europeo de Datos del Año (2019), el Nacional de Informática Ángela Robles (2016) y el de Mujer Digital Europea del Año (2016). 

Texto: Ignacio Fernández Bayo 

PREGUNTA: La inteligencia artificial lleva muchos años desarrollándose, pero desde la aparición del ChatGPT, hace un año, se ha convertido en un fenómeno mediático y de masas. ¿Hay razones para esta explosión de interés?

RESPUESTA: Sí, porque más allá del ChatGPT, en los últimos meses lo que hemos vivido es una irrupción de las técnicas de inteligencia artificial generativa, es decir, algoritmos que generan contenido, puede ser texto, pero también imágenes, vídeos, audios, con un nivel de competencia similar o superior al de los humanos, algo que nunca antes había sucedido en nuestra historia. Aunque la inteligencia artificial exista desde los años 50 formalmente como disciplina, es ahora cuando estamos experimentando el impacto que puede tener y estamos también viviendo unos sistemas con unas capacidades nunca vistas. Estas técnicas de inteligencia artificial generativa impactan de lleno también en la comunicación. Y por eso quizás también hay aún más interés en el contexto de los medios de comunicación. 

P: ¿Estas técnicas son una evolución de los sistemas expertos que ya había hace 30 años o suponen un punto de ruptura?

R: No, no es una evolución de los sistemas expertos. Históricamente ha habido dos grandes escuelas de pensamiento con respecto a la inteligencia artificial desde sus inicios, en los años 50. La primera es la escuela top-down o simbólico-lógica, que parte de la idea de que los seres humanos tenemos mucho conocimiento y si podemos representar ese conocimiento en las máquinas usando símbolos y aplicamos reglas de la lógica y otro tipo de reglas para derivar conocimiento nuevo a partir de ese conocimiento podríamos alcanzar la inteligencia artificial. Y el ejemplo canónico de este acercamiento a la inteligencia artificial son los sistemas expertos, que fueron la primera comercialización exitosa de la inteligencia artificial desde mediados de los 70 hasta mediados de los 90. La segunda escuela, que es a la que yo pertenezco y la que está experimentando esta revolución, es la que se conoce como la escuela bottom-up, o escuela conexionista, y parte de una observación distinta con respecto a los seres biológicos inteligentes: que aprendemos a partir de la experiencia, de las interacciones con nuestro entorno. Aprendemos a partir de datos. De manera que, si queremos inventar inteligencia artificial, tendríamos que ser capaces de desarrollar algoritmos que también aprendan a partir de datos.

P: ¿Y eso cómo se consigue?

R: El ejemplo canónico de esta escuela serían las redes neuronales que, aunque existen desde los años 40, en los últimos 15 años es cuando están realmente revolucionando. Yo diría que prácticamente todos los sistemas de inteligencia artificial que utilizamos hoy en día, sea generativa o no; desde un sistema para reconocer caritas en las fotos o para reconocer el habla o para hacer recomendaciones de películas, vídeos, libros... son sistemas cuyo componente fundamental es el de aprendizaje basado a partir de datos, utilizando lo que se conoce como el aprendizaje automático y dentro de este el aprendizaje profundo, y se ha conseguido por esta aproximación bottom-up.

P: ¿Qué ha cambiado en estos 15 años para esta eclosión? 

R: El motivo por el que la inteligencia artificial ha adquirido tanta relevancia en los últimos 15 años es porque se ha producido la confluencia de tres factores que han impulsado de manera exponencial las técnicas bottom-up. En primer lugar, la disponibilidad de cantidades ingentes de datos, lo que se conoce como big data. Además, datos no estructurados: vídeos, audios, textos, imágenes; datos que son fruto de la ubicuidad de la tecnología y de la huella digital que dejamos en el mundo digital, pero también son fruto de la digitalización del mundo físico, que cada vez más se está produciendo con sensores de todo tipo. El segundo factor es la disponibilidad de grandes capacidades de computación a bajo coste gracias a la ley de Moore. Y en tercer lugar es el desarrollo de modelos de aprendizaje, inspirados en las redes de los años 50, pero muchísimo más complejos, que son redes neuronales profundas o aprendizaje profundo. Y ese cóctelde tres ingredientes, datos, computación y modelos, es lo que hace que podamos hablarles a nuestros móviles o podamos inferir la estructura de las proteínas en tres dimensiones o ganarle al mejor jugador de Go del mundo. Lo importante es entender que la inteligencia artificial está transformando profundamente la sociedad y generando una riqueza trillonaria, sobre todo para un oligopolio de empresas tecnológicas.

P: ¿Podemos decir que ya se ha superado el test de Turing o es un concepto obsoleto?

R: Cuando Alan Turing propuso el test había una visión muy limitada y casi unidimensional de lo que es la inteligencia humana. Es un test en el que el humano interacciona con un sistema vía texto y recibe respuestas vía texto. Y si el humano no sabe diferenciar si las respuestas vienen de otro humano o de un sistema de inteligencia artificial, pues se dice que ese sistema artificial es inteligente. Pero ahora sabemos que la inteligencia humana es mucho más que contestar mensajes de texto. Tenemos múltiples inteligencias, muchísimas habilidades. Somos muy inteligentes aún sin utilizar el lenguaje. Evidentemente, la visión del test de Turing de lo que es la inteligencia es muy limitada. Podríamos decir que los chatbots conversacionales actuales, basados en grandes modelos de lenguaje, superan el test de Turing, porque para cualquier humano son indistinguibles de lo que otro humano te podría estar diciendo.

P: Todo este desarrollo reciente de la inteligencia artificial suscita recelos. ¿Tenemos razones para estos temores?

R: La inteligencia artificial está en el corazón de la cuarta revolución industrial, que es en la que nos encontramos inmersos. Y esta revolución industrial, igual que las anteriores, está transformando profundamente todos los ámbitos de la sociedad. En cualquier momento to histórico en el que hay una revolución industrial, hay más incertidumbre y, por tanto, mayor falta de confianza o de tranquilidad a nivel social. Hay autores que equiparan el papel que jugó la electricidad en la segunda revolución industrial con el papel que está jugando la inteligencia artificial en la cuarta. Porque, al igual que la electricidad, la inteligencia artificial es una disciplina transversal de propósito general, que se puede aplicar a cualquier campo de conocimiento y a cualquier sector. También es invisible y yo creo que ahí los modelos generativos están ayudando, porque hasta hace dos años, si tú le preguntabas a cualquier persona de la calle qué era la inteligencia artificial, probablemente te diría que robots. Aunque en realidad en su móvil ya estaban utilizando constantemente inteligencia artificial. Pero hoy en día, si tú preguntas qué es la inteligencia artificial, probablemente te contesten que es el ChatGPT.

P: ¿Entonces, la inteligencia artificial solo es software complejo?

R: Sí, estamos hablando de software. Porque, en realidad, la inteligencia artificial es invisible, como la electricidad. Es el software que hace que los sistemas sean inteligentes. Pero además la inteligencia artificial tiene dos propiedades extremadamente potentes. Nos permite no solamente explicar el pasado o interpretar el presente, sino también predecir el futuro. Y como hemos estado hablando, permite no solamente interpretar patrones, hacer predicciones, detectar o interpretar datos, sino que también nos permite generar contenido. Hay también un cierto temor hacia la inteligencia artificial, porque hay un desbalanceo entre las visiones apocalípticas de la inteligencia artificial en el contexto de los medios de comunicación y la realidad de esta herramienta. Sabemos que necesitamos la inteligencia artificial para sobrevivir como especie, para afrontar los grandes retos del siglo xxi. La inteligencia artificial tiene un inmenso potencial para el bien social y por eso trabajamos en ella y por eso yo he dedicado mi vida profesional a trabajar en ello y he contribuido a crear la Fundación ELLIS de Alicante, que tiene como objetivo la inteligencia artificial para el bien social.

P: ¿Entonces no hay nada que temer?

R: Bueno, dicho eso, al mismo tiempo no podemos ser inocentes. Hay que reconocer que la inteligencia artificial no es perfecta, que los sistemas de inteligencia artificial adolecen de una serie de limitaciones y que plantean dilemas y retos éticos que tenemos que abordar para que su potencial para el bien social se convierta en una realidad. Entonces, yo creo que ni todo es positivo, como ocurre con cualquier otra herramienta poderosa, ni todo es negativo. Lo que tenemos que hacer es ver cómo podemos maximizar ese impacto positivo y minimizar el impacto negativo. Y aquí un elemento también muy importante para fomentar o para evitar la manipulación de la formación de la opinión pública, es la educación y la divulgación científico-tecnológica. Es muy importante que la información sobre inteligencia artificial sea rigurosa.

P: Para conseguir esos objetivos ¿es necesario regular el uso y la aplicación de la inteligencia artificial?

R: Es evidente que sí, igual que se regulan todos los productos y servicios que consumimos, para asegurarnos de que el impacto de su uso no va a ser negativo. Lo extraño es que, de momento, no se regulen los sistemas inteligentes de la misma manera que se regulan otros. Es verdad que en algunos sectores regulados los sistemas de inteligencia artificial están sujetos a esa regulación. Pero, como he comentado antes, dado que la inteligencia artificial es transversal y se puede aplicar a cualquier sector, hay muchas lagunas.Como sabrás, en Europa, la Comisión Europea, en abril del 21, publicó un comunicado donde se proponía una regulación de la inteligencia artificial, conocida como el AI Act, que se espera finalice sus trámites legislativos este año con la Presidencia de España del Consejo de la Unión Europea.

P: Pero este es un fenómeno global y su regulación también debería serlo.

R: Hay otras regiones del mundo que también están trabajando en sus regulaciones o que ya las han aprobado, como China, que ha establecido una serie de normas sobre la inteligencia artificial y los sistemas generativos. Esto forma parte de un movimiento mundial. En el ámbito occidental, Europa es la región más adelantada y por eso países como el Reino Unido o Estados Unidos están también muy atentos a ver cómo evoluciona la regulación europea de inteligencia artificial para ver qué lecciones se aprenden, cuáles son las mejores prácticas, qué es lo que funciona, lo que no funciona, etcétera.

P: Hablaba antes de la importancia de una divulgación rigurosa para que la gente sepa realmente qué esperar de la inteligencia artificial y qué temer. ¿Cree que los medios se centran sobre todo en los efectos negativos, como los sesgos de género, de raza y de estatus de los sistemas de IA?

R: Bueno, los sesgos de discriminación algorítmica es un área muy activa de investigación en general y para nosotros en ELLIS Alicante también. Sí, se detectan, y podemos preguntarnos por qué se utilizan algoritmos en áreas tan importantes en la vida de las personas como decisiones judiciales o policiales, concesión de créditos, selección de empleo, acceso a programas sociales, admisiones en colegios o universidades, etcétera. Y la respuesta es porque evidentemente las decisiones humanas tampoco son perfectas. Los humanos somos susceptibles a la corrupción; tenemos amigos y enemigos; podemos tener un mal día; sentimos hambre, sueño... Tenemos unos 200 sesgos cognitivos que impactan nuestra toma de decisiones y que hacen que no sean ni justas, ni equitativas ni óptimas. La idea es que, si tenemos datos y estos son una representación fidedigna de una realidad subyacente, podemos entrenar algoritmos de inteligencia artificial a partir de esos datos y deberían ayudarnos a tomar decisiones que fuesen mejores que las decisiones humanas, que no estuviesen sujetas a esas limitaciones.

P: ¿Los sesgos de la máquina son los que les inculcan quienes las manejan?

R: Lo que hemos encontrado en estos últimos años es que esa hipótesis de que los datos son un reflejo fidedigno de la realidad es incorrecta, que a veces los datos no son un reflejo fidedigno de la realidad, que son datos parciales y contienen sesgos, o que los datos reflejan una realidad sesgada porque el mundo es imperfecto y hay discriminación. Además, a veces se diseñan mal los algoritmos, con lo cual están incorporando sesgos nuevos e incluso se están amplificando los sesgos existentes. Entonces, ese es un área muy activa de investigación, que se llama justicia algorítmica, que contempla distintos mecanismos y estrategias para conseguirla. Además, en la AI Act europea es una de las exigencias que se contemplan; por ejemplo, para los casos de uso de alto riesgo, como es la medicina, la educación, el transporte, etcétera, tiene que haber garantías de no discriminación. P: ¿Cómo se puede conseguir? R: Hay distintas familias de estrategias. Unas se enfocan en mitigar los sesgos en los datos, de manera que cuando aprendes a partir de esos datos, como has eliminado los sesgos, el sistema ya no aprende esos sesgos. Se llaman técnicas de preprocesamiento. Luego, hay familias de técnicas que se concentran en modificar los propios algoritmos para que en la función que optimizan haya un componente de justicia algorítmica, de manera que, aunque los datos estén sesgados, aprendan a tratarlos de manera justa y aprendan a tomar decisiones justas. Estas se llaman técnicas de in-processing. Y luego hay otras técnicas que consideran que independientemente de que los datos y el modelo estén sesgados el sistema no tiene por qué hacer lo que diga el modelo, y modifican las decisiones para que sean justas. Y eso se conoce como técnicas de post-processing. Y obviamente se pueden combinar las tres.

P: ¿Trabajan en alguna de esas técnicas en ELLIS Alicante?

R: Nosotros en el ELLIS Alicante, hemos inventado una técnica de pre-procesing que se llama Fairshap y estamos trabajando en la combinación de técnicas de pre-procesing con técnicas de in-procesing. Es un área muy activa de investigación, donde se están consiguiendo muchos progresos.

P: ¿Podemos decir que el algoritmo es objetivo pero los datos que lo nutren pueden no serlo?

R: Bueno, los algoritmos no tienen tampoco por qué ser objetivos. Depende de lo que tú programes y de cómo lo diseñes. Por eso hay que ser consciente en todos los pasos, en los datos, en los algoritmos y en las decisiones, en los tres estadios del desarrollo de un sistema de inteligencia artificial. Puede que los datos estén sesgados, pero también puedes diseñar un algoritmo que esté muy sesgado y también puedes tomar decisiones que estén sesgadas; por ejemplo, porque no está interpretando bien lo que te dicen los modelos y te dejas influenciar por tus propios sesgos humanos. A este respecto, un área mucho menos investigada, pero que es una de nuestras líneas, es cómo la inteligencia artificial nos puede ayudar a los humanos a entender mejor, detectar mejor y mitigar mejor nuestros sesgos. Es decir, por una parte, en el área de la justicia algorítmica, lo que hacemos es inventar algoritmos que no discriminen, pero, por otra parte, la inteligencia artificial también nos puede ayudar a los humanos a ser mejores humanos de alguna manera.

P: En esa línea, ¿nos puede ayudar también la inteligencia artificial a entender nuestro cerebro?

R: Sí, sin duda, porque el estado del arte en la neurociencia al final es digital: los niveles de activación de las neuronas del cerebro se digitalizan. El objetivo del Brain Project era crear una versión digital del cerebro humano. Una vez está digitalizado, al final son datos en un ordenador y eso es el caldo de cultivo, el alimento de la inteligencia artificial bottom up, basadas en el aprendizaje a partir de datos. En cualquier ámbito, no solo en el contexto del cerebro, donde se digitaliza un fenómeno subyacente, como sucede en física, en astrofísica, en química, en medicina... se dispone de datos no estructurados, que son susceptibles de ser analizados con inteligencia artificial. De hecho, quizás nuestra única esperanza para darle sentido a esos datos, por su volumen, por su complejidad, por su variedad... es usar inteligencia artificial.

P: Mirando al futuro, la ciencia ficción nos habla de máquinas con identidad, autoconscientes, con voluntad, emocionales, egoístas…

R: Eso es ya Inteligencia artificial general. Desde el punto de vista del nivel de competencia, los sistemas de inteligencia artificial se han dividido históricamente en tres niveles. El primero es lo que se conoce como inteligencia artificial específica. Son sistemas muy buenos haciendo una tarea, mejor que el mejor de los humanos, pero solo saben hacer esa tarea y probablemente ni siquiera saben qué significa esa tarea. Toda la inteligencia artificial actual es específica. El siguiente nivel es la inteligencia artificial general, que sería una inteligencia con el mismo nivel de complejidad y de diversidad que la inteligencia humana, incluyendo efectivamente conceptos como son la autoconciencia y las emociones. Yo creo que estamos muy lejos de conseguir la inteligencia artificial general. No sé si algún día la tendremos y no sé si como especie es algo que realmente nos interese conseguir. Y luego está el tercer nivel, que defienden autores como Nick Bostrom, de la Universidad de Oxford, que dicen ¿Y por qué nos vamos a detener en la inteligencia humana? Si la capacidad de computación continúa creciendo de manera exponencial, podríamos computaionalmente superar la inteligencia humana, dando lugar a lo que se conoce como la superinteligencia.

P: ¿Cómo sería esa superinteligencia?

R: Nosotros no entendemos esa superinteligencia, de la misma manera que una hormiga no entiende nuestra inteligencia, porque es una inteligencia superior a la nuestra. Creo que estamos muy lejos de tener una inteligencia artificial general y aún mucho más lejos de construir, si es que algún día es posible y nos interesa hacerlo, una superinteligencia.

P: ¿Esas propiedades de la inteligencia artificial general serían emergentes? Es decir, ¿nacerían espontáneamente con la creciente complejidad de los sistemas de inteligencia artificial o tendríamos que dotarles nosotros con ellas?

R: Bueno, a ver. Creo que es difícil definir y medir qué es la autoconciencia,qué es el sentimiento de la experiencia vital si no eres una entidad biológica. Hay muchas definiciones que tendríamos que redefinir en el contexto computacional. Y creo que es interesante como ejercicio filosófico y en el contexto de la ciencia ficción. Pero también está representando una distracción en la opinión pública, creando esta visión un poco apocalíptica de la inteligencia artificial y este alarmismo, cuando al mismo tiempo, de manera silenciosa, la inteligencia artificial ya ha ido penetrando en muchos ámbitos de nuestra vida sin que nos hayamos dado cuenta y sin que nadie nos haya preguntado. Lo más importante es enfocarnos en lo que ya está sucediendo con la inteligencia artificial, en las oportunidades que nos brinda y también en los retos que tenemos que abordar para que su impacto sea positivo.

P: La inteligencia artificial generativa ya es capaz de generar dibujos y pinturas, escribir novelas y poemas, pero ¿hay realmente creatividad ahí? Porque el arte es conseguir una nueva forma de expresar emociones, y si no sientes esas emociones, es muy difícil que surja.

R: Es interesante destacar y llevo ya un tiempo transmitiéndolo, que la creatividad y la creación artística es mucho más que el resultado del proceso, que la obra es el proceso en sí, es la intencionalidad, es el contexto, es el significado que tiene para el o la artista y lo que ha querido transmitir. Enfocar solo el resultado es tener una visión muy limitada de lo que es la creatividad humana y la expresión artística. Con la inteligencia artificial generativa se producen solo resultados; pero en el algoritmo no hay proceso ni intencionalidad ni significado profundo. Solo vemos el poema, la historia o el cuadro. Lo que sí puede ocurrir es que el o la artista humano utilice la inteligencia artificial como instrumento en su proceso creativo.