CSN alfa 49

Saltar al contenido

Su versión de Internet Explorer no es la adecuada para una correcta visualización de esta página web. Debe utilizar Internet Explorer 9 o superior.

Aceptar

Contenido principal

alfa 49

alfa 49

.

La ciencia de estirar el tiempo

La ciencia de estirar el tiempo

A los pocos días de comenzar este nuevo año la persona más anciana del mundo, Kane Tanaka, celebró su 119º cumpleaños en Japón con una botella de cocacola y haciendo el símbolo de paz delante de los fotógrafos. Tanaka declaró estar decidida a prolongar el récord un año más. Mientras su futuro se debate en el misterio de la biología, la investigación en envejecimiento busca en el laboratorio formas de ralentizar, e incluso de revertir, los efectos del tiempo. Desde cambios en la dieta hasta fármacos que eliminan el daño molecular de las células, el regreso de estas a un estado embrionario mediante la reprogramación, o la introducción de genes de la longevidad por terapia génica, los científicos tratan de saber si terapias experimentales que alargan y mejoran la vida en animales de experimentación son verdaderamente posibles en humanos.

 

Antonio vivió 102 años: nació el año del hundimiento de Titanic. Durante su largo siglo de vida que comenzó en 1912 fue ingeniero de caminos, inventor, empresario, profesor universitario. Patentó casi una treintena de invenciones, entre ellas: un dinamómetro simplificado, una llave de tuercas automática, un dispositivo de seguridad para motores de automóviles, un tapón irrellenable, una máquina para segar plantas, un sistema de traviesa para ferrocarril y una variedad de sistemas vibratorios para hormigón con lo que fundó su propia empresa.

A los 68 años se convirtió en aviador y poco después fundó la Asociación de Amigos del Autogiro, que presidió hasta casi su muerte. Con 93 años la Federación Aeronáutica madrileña le nombró mejor deportista del año —era uno de los que más kilómetros de vuelo había hecho—, premio que recibió justo antes que un muchacho de 12. Envejeció despacio: primero necesitó un audífono, después bastón, después silla de ruedas. A partir de los 100, fármacos para las alucinaciones. Antonio fue mi abuelo.

La vida de un hombre es solo un parpadeo, “entre dos oscuridades, un relámpago” en el poema de Vicente Aleixandre, pero junto al resto de singularidades compone una historia mayor. En este caso la historia trata sobre la duración de la vida: vivimos el doble que hace 100 años. Si en 1920 la vida media en el mundo era de unos 35 años, en 2019 fue de 73, y en muchos de los países más ricos superó los 80 años: España, Suiza, Italia y Australia, por ejemplo, llegaron a los 83 años. En cabeza, año tras año, lidera Japón: la esperanza de vida es de 87 para las mujeres japonesas y 81 para los hombres. En cuanto a los centenarios, las cuentas del Instituto Nacional de Estadística dicen que en 2020 hubo en España 17.308. Veinte años antes no llegaban ni a la tercera parte.

Hasta en las noches más oscuras el deseo ancestral de vivir se revuelve. Vayamos a ello, entonces. Vivimos más, pero: ¿cuánto tiempo podremos darle esquinazo a la muerte?

Las células durmientes

Manuel Serrano es uno de los mayores expertos en envejecimiento del mundo y actualmente dirige el programa de Envejecimiento y Metabolismo en el Instituto de Investigación Biomédica de Barcelona (IRB). Para él y otros muchos científicos, uno de los cambios más relevantes en investigación sobre envejecimiento en los últimos años ha sido considerarlo como un proceso sobre el que se puede actuar, quitando parte de su condición irremediable. “Envejecer es un proceso que es manipulable, no digo que sea completamente evitable, pero es manipulable: se puede acelerar y se puede retrasar”, afirma.

Los científicos han ido aumentando la longevidad en animales por distintos caminos. María Blasco, directora del Centro Nacional de Investigaciones Oncológicas, y el mismo Serrano crearon en 2008 Triple, una estirpe de ratones superresistentes al cáncer y súper longevos: su esperanza de vida era un 40% superior. Los Triple provienen de cruzar ratones a los que Blasco introdujo por terapia génica el gen de la telomerasa —una especie de reloj biológico que marca el envejecimiento de las células— con los ratones transgénicos de Serrano que contaban con tres genes —p53 entre ellos, el llamado “guardián del genoma”— protectores frente al cáncer. Pero fuera del laboratorio vivir tiene su precio y, a medida que envejecemos, nuestras células acumulan daños moleculares que, pasado un determinado umbral, no pueden ser reparados. En este momento las células tienen tres opciones: mutar en cancerosas, autodestruirse — apoptosis, en jerga científica— o entrar en un estado semidormido llamado senescencia. En un principio se pensaba que las células senescentes eran relativamente inofensivas pero en los últimos años han cambiado su papel en el proceso de envejecer.

“Hoy se entiende, y hay muchos datos sobre ello, que muchas enfermedades degenerativas que ocurren con el envejecimiento en realidad son un envejecimiento acelerado y focalizado en un órgano. Esto es lo que ocurre con el fallo renal, la fibrosis hepática, el fallo respiratorio, la arterosclerosis, las enfermedades neurodegenerativas como el Alzheimer... Todo esto entra dentro de un cierto debate pero hay muchos científicos que piensan que es un envejecimiento acelerado causado por las células senescentes”, explica Serrano. La buena noticia es que unos fármacos especiales —los llamados fármacos senolíticos— podrían eliminarlas lo que llevaría a un rejuvenecimiento del organismo. “Esto se ha demostrado extensivamente estos últimos años en animales de experimentación, pero también hay ensayos clínicos que se están haciendo en varios países del mundo intentando demostrar su beneficio terapéutico. No se están haciendo ensayos para retrasar el envejecimiento —esto es muy complicado de demostrar por requerir mucho tiempo y por los costes asociados—, se están haciendo para ver si estos fármacos evitan determinadas enfermedades en las que hoy se entiende que ocurre un envejecimiento prematuro focalizado en un órgano”, explica Serrano. La senescencia podría compararse con los procesos inflamatorios que son similares en muchas enfermedades y se tratan con el mismo rango de medicamentos inflamatorios. “Si entramos en los detalles esto es mucho más complicado, pero las células senescentes son más o menos parecidas, se acumulan en distintos órganos, y se pueden tratar con los mismos fármacos, al menos en esta primera generación de fármacos antisenescencia celular”, añade. Muchos de estos ensayos se están haciendo en la helada Minnesota, en la famosa Clínica Mayo con la que Serrano y su equipo colaboran buscando propiedades físicas en estas células durmientes para poder detectarlas por resonancia magnética. “Estamos haciendo ensayos clínicos en el departamento de nefrología del Hospital de Bellvitge y en el de oncología del Vall d’Hebron y tenemos ya datos con pacientes, pocos, pero estamos acumulando más y más datos muy interesantes, muy prometedores, y esto puede ser muy importante. Si esto funciona sería el método para evaluar la eficacia de las terapias senolíticas. En todas las terapias médicas es siempre esencial poder tener una medida, no lo puedes dejar a algo subjetivo. Es importante decir: hemos tratado con este fármaco y había un número X de senescencia y hemos disminuido en tanto”, explica el investigador. Ciencia Benjamin Button Otro avance reciente roza los límites de lo imaginable: la posibilidad de “rejuvenecer” las células usando una técnica de reprogramación descubierta por el científico japonés Shinya Yamanaka. Una especie de historia de Benjamin Button. En 2012, Yamanaka y el británico John B. Gurdon recibieron el premio Nobel de Medicina y Fisiología por sentar las bases para desandar el camino de una célula: pasar de la madurez de una célula adulta a la juventud de una célula madre —en jerga científica, célula pluripotente— llena de posibilidades. Volver al principio como si el tiempo no hubiera empezado a contar. En concreto, Yamanaka determinó que modificando solo cuatro genes de células adultas, que obtuvo de la piel, estas retrocedían en el tiempo a un estado similar a células embrionarias que tienen la capacidad de convertirse después en cualquier tejido, una especie de lienzo en blanco. Poco después, el equipo de Serrano fue el primero en demostrar que es posible realizar esta técnica dentro del organismo, in situ, hasta entonces sólo se había hecho in vitro. Y posteriormente, otro español, Juan Carlos Izpisúa Belmonte del Instituto Salk en California, demostró que si tan solo se iniciaba la reprogramación y se hacían retroceder a las células en el tiempo de forma transitoria y reversible para luego regresar a su identidad original, también en ese caso “rejuvenecían”. Para Serrano, “este avance es muy importante porque por primera vez permite rejuvenecer de manera relativamente fácil y reproducible a células, y esto tiene un impacto beneficioso en todo el organismo, como se ha demostrado con ratones. Esta técnica aún está lejos de su aplicación para salud humana pues de momento requiere introducir genes, lo cual es complejo y poco práctico, y estos genes entrañan riesgos, cáncer principalmente, pero hay mucha investigación para conseguir controlar y dominarla usando fármacos”. Ante estos descubrimientos la pregunta es inevitable: ¿hasta dónde se puede llegar a especular con la longevidad? ¿Existe un límite para la vida humana? “Te diré que la mayor parte de los investigadores que trabajamos en envejecimiento estamos más interesados en enfermedades concretas que consideramos un proceso de envejecimiento acelerado, porque esto es algo más factible, más realista y muy importante. Pero, por supuesto, claro que especulamos y aquí nos gusta también poner las cosas en contexto: con medidas simplemente en el estilo de vida, la longevidad de los humanos se ha multiplicado por 2 en 100 años: si era 40 años en 1900, es más de 80 en el 2000 y no ha habido fármacos ni tratamientos sofisticados. Han sido simplemente los antibióticos, el agua salubre, la alimentación, que es mucho mejor ahora...”, responde Serrano. Todos esos factores se han ido sumando para aumentar la longevidad. La pregunta entonces es ¿se puede llegar más lejos con fármacos, con tratamientos más sofisticados? “Estoy seguro, y estoy seguro de que esto se conseguirá. No va a ser algo inmediato, no va a ser un salto de un día para otro, será progresivo y seguiremos viendo como el envejecimiento saludable sigue alargándose y alargándose. Hoy día creo que la experiencia de todos nosotros es que las personas de 70 años son personas activas, sanas, la mayor parte, y que llevan una vida muy satisfactoria en todos los sentidos. Estoy seguro de que más adelante esta situación que describo para las personas de 70 años, será aplicable a los que tienen 80, y algún día a los que tienen 90, y la longevidad irá alargándose poco a poco, estoy seguro. Y habrá fármacos que serán capaces de mejorar, de ayudar, en este proceso”. El cuarteto: ejercicio, nutrición, control del estrés y suplementos José Viña, catedrático de Fisiología en la Universidad de Valencia, dirige desde hace más de 30 años un grupo que investiga cómo mejorar la vida en la vejez, el Freshage Age and Exercise Research Group. Viña, 68 años, calcula que lleva 30.000 kilómetros hechos en bicicleta por Valencia. Juega al tenis, practica pilates, medita, come mucha fruta, pescado, y toma un suplemento multivitamínico. “Después me pasa una cosa que es importante en ciencia: aquí casi todo lo que piensas sale mal, si no a todos nos habrían dado el premio Nobel. Para estar en ciencia hay que ser optimista y se ha demostrado epidemiológicamente que los optimistas viven más. Y yo soy optimista”. 10 | alfa 49 Telómeros: la longitud de la vida En el año 2009 las biólogas Elizabeth Helen Blackburn y Carolyn Widney Greider recibieron el Premio Nobel de Medicina y Fisiología por “su descripción molecular de los telómeros y la identificación de la enzima telomerasa”. Blackburn usa la siguiente metáfora: si piensa en sus cromosomas —que transportan el material genético— como si fueran cordones de zapatos, los telómeros serían las pequeñas puntas protectoras del final. Los telómeros son unas secuencias cortas de ADN que se repiten y están recubiertas de proteínas especiales y, en conjunto, sirven de protectores del final de las hebras de ADN. El problema es que a lo largo de nuestra vida los telómeros tienden a desgastarse, a acortarse, y cuando ya no pueden proteger a los cromosomas, las células empiezan a funcionar erráticamente. Esto provoca cambios fisiológicos en el organismo que se ha comprobado que aumentan el riesgo de sufrir las principales enfermedades del envejecimiento: enfermedades cardiovasculares, diabetes, cáncer, debilitamiento del sistema inmunitario... De esta forma, el acortamiento de los telómeros es uno de los muchos procesos del envejecimiento que se han investigado en los últimos años. Una enzima, sin embargo, la telomerasa, es capaz de poner freno a este proceso. Su trabajo es añadir ADN a los extremos de los cromosomas de forma que puede ralentizar y revertir parcialmente el acortamiento de los telómeros, otorgando así a las células una suerte de “inmortalidad”. El problema: aplicada de forma permanente, la telomerasa se mueve entre un delicado equilibrio entre alargar la vida y aumentar la incidencia de cáncer porque beneficia por igual a células sanas o enfermas. El siguiente paso era encontrar la manera de suministrarla de manera temporal. En 2012, el equipo de María Blasco en el CNIO llevó a cabo la primera terapia génica contra el envejecimiento utilizando como vehículo un virus para poner el gen de la telomerasa en ratones. Eligieron un virus que rápidamente se diluía de forma que el efecto era como poner una única dosis de telomerasa. Lograron así aumentar la vida en ratones sin provocarles cáncer. Pero su aplicación en humanos todavía es lejana. Mientras se avanza en tecnologías relacionadas con investigación en telómeros, en su libro “La solución de los telómeros”, Elizabeth Blackburn y la psicóloga Elissa Epel proponen que controlar el estrés crónico, hacer ejercicio, comer mejor y dormir suficiente pueden alargarlos, o al menos, impedir que se acorten. w Imagen de los telómeros de los cromosomas. CNIO Para Viña, médico, el fondo del problema del envejecimiento es que no tenemos posibilidad de reparar el daño molecular que ocurre con el paso del tiempo al cien por cien y, por tanto, la inmortalidad hoy no está al alcance de la ciencia. “Eso ya está probado en animales de experimentación. Nosotros en el laboratorio tenemos moscas en las circunstancias más óptimas, pero acaban envejeciendo; tenemos ratones en las condiciones más óptimas, pero acaban envejeciendo. Este es el problema aquí: que la reparación del daño no se puede hacer al 100%”. Por experimentos en gemelos univitelinos se sabe que la longevidad tiene al menos dos componentes: uno de ellos es genético y podría representar hasta el 20%, y el otro gran 80% son factores ambientales entre los que están los hábitos de vida. De momento se conocen varios genes de la longevidad —p53, telomerasa, age-1— y en experimentos de biología molecular en animales se ha comprobado que cuando se sobreexpresan, cambia la longevidad. En el grupo de Viña estudian centenarios y en ellos se ve muy bien la importancia de esta parte genética. “Son familias; por ejemplo, la tuya y la mía. Mi madre murió la semana que cumplió 99 y ya teníamos la mesa del restaurante preparado. Y su madre, mi abuela, murió con 101, y su hermana con 92. Hay un elemento genético que esperemos que nos pase a ti y a mí que se ve muy bien que se da en la centenariedad. Por ejemplo, ahora estamos estudiando un gen que se llama bcl, que hemos visto que se sobreexpresa en centenarios. Y resulta que cuando nosotros sobreexpresamos ese gen, por ejemplo, en moscas, viven más. Los genes de la longevidad pueden ayudar a aumentar la longevidad un 10, 15 o 20%, que son 20 años, eh, pero de ahí a decir usted vivirá 1000 años... Hoy eso no está al alcance de la mano”. Puesto que la parte genética que heredamos de momento no podemos cambiarla, nos queda el medio ambiente. “El problema actual donde nos estamos centrando más, desde luego mi grupo, es más que en alargar la vida, en alargar la vida saludable. Eso en términos médicos se llama evitar la fragilidad. Estamos buscando sistemas para aumentar la calidad de vida, dicho en términos médicos, para retrasar la fragilidad, que lleva a la dependencia y eso es del máximo interés en geriatría. No le voy a poner a un niño un gen para que viva más. De momento no es sensato. La terapia génica del envejecimiento es difícil de extrapolar al humano. Ojo, porque en el animal se hace y viven más. Pero en este momento, la terapia génica del envejecimiento no está a corto plazo en humanos. ¿Qué podemos hacer? Cuatro cosas: ejercicio, nutrición, control del estrés y suplementos. Con eso uno puede alargar la vida 15 años.” Y Viña da los siguientes datos: en Europa, el 40% de las personas de más de 65 años están deficientes en proteínas, no comen bastante. En muchas partes de España y Europa (especialmente en el norte del continente) hay déficit de vitamina D. Una solución es dar suplementos de proteínas y vitaminas. “Mi madre no hubiera vivido tanto si no le hubiéramos dado suplementos de proteínas porque comía muy poco. Con los multivitamínicos no se ha demostrado que haya toxicidad con esas dosis relativamente bajas y la misma pastilla te cubre a ti que a mí. Pero debemos hacer mucha medicina personalizada, es decir, ¿a usted qué le falta? O bien al menos personalizada de grupo: al grupo de personas como usted, ¿qué les suele faltar? Repito que no todos los mayores son iguales: un señor de 70 que corre 5 km al día no es lo mismo que su hermano mayor que tiene 86 y que no sale de casa”, concluye Viña. De lo que se trata con este cuarteto de ejercicio, nutrición, control del estrés —por ejemplo, con técnicas de meditación y vida social— y suplementos, en ese orden de importancia, es buscar elementos de calidad de vida que lleven a aumentar la vida media, más que aumentar la vida máxima: es decir, que mucha gente llegue a 80 más que haya muchos centenarios. En un reloj de sol que diseñó Antonio, mi abuelo, sobre la dorada piedra caliza, reza la leyenda: “Hora est benefaciendi”. Es la hora de hacer el bien. Murió una tarde apacible y caliente de principios de verano, después de comer y de echarse la siesta.


Extraños elementos dominan el mundo

Extraños elementos dominan el mundo

 

Nuestra sociedad, cada vez más dependiente de las tecnologías, se encuentra de nuevo en una encrucijada. Los dispositivos electrónicos que nos rodean a diario requieren en la mayoría de los casos del uso de tierras raras, un conjunto de 17 elementos químicos que por sus características físico-químicas se han convertido en el “oro tecnológico” del siglo XXI. Sin embargo, los métodos de extracción de estos materiales, poco amigables con el medioambiente, llevaron al grueso de las potencias a no invertir en su producción e importar estos materiales. Ahora China tiene el control del mercado de tierras raras y decide cuándo, dónde y con quién. Se presentan retos para el uso y distribución de estos elementos con propiedades increíbles, y quizás el mayor de ellos sea dar con el modo de poder extraerlos de una forma sostenible y sin dañar el entorno.

“Como quizás ya sepan, los minerales que se consideran cada vez más valiosos en el mundo son aquellos que se utilizan en la fabricación de teléfonos móviles y ordenadores: itrio, terbio, osmio, disprosio, etcétera. Todos escasean. Y el problema es aún más acuciante porque China tiene su enorme garra de panda firme sobre casi todas las minas que producen estos valiosos y escasos minerales de la Tierra”. Así justifica Peter Isherwell, el histriónico y multimillonario empresario que representa a ciertos magnates de la tecnología en la hilarante película Don’t Look Up, la decisión de dar marcha atrás a la misión que trata de destruir el cometa Diviasky antes de que colisione contra la Tierra causando la extinción de toda vida en el planeta. La razón de cancelar la última oportunidad de la humanidad para evitar un trágico final es simple: el cometa alberga una cantidad desorbitada de tierras raras. Aunque en el mundo real no debemos enfrentarnos al impacto de una roca enorme que viaja a altas velocidades por el espacio en dirección a nuestro hogar, existe una parte del relato que ficción y realidad comparten: el creciente interés por estos elementos químicos, que han pasado de ser los olvidados de la tabla periódica a ser los causantes de un conflicto geopolítico de primer orden en cuestión de décadas. Ytterby, donde todo empieza El descubrimiento de las primeras tierras raras se lo debemos, en parte, al teniente sueco Carl Axel Arrhenius, que estando destinado en un archipiélago cercano a Estocolmo (Suecia) durante 1788 encontró en una mina de feldespato cercana al pueblo de Ytterby un extraño material oscuro. Arrhenius, que había estudiado química en la Casa Real de la Moneda, sabía que aquel hallazgo no podía tratarse de carbón debido a su gran peso, de modo que decidió hacer llegar la muestra al químico Johann Gadolin. Tras analizarla, Gadolin concluyó que aquella piedra contenía un elemento nuevo, que más tarde recibiría el nombre de gadolinita en su honor. Aunque la gadolinita se desestimaría años después al tratarse de una mezcla de silicatos en lugar de un solo elemento, de aquella cantera salieron las primeras tierras raras conocidas por el ser humano: en homenaje a Ytterby recibirían los nombres de itrio, terbio, erbio e iterbio, distinción envidiable para un pequeño pueblo y caso único en la tabla periódica. Ytterby fue el escenario de partida de una búsqueda que se prolongaría durante más de un siglo y que daría como resultado una lista de diecisiete elementos: escandio, itrio y el grupo completo de lantánidos. Aunque el nombre que ha perdurado para designar a estos elementos sea el de las tierras raras, ni son tierras, ni son tan raras. Antiguamente el término «tierra» se utilizaba para denominar a los óxidos, compuestos de varios elementos químicos. Durante años se pensó que muchos compuestos eran tierras raras, hasta que la llegada de la espectroscopía pudo finalmente ayudar a los químicos a diferenciar los compuestos de los elementos más básicos en base a sus líneas espectrales. Con respecto al segundo término, conviene aclarar que estos elementos no son raros debido a que haya una menor abundancia de ellos en el planeta. De hecho, algunas tierras raras, como el itrio o el neodimio, son bastante comunes, mucho más que otros elementos tan ubicuos como la plata. Sin embargo, sí resulta poco común encontrar tierras raras puras, ya que suelen estar adheridas a otros materiales, de ahí que su extracción requiera bastante esfuerzo además de causar un impacto ambiental destacable. Baotou, infierno y paraíso En la región interior de Mongolia, perteneciente a la República Popular China, se encuentra el área minera de Baotou, principal explotación de tierras raras a nivel mundial y tristemente conocida por el impacto ambiental que ha causado la mina Bayan Obo del complejo industrial Baogang Steel and Rare Earth en el entorno de sus instalaciones. De la operación de extracción de tierras raras ha derivado la creación de un lago artificial, que más bien recuerda a un vertedero de desechos tóxicos, un cementerio humeante y gris que no ha parado de crecer desde los años cincuenta. Y es que una de las aristas más puntiagudas y preocupantes de la dependencia de las tierras raras es su modelo de extracción, altamente contaminante. Existen diferentes métodos dependiendo del tipo de suelo en que se encuentren estos materiales. Para zonas con abundancia de monacita, un grupo de varios minerales que suelen contener tierras raras, se recurre a la lixiviación para separar los distintos materiales mediante el uso de un disolvente líquido, generalmente ácido sulfúrico, que ataca al mineral a una temperatura media de 200 ºC. Evidentemente el proceso no acaba aquí, ya que para obtener tierras raras de gran pureza es necesario limpiar la muestra con tratamientos entre los que se incluyen hidróxidos de amonio y sodio, ácidos, sulfatos y otras sustancias. Aunque las tierras raras presenten similitudes entre ellas, no todas responden a los mismos tratamientos ni logran precipitarse solo ante el uso del ácido sulfúrico. Y esto solo en el caso de la monacita. Se estima que producir una tonelada de tierras raras genera en torno a 100.000 m³ de gas residual que contiene, entre otros compuestos, dióxido de azufre y ácido sulfúrico. También produce alrededor de una tonelada de residuos radiactivos como torio y uranio, además de contaminar alrededor de 75.000 litros de agua, un bien que en no pocos lugares escasea. Entonces, ¿por qué se asume el coste medioambiental de extraer estos materiales? La justificación se halla en la multitud de aplicaciones de las tierras raras, que gracias a sus propiedades magnéticas y ópticas se han convertido en un activo muy valioso para la sociedad industrializada y en motivo de discordia para las potencias mundiales. La Edad de las tierras raras Las propiedades de las tierras raras están íntimamente ligadas a su configuración atómica y electrónica. Los diecisiete elementos se caracterizan por tener un comportamiento químico muy similar; generalmente el estado de oxidación de las tierras raras suele ser trivalente (+3) y son elementos muy estables. Sus átomos suelen presentan un gran apantallamiento en sus orbitales externos, un efecto derivado de las fuerzas de repulsión que ejercen los electrones entre sí y el cual hace que arrancarlos de uno de estos átomos requiera del uso de mucha energía. Debido precisamente a sus similitudes químicas suelen encontrarse juntos, de ahí que su extracción y separación también sea complicada. Son tantas las aplicaciones de estos elementos que podríamos decir que, al igual que en su momento la humanidad experimentó las tres Edades —de piedra, de bronce y de hierro—, en la actualidad vivimos inmersos en la frenética Edad de las tierras raras. Las encontramos en aleaciones metálicas (cerio y erbio), en los discos duros de nuestros ordenadores (terio e iterbio), en cualquier televisor plano (europio e itrio) o incluso en un marcapasos (prometio). Para la producción de electricidad a partir de turbinas, presentes en casi la totalidad de las llamadas energías verdes o renovables (salvo el caso de la fotovoltaica), se recurre al uso de imanes permanentes, compuestos generalmente por neodimio o por una aleación de samario y cobalto. En los microondas, en los rayos láser, en la calibración de instrumentos de observación astronómica, en medicamentos y tratamientos contra el cáncer o la artritis reumatoide… estos extraños elementos dominan el mundo y su utilización, en algunos casos, parece ser inevitable. Uno de los campos donde el papel de las tierras raras parece indispensable es la óptica. Concepción Cascales, profesora de investigación del Instituto de Ciencia de Materiales de Madrid (ICMMCSIC), lleva años trabajando en el Grupo de Materiales Láser y Luminiscentes con Tierras Raras del centro. Allí desarrollan todo tipo de materiales basados especialmente en lantánidos trivalentes, desde láseres de estado sólido hasta nanopartículas luminiscentes. “Una de las ventajas de los láseres basados en tierras raras es que presentan emisiones en longitudes de onda características, específicas de cada lantánido, y que abarcan desde el ultravioleta hasta el infrarrojo cercano”, comenta la investigadora. Otra de las aplicaciones más novedosas, explica Cascales, es la utilización de nanopartículas dopadas con tierras raras, que “pueden utilizarse como nanosondas en bioimagen, en luminiscencia o como agente de contraste en resonancia magnética. Y también en termometría sin contacto, como una especie de nanotermómetros que pueden introducirse en las células. Cabe pensar en usar estas nanopartículas como plataformas capaces de incorporar simultáneamente todas esas funcionalidades”. Y aunque quizás se podría pensar en hacer todo esto con otros materiales, en la actualidad no hay aún ningún sustituto adecuado. Félix Jiménez-Villacorta es doctor en Física y actualmente se encuentra en el hub estratégico de tecnologías neutrónicas ESS Bilbao. Durante años ha investigado las posibles alternativas a los imanes permanentes fabricados con tierras raras, otra de las aplicaciones más rentables de estos elementos. “La aplicación fundamental de los imanes que tienen tierras raras es la generación de energía”, comenta. Para generar electricidad necesitamos un campo magnético, y este es el principio que siguen todas las turbinas para producir energía. Sin embargo, “para generar una corriente eficiente durante mucho tiempo debemos tener un imán muy estable, que no pueda desimanarse. Los que se utilizan en los aerogeneradores eólicos pueden pesar de una a cuatro toneladas, y además deben ser muy duros magnéticamente. Esta eficiencia solo la consigues con tierras raras”, resume. Pese a ello, Jiménez-Villacorta señala que se pueden fabricar imanes permanentes sin estos materiales, aunque no se alcancen unas condiciones tan favorables, como es el caso de los imanes de ferrita. “Otra solución es reciclar los imanes que ya no se utilicen, ya que estos no pierden sus propiedades con el paso del tiempo”, concluye. Al mejor postor La Unión Europea, EE. UU. y Japón denunciaban hace una década ante la Organización Mundial del Comercio (OMC) la necesidad de iniciar una investigación contra China debido a las restricciones impuestas por el país asiático a la hora de exportar tierras raras y otras materias primas. Desde entonces, la presión en torno a estos materiales no ha hecho más que crecer en paralelo al liderazgo de China en el sector. Pandemia por medio, los precios se han encarecido y China ha aprendido a usar esta superioridad como moneda de cambio para conseguir aquello que desee. Mario Esteban, investigador del Real Instituto Elcano y profesor del Centro de Estudios de Asia Oriental de la Universidad Autónoma de Madrid, considera que la clave es la alta concentración de la producción de tierras raras en China ya que “es el país con las mayores reservas de tierras raras del mundo, con el 44 %, pero el porcentaje de la producción de estas tierras raras que concentra es significativamente mayor, casi monopolístico en algunas de ellas”. La razón de este monopolio se esconde tras la estrategia liberal que adoptaron las potencias mundiales en las pasadas décadas y que llevaron a la mayoría de países a importar estos elementos en lugar de producirlos: “Si China quiere asumir el coste medioambiental de la extracción de tierras raras, que lo hagan ellos y nosotros ya compraremos el producto final. Este era el pensamiento de países como Estados Unidos hace no tanto”, explica Esteban. Por supuesto, la situación ha cambiado, en parte porque “en un contexto de creciente competencia geopolítica, particularmente entre Estados Unidos y China, Pekín puede utilizar su control sobre las tierras raras como palanca para intentar influir sobre otros países que las necesitan”, dice el experto. Ahora las tierras raras son un activo importante a alfa 49 | 15 | REPORTAJE | El maravilloso club de los 17 Número Nombre Año de Algunas Abundancia atómico descubrimiento aplicaciones (ppm)* 21 Escandio (Sc) 1879 Luces de alta intensidad, industria aeroespacial 22 39 Itrio (Y) 1794 Tubos de rayos X, baterías y láseres 33 57 Lantano (La) 1839 Tratamientos médicos, vidrios ópticos 39 58 Cerio (Ce) 1803 Catalizador en la extracción de petróleo, motores de combustión interna 66.5 59 Praseodimio (Pr) 1885 Discos duros, cámaras y piezas de aviación 9.2 60 Neodimio (Nd) 1885 Imanes, motores y baterías híbridas 41.5 61 Prometio (Pm) 1944 Láseres para submarinos y satélites 0,00001 62 Samario (Sm) 1853 Disminución del dolor en pacientes terminales 7.05 63 Europio (Eu) 1901 Fibra óptica y coloración del rojo en las pantallas 2 64 Gadolinio (Gd) 1880 Resonancias magnéticas, diagnóstico de enfermedades 6.2 65 Terbio (Tb) 1843 Circuitos electrónicos y fósforos 1.2 66 Disprosio (Dy) 1886 Discos duros y reactores nucleares 5.2 67 Holmio (Ho) 1878 Coloración de vidrio, láser médico 1.3 68 Erbio (Er) 1843 Gafas de sol y fósforos 3.5 69 Tulio (Tm) 1879 Instrumentación médica 0.52 70 Iterbio (Yb) 1878 Odontología y aleaciones de acero 3.2 71 Lutecio (Lu) 1907 Medicina nuclear, Catalizador en la extracción de petróleo 0.8 Óxidos de tierras raras: praseodimio, cerio, lantano, neodimio, samario y gadolinio. TERENCE WRIGHT *ppm = partes por millón de la corteza terrestre nivel económico, íntimamente relacionado con las nuevas tecnologías y punto clave en la transición energética. Estados Unidos, Australia, Rusia o Brasil no pueden permitirse incertidumbres ni quieren depender de China. Por ello, según Esteban, “están impulsando proyectos de producción de estos elementos en sus territorios. Y a la par, también encontramos empresas que llevan un tiempo buscando tecnologías alternativas; por ejemplo, en el sector automotriz, que es uno de los más dependientes”. Sin embargo, y aunque el resto de países decidan iniciar ahora proyectos propios para la extracción de estos materiales, China presenta una ventaja decisiva y fulminante, y es que “la sociedad civil no tiene capacidad en el país para imponer sus prioridades a las autoridades”, resume Esteban: las principales explotaciones de tierras raras en China se encuentran en zonas con un nivel socioeconómico muy bajo, de modo que su población asume el coste medioambiental de estas actividades contaminantes por necesidad. Esto da un margen a las autoridades difícil de imaginar en otros países como Australia. Un horizonte incierto Las tierras raras no dejarán de ser un activo valioso para los países, al menos no en un futuro inmediato, y su aplicación en determinados sectores parece ser inevitable, de modo que cabe preguntarse: ¿Cómo podemos minimizar el impacto de estos elementos en nuestras vidas? La extracción de tierras raras deberá ir acompañada de un compromiso real por parte de las autoridades a la hora de sancionar a aquellas empresas cuyo impacto ambiental supere las recomendaciones de los expertos. La investigación dedicada al desarrollo de nuevas aplicaciones para estos elementos deberá complementarse con estudios que exploren todas las posibilidades alternativas siempre que eso sea posible y, por supuesto, para tratar de encontrar métodos menos dañinos para el entorno. Posibilidades factibles, recomendadas y anheladas, aunque quizás la respuesta más sensata sea la misma para todos los problemas que enfrenta la humanidad; decrecer, por derecho propio más que por necesidad.


El subsuelo de internet

El subsuelo de internet

La web profunda, la que se halla debajo de la capa superficial donde llegan buscadores como Google, no es solo lo que nos han contado: además de una pequeñísima parte más oscura —la Dark Web, asociada sobre todo a actividades ilegales—, la mayor parte es utilizada a diario. Cuentas bancarias, redes sociales o intranets son algunos ejemplos entre las millones de páginas invisibles que se ocultan en la red, y que también sirven para posibilitar privacidad y anonimato en países con regímenes que coartan la libertad.

Cuando un internauta comienza a navegar por la red y abre un buscador web como Google, no es consciente de las conexiones que van a realizarse para que su búsqueda culmine con éxito. Comprar algo en una tienda digital, corroborar una información o encontrar el próximo vuelo u hotel son acciones que comienzan con un tecleo. Por ejemplo, si buscamos la palabra ‘búho’, Google nos devuelve 23.700.000 resultados de páginas. Parecen muchas, pero en realidad conforman una parte no tan grande de la web: es la llamada web superficial o clear web, esa que todos conocemos y usamos a diario. Estas páginas están indexadas, es decir, son encontrables a través de motores de búsqueda. Por eso acuden a nuestra llamada cuando tecleamos. Hay otras que no. Más abajo de esa web superficial, hay otra gran parte de internet que se conoce como Deep Web o web profunda. Allí se encuentran algunas de las cosas que suelen aparecer en los medios de comunicación —actividades delictivas, tráfico de armas, espionaje, blanqueo de dinero—, pero también muchísimas otras. De hecho, las primeras representan una parte ínfima frente a las que encontramos si excavamos un túnel subterráneo y digital para llegar a las verdaderas profundidades de la red. Las primeras redes de comunicación entre ordenadores nacieron en los años 60 en el Massachusetts Institute of Technology. En 1981 se definieron los protocolos de comunicaciones actuales de internet, en 1989 el físico Tim Berners-Lee, con 34 años, inventó la World Wide Web y en 1991 publicó la primera página web. Desde entonces, el número de ellas no ha dejado de crecer de manera (casi) exponencial. El hito de mil millones se alcanzó en septiembre de 2014 y fue tuiteado y confirmado por el propio Berners-Lee a partir de datos de Internet Live Stats, que contabiliza en tiempo real los movimientos en la red. A finales de enero de 2022 había ya 1.921.931.574 sitios web online. Visibles. Conviene diferenciar entre internet y web. “Desde el punto de vista técnico, internet es la infraestructura, un conjunto de redes interconectadas, de protocolos de comunicación y procesos”, explica José M. Barceló, profesor del Departamento de Arquitectura de Computadores de la Universidad Politécnica de Cataluña (UPC). La web son los contenidos. Así, a través de la WWW accedemos a ellos, distribuidos por todo el mundo, pero ¿cómo encontrarlos? “Tras el nacimiento de internet, más y más personas pudieron alojar contenido y ofrecer acceso a él. Pero había tanta información que hubo que crear una manera de buscarlo. Es como una biblioteca donde hay cada vez más libros; si las estanterías no estuvieran ordenadas sería muy difícil encontrar uno concreto”, explica desde Kuala Lumpur Josep Curto, profesor de la Universitat Oberta de Catalunya (UOC) y fundador de AthenaCore. Así es como el subsuelo empieza a hacerse más profundo e invisible y esos casi dos mil millones de sitios web se quedan en la superficie. De la web profunda... Entre todos esos contenidos empezaron a diferenciarse dos tipos: los que son indexables (esos 1.921.931.574 que van fluctuando) y los que no. “Lo que hace un motor de búsqueda es ir buscando servidores donde están los recursos indexables”, indica Barceló. Por ejemplo, Google. El gigante tecnológico lo explica en su web, y replica la analogía de la biblioteca: “Incluso antes de que empieces a buscar, en Google organizamos la información sobre las páginas web en el índice de búsqueda. Este índice es como una biblioteca, pero contiene más información que todas las bibliotecas del mundo. (...) Cientos de miles de millones de páginas web que, juntas, superan los 100.000.000 de gigabytes. Es similar al índice analítico de un libro: dispone de una entrada para cada palabra de cada página web que indexamos. Al indexar una página web, añadimos al índice todas las palabras que contiene”. ¿Qué pasa con los contenidos no indexables? En 2001, Michael Bergman dio nombre a todo lo que es invisible a los ojos de los motores de búsqueda tradicionales (Google, Yahoo!, Bing, DuckDuckGo...) y de la mayoría de usuarios de internet: había nacido la Deep Web. Como recoge el informe de buenas prácticas Principios y recomendaciones básicas en Ciberseguridad del Centro Criptológico Nacional de España, la principal razón de la existencia de la internet profunda es la imposibilidad de que los motores de búsqueda encuentren e indexen gran parte de la información existente en ella. Pero también hay contenidos no indexados deliberadamente. “Cuando queremos que se encuentre algo, lo damos de alta en los navegadores para que actúen los mecanismos de búsqueda e indexación de forma periódica. Pero algunos contenidos están en la Deep Web porque el creador no quiere que sean encontrados”, indica Curto. Llega el momento de coger impulso y excavar aún más hondo, donde se esconden los últimos flujos de información: cuando hablamos de casos de uso dentro del marco de la ilegalidad, hablamos de la Dark Web. ... a la más oscura “Si la Deep Web hace referencia a todo el contenido de internet que no está indexado por los buscadores tradicionales y que, por lo tanto, está oculto, la Dark Web o web oscura hace referencia a una parte específica de la Deep Web, en la que su contenido sí puede considerarse peligroso y más difícil de acceder”, resume Marcos Gómez, subdirector de Servicios de INCIBE-CERT, el centro de respuesta a incidentes de seguridad del Instituto Nacional de Ciberseguridad. Son términos, por lo tanto, muy diferentes, y “no deben usarse como sinónimos”. La web oscura, ese subconjunto de la web profunda, solo es accesible utilizando determinados navegadores web, las darknets o redes oscuras. Freenet e I2P son dos de ellas, pero la más conocida es Tor (The Onion Router o el router cebolla), un proyecto diseñado e implementado por la Marina de los Estados Unidos en 2002. El objetivo era fortalecer las comunicaciones por internet y garantizar el anonimato y la privacidad. “Para comprender el funcionamiento de Tor, debemos tener en cuenta que las conexiones que realizamos suelen ser directas: se traza una ruta del ordenador al router, del router a nuestro proveedor de internet y de ahí al servidor de la página web que queremos visitar”, explica Mercedes Muñoz, ingeniera de ciberseguridad en Telefónica Tech. Pero Tor usa el “enrutamiento de cebolla”, de ahí su nombre. “Se puede comparar con una malla, en la que cada nodo es un dispositivo conectado a esta red. En Tor, no hay una conexión directa, sino que se realizan al menos tres saltos entre los nodos de la red, que se corresponden con servidores gestionados por diferentes personas y organizaciones de todo el mundo”, detalla. Una vez instalado Tor, el paso natural es entrar en The Hidden Wiki (la wiki oculta), un listado distribuido en categorías donde están los enlaces a las páginas invisibles. Los dominios de Tor acaban en .onion y suelen ser ininteligibles, para aumentar la dificultad de su rastreo. “Hace unos años se mejoró el protocolo porque las URL eran muy cortas; se decidió hacerlas más largas y temporales”, explica la ingeniera. Por ejemplo, http://r6rfy5zlifbsiiym.onion/ es una librería de cómics. Esta navegación es más segura y las búsquedas son mucho más difíciles de rastrear. Por eso, no solo se utiliza con fines delictivos; también lo hacen usuarios que quieren proteger su privacidad. “Hay empresas que la utilizan porque implica un sistema de comunicaciones muy seguro”, explica Barceló. De hecho, la línea entre web profunda y web oscura puede ser complicada de entrever. Por ejemplo, “la intranet de mi empresa es Deep Web y hace falta una aplicación para entrar en ella, pero no por eso es Dark Web”, explica Jorge Louzao, hacker ético y colaborador de C1be3wall Academy de la Escuela de la Policía Nacional. En la compañía para la que trabaja, una de sus misiones es rastrear la Deep Web para verificar que no se publica información de la empresa. “Cuando hay un ataque y filtran información, acaba ahí. Hay casos de chantaje y amenazas antes de liberar la documentación, dinero mediante”, explica Louzao. Uso cotidiano La Deep Web son secciones de las páginas web que no pueden ser indexadas, pero “también aquellas que requieren de un mecanismo de autenticación para acceder, por lo que se presenta en la vida cotidiana”, explica desde Bogotá Diego Espitia, ingeniero electrónico, hacker y consultor sénior de seguridad en ElevenPaths, el equipo de ciberseguridad de Telefónica Tech en Colombia. Son las ocasiones en las que usamos usuario y contraseña, como “cuando accedes al correo electrónico desde el móvil, estás leyendo mensajes, consultas tu servicio médico o accedes a algún servicio del Estado. En estos casos, se busca adrede que no sean contenidos encontrables. La página web es pública pero lo demás no es accesible”, explica Barceló. Publicaciones científicas, documentos gubernamentales, ficheros almacenados en plataformas de almacenamiento en la nube (como Dropbox o Google Drive), foros privados y otras bases de datos privadas. Todo forma parte de la web profunda y solo es necesario tener el enlace y las credenciales para acceder. Como se deduce, “muchos de los contenidos que podemos encontrar en la Deep Web son legítimos y no son peligrosos, pero esta parte de internet sí es utilizada para fines no tan lícitos, cercanos a la cibercriminalidad o totalmente ilegítimos, sobre todos aquellos que se encuentran en la Dark Web”, recuerda Marcos Gómez del INCIBE. El portal de noticias sobre gadgets y tecnología Xataka hizo un par de incursiones con el objetivo de relatar qué se encontraban (“Una semana en la Deep Web. Esto es lo que me he encontrado” y “Una semana en la Deep Web, tres años después”), y hallaron cosas inimaginables y otras al límite de lo inmoral: gente que busca a alguien que hackee sus notas de la universidad; patentes de energía alternativa; venta de armas nucleares, drogas y medicamentos ilegales; mercenarios; falsificaciones; pornografía en todos sus posibles escenarios; compraventa de personas y órganos; y cientos de teorías conspiranoicas. También información curiosa e interesante, como Hidden Answers (respuestas escondidas), una especie de Quora o Reddit, y hasta una emisora de radio digital propia: Deep Web Radio. Pero, en esencia, la principal ventaja que ofrece utilizar las profundidades de la web es “preservar la privacidad durante la navegación, por ejemplo, para mantener el anonimato en sitios web de opinión; compartir información libremente sin que se conozca nuestra identidad; y acceder a contenidos que no están disponibles en nuestro país”, señala Gómez. Esto nos lleva a algunas situaciones muy particulares. “La Darknet se usa mucho en periodismo y personal de ONG en zonas de conflicto. Es una manera de conectarte a internet de forma más segura que la normal”, revela el hacker ético Jorge Louzao. En países con regímenes como China, con su gran cortafuegos, que censura y vigila internet, “posibilita saltarse estas normas y poder acceder a otros portales de información y plataformas: te conectas a Tor, y tu conexión va saltando por sus capas, por esos nodos de salida con los que el firewall chino no va a entender tu tráfico ni a poder detenerlo”. Así, “las personas que se encuentran en países bajo dictaduras y con limitaciones pueden conectarse sin restricciones y comunicarse con el resto del mundo. Es otra herramienta más que, según el uso que se le dé, puede suponer un beneficio o un problema para la sociedad”, señala Mercedes Muñoz, de Telefónica Tech. La experta recalca que, pese a la fama que se le ha conferido, “navegar en la Deep Web en absoluto es ilegal, también es una forma de reportar sucesos en diferentes países y compartir contenido”. El futuro de la web Una cosa está clara: al navegar por las web dejamos mucha información en ellas. Especialmente en las redes sociales, que han creado una forma especial de indexación: “Tienen sus propios jardines de contenido indexado: algunos se pueden encontrar con buscadores, pero otros están vallados dentro de la red social”, explica Curto. Con tantos datos sensibles, “las utilidades son realmente infinitas en términos de procesamiento de información y de mejoras en los servicios, y de esto se nutren muchas de las grandes empresas del mundo digital”, señala Diego Espitia, de Telefónica Tech. El experto pone el ejemplo de Google, que empezó siendo un buscador y acabó creando servicios de correo electrónico, mapas y muchos más servicios. “Desde el punto de vista del aprovechamiento de datos, se puede mejorar la vida de los ciudadanos con datos anonimizados que son extraídos de la Deep Web”, analiza Espitia. El profesor de la UPC José M. Barceló añade la inteligencia artificial (IA) a la ecuación: “La evolución del mundo de internet está en la IA, las empresas están analizando todos los datos de la web visibles para ofrecer servicios personalizados”. Pero esta no es la única tendencia. El nombre del padre de la World Wide Web vuelve a aparecer, treinta años después. Tim Berners-Lee, ahora con 66 años, quiere volver a revolucionar internet. Para ello ha creado Inrupt, una empresa enfocada en la identidad y privacidad digital, que acaba de conseguir una financiación de 30 millones de dólares. “Está trabajando en un proyecto para darle una vuelta de tuerca al concepto de la web y convertirlo en algo más privado y seguro, donde tengamos el control de nuestros datos y decidamos con quién y para qué los compartimos”, señala Jorge Louzao Penalva. Algo que choca directamente con la situación actual de redes sociales y explotación de los datos por los gigantes tecnológicos. En un momento bisagra, en el que todas las tecnologías están bullendo y empezando a implementarse de manera real, la web es el primer reducto que se debe abordar de manera responsable para impactar positivamente en la sociedad. Berners-Lee lo dijo muy claramente en Boston Magazine: “Lo importante es que, por primera vez, los usuarios (y no las grandes empresas tecnológicas) tendremos el control de nuestros datos, lo que significa que los sitios web y las aplicaciones se crearán para beneficiarnos a nosotros y no a ellos”.


El combustible de la discordia

El combustible de la discordia

 

Formado únicamente por un protón y un electrón, el hidrógeno es el elemento químico más sencillo y antiguo de todo el universo. Y podría tener la llave para la urgente descarbonización que requiere la industria mundial, donde los combustibles fósiles ostentan un papel que debe disminuir si queremos alcanzar los objetivos climáticos propuestos. Su utilización en vehículos, un ámbito clave en términos ambientales, está en el horizonte. Tanto España como la Unión Europea se encuentran desarrollando ambiciosos planes para impulsar esta tecnología, aunque muchos expertos dudan que pueda desbancar a los coches de baterías debido, entre otras cosas, a su bajo rendimiento energético y su todavía excesivo coste de producción.

La teoría del Big Bang dibuja un nacimiento del universo donde, en tan solo unos segundos y bajo una temperatura de diez mil millones de kelvin, se formó casi todo el hidrógeno que existe, además de helio y un tanto de litio. De hecho, la molécula más antigua del universo, denominada “HeH+”, es un híbrido entre hidrógeno y helio, los dos primeros elementos que integran la tabla periódica. Desde aquel momento, inmensas cantidades de hidrógeno salpican el espacio por todas partes, desde el corazón de las estrellas hasta la atmósfera de los planetas gaseosos, llegando a componer tres cuartas partes de toda la materia cósmica. Sin embargo, su carencia de neutrones le otorga una masa atómica insignificante: 1,00784; es tan ligero y volátil que la gravedad que ejerce nuestro planeta es incapaz de retenerlo, por lo que el poco hidrógeno que se produce de forma natural, como sucede en las expulsiones de gases volcánicos, se escapa rápidamente hacia el espacio exterior. Si quisiéramos salir a buscarlo, habría que viajar a Júpiter, la acumulación natural de hidrógeno más cercana a la Tierra. El hidrógeno, pues, no constituye una fuente de energía, ya que no lo podemos obtener directamente en su estado puro, sino que debe ser extraído de otros compuestos. La gran reserva de este elemento químico a nuestro alcance reside en los ríos, mares y océanos que pueblan nuestro planeta. Y es que, mientras que el hidrógeno gris y el hidrógeno azul se producen a partir de combustibles fósiles, como el gas natural (con emisión de CO2 ), la obtención del hidrógeno verde (o renovable) radica en la división, mediante electrólisis, de moléculas de agua. Este hidrógeno, cuya producción es inocua para el medioambiente, puede ser almacenado en una celda de combustible ubicada en un vehículo, que lo va transformando en electricidad a medida que este la necesita mediante una conversión que únicamente expele vapor de agua. Otra manera de utilizar el hidrógeno es cuando este es quemado en contacto con el aire, produciendo grandes cantidades de calor como energía con una mínima emisión de contaminantes. El combustible más ecológico El principal argumento que convierte al hidrógeno verde en un combustible a tener en consideración para el futuro es su nula emisión de gases contaminantes a la atmósfera. “Estamos hablando de cero emisiones. La pila de combustible, equivalente al motor, transforma el hidrógeno almacenado a bordo y con el oxígeno presente en el aire se genera electricidad. Es una conversión electroquímica, no una combustión como ocurre con los motores de diésel o gasolina, lo que ofrece mayores rendimientos ecológicos”, explica Carlos Merino, responsable de la Unidad de Simulación y Control en el Centro Nacional del Hidrógeno. Actualmente, la mayor parte del hidrógeno comercial se obtiene a partir de gas natural o metano. La inclusión del hidrógeno renovable es, según Carlos Merino, “una de las palancas para conseguir esa neutralidad de emisiones que se persigue”. “El hidrógeno, a diferencia de los motores eléctricos (de baterías), permite una mayor integración de energía renovable en la industria del transporte, gracias a su enorme capacidad de almacenamiento de energía”, añade. Otra gran ventaja reside en el hecho de que, mientras los coches eléctricos necesitan varias horas para ser recargados, el hidrógeno verde permite una alta velocidad de repostaje, similar a la que ofrecen los combustibles tradicionales, además de una muy alta autonomía. “Hablamos de unos 5 o 7 minutos de recarga. Además, ofrece un gran grado de alcance, ya que otorga rangos de unos 600 o 700 kilómetros por cada repostaje, situándolo en una situación muy favorable para el uso”, detalla Carlos Merino. El hidrógeno es, por encima de todo, un buen conservador de energía. “Podemos almacenar energía en forma de hidrógeno durante mucho tiempo, como, por ejemplo, de verano a invierno, y en cantidades ingentes, en orden de teravatios-hora, cifras que serían inimaginables en una batería”, explica Miguel Antonio Peña, investigador del Consejo Superior de Investigaciones Científicas (CSIC). “El uso de hidrógeno en vehículos es algo adicional a lo que es toda la tecnología de hidrógeno, que engloba más aplicaciones en numerosos campos como la industria (especialmente la petroquímica), la producción de fertilizantes y la elaboración de metanol, entre otras”, añade el investigador. Una de las claves para allanar el camino en clave hidrógeno es reducir el coste de producción de energías renovables, sobre todo de los componentes para producir y usar hidrógeno. “Se ha avanzado en este asunto desde los años 90, en una tendencia que se ha visto acompasada con las demandas de hidrógeno, más barato y más limpio. Desde el inicio de este siglo, la tecnología ha mejorado mucho, sobre todo en la durabilidad de los sistemas y en la inversión para implementar electrolizadores, pilas de combustible…”, relata Miguel Antonio Peña. “El informe de McKinsey & Company (2020) hizo previsiones sobre cómo va a bajar el precio del hidrógeno verde durante las próximas décadas en función de la demanda, las instalaciones… comparado con cómo va a subir el precio del hidrógeno gris debido únicamente a las emisiones de CO2 ”. Y este prevé que, en el año 2030, en España será más barato el verde que el gris. Además, dado que el origen de este vector energético son fuentes renovables, países como España podrían aprovechar su favorable situación climática para generar grandes cantidades de electricidad, no solo con la finalidad de autoabastecerse sino también para exportar al norte de Europa, generando una “gran oportunidad para desarrollar considerablemente el tejido industrial nacional”, agrega. Obstáculos sustanciales Las desventajas que rodean al hidrógeno como combustible a gran escala no tienen tan poco peso como su núcleo atómico. Estamos ante un elemento que, para empezar, puede llegar a ser muy peligroso debido a su alta inflamabilidad, una característica que retrotrae a un famoso acontecimiento histórico. En 1937, el zepelín Hindenburg de la Alemania nazi, propulsado por hidrógeno, estalló en llamas en el cielo de Nueva Jersey en medio de una tormenta eléctrica, en un suceso que acabó con la vida de 36 personas que iban a bordo. Desde aquel momento, aunque investigaciones posteriores lo exculpan del estallido, el hidrógeno adquirió una mala reputación y fue sustituido por helio a la hora de abastecer estos vehículos. A pesar de que el hidrógeno constituye el mejor combustible con diferencia a nivel de densidad energética por kilo, superando en este aspecto con creces las prestaciones de la gasolina, el petróleo y el gas natural, lo cierto es que posee muy poca densidad energética en términos de volumen, donde su rendimiento es verdaderamente pobre. Para paliar con esta desventaja, existen diferentes fórmulas: “Hasta ahora, la más utilizada ha sido comprimir el hidrógeno para almacenarlo, lo cual genera pérdidas energéticas. Otra forma es licuarlo, enfriándolo a temperaturas de 253 ºC bajo cero, pero se consume mucha más energía al mantenerlo líquido”, explica Miguel Antonio Peña. Una opción adicional la conformarían los hidruros metálicos, aleaciones de metales con hidrógeno, que forman un compuesto sólido capaz de almacenar este combustible, pero son muy caros y pesados, por lo que su utilización no es rentable a gran escala. En la actualidad, se está planteando otra forma de hacerlo, sobre todo enfocada al uso del hidrógeno para largas distancias: el uso de amoniaco, que se obtiene haciendo reaccionar hidrógeno con el nitrógeno del aire. “El amoniaco es muy fácil de transportar y su eficiencia al hacerlo líquido es enorme”, indica Miguel Antonio Peña. “En el lugar donde se va a utilizar, se lleva a cabo la reacción contraria, descomponiendo el amoniaco en hidrógeno y nitrógeno de nuevo”. Otra posibilidad, aunque más controvertida a nivel medioambiental, sería almacenar hidrógeno en el subsuelo, en grandes bolsas o cavernas a presión, algo que ya ocurre con el gas natural. Por otro lado, un problema derivado de la composición del hidrógeno es que, al ser una molécula tan pequeña, es muy propenso a filtrarse y ocasionar fugas en los tanques donde se almacena, por lo que se necesitan materiales de revestimiento especializados muy resistentes para contenerlo de un modo adecuado. Otra gran problemática del hidrógeno como combustible masivo es la gran cantidad de energía que se pierde en todo el proceso involucrado en su obtención, transporte y almacenamiento. La electrólisis posee una eficiencia media de entorno al 80 %; una vez generado, la compresión y enfriamiento le resta aún más rendimiento, circunstancia que se incrementa cuando la célula de combustible envía el hidrógeno al motor trifásico del vehículo. “De cada 100 electrones que salen de la turbina eólica o de la placa fotovoltaica, apenas 30 llegan a la rueda”, calcula Emilio de las Heras, ingeniero naval y experto en energía y cambio climático. “Para alimentar una flota de aproximadamente dos mil quinientos millones de coches, que habrá en 2040, a base de hidrógeno electrolítico, se necesitará el doble o el triple de instalaciones renovables para producir la electricidad necesaria. Esto, para la sociedad, es insostenible”, declara. En el caso de los coches eléctricos de batería, en contrapartida, el rendimiento oscila entre el 75 y el 80 %. “El hidrógeno solo tendrá un futuro brillante allá donde no sea posible la electrificación”, augura Emilio de las Heras. Por ejemplo, esta tecnología podría ser útil para las personas sin garaje propio que no pueden cargar sus baterías eléctricas en la calle, aunque hará falta la creación de una gran red de hidrogeneras para sostener este sistema; a día de hoy, únicamente hay 2 en España. “La gran mayoría del transporte marítimo será alimentado por hidrógeno, ya que no hay manera de hacer llegar la electricidad en trayectos largos”, explica. El hidrógeno, a su vez, podrá tener una oportunidad en el transporte pesado por carretera, siempre y cuando existan suficientes estaciones de servicio en los principales puertos del país. Descarbonizar la economía Una de las responsabilidades más importantes que tiene la humanidad con respecto al planeta estriba en reducir el uso de combustibles no renovables en beneficio de alternativas más ecológicas. En esta dirección, durante las últimas décadas, numerosos países han puesto en marcha planes para impulsar al hidrógeno renovable, invirtiendo grandes cantidades de dinero en su desarrollo al considerarlo uno de los principales ejes en materia de medioambiente para las próximas décadas. “El hidrógeno verde se posiciona como una opción prometedora frente al uso de combustibles fósiles, que no tienen cabida en la energía del futuro”, dice Adrián Fernández Carrasco, Coordinador de Movilidad en Greenpeace España. Con las vistas puestas en 2030, la Unión Europea ha lanzado una estrategia para descarbonizar los sectores energéticos, teniendo como objetivo instalar 40 gigavatios de electrolizadores y diez millones de toneladas de hidrógeno renovable en el territorio comunitario. España, por su parte, cuenta con su propia hoja de ruta del hidrógeno, alineada con la Estrategia Europea del Hidrógeno, con la que pretende conseguir, en dos décadas, 4 GW de potencia y diferentes hitos energéticos en el marco de unas inversiones públicas que podrían alcanzar los 8.900 millones de euros, con la mirada puesta en un sistema eléctrico 100 % renovable para no más tarde de 2050. La mayoría de energéticas españolas se ha subido al tren del hidrógeno verde. Repsol, con su proyecto SHYNE (Spanish Hydrogen Network), ha invertido 3.230 millones de euros con la meta de alcanzar una capacidad instalada de 500 MW en 2025 y de 2 GW en 2030. Iberdrola, por su parte, ha presentado el Clúster de Hidrógeno Verde Puerta de Europa, que integrará hasta 600 MW de electrolizadores. Otras compañías eléctricas como Naturgy, Enagal o Enel también han puesto en funcionamiento iniciativas en línea con la transición energética que, a manos del hidrógeno renovable, cerrará paulatinamente las puertas de la industria al carbón y creará nuevos modelos de negocio disponibles. En nuestro país ya se han podido observar coches a celda de combustible de hidrógeno, como el Toyota Mirai y el Hyundai Nexo, aunque la oferta se espera que sea incrementada cuantiosamente durante los próximos años. Asimismo, la red de transporte de Barcelona ya dispone de un autobús de pila de hidrógeno, que se abastecerá de la primera planta de hidrógeno de uso público en España, la instalación de Iberdrola en la Zona Franca; mientras tanto, la empresa Alsa ha estrenado uno en Madrid que operará en una línea regular. “Hay una progresión cada vez más creciente de la implantación de energías renovables que nos va a traer una serie de excedentes de producción en determinados tramos horarios. El principal destino de estos excedentes podría estar en la obtención de ese hidrógeno verde”, comenta Adrián Fernández. “Desde Greenpeace, consideramos que habría que hacer una jerarquización y priorizar el uso de hidrógeno verde para aquellos usos que no admitan una electrificación directa, como puede ser el transporte pesado por carretera o el marítimo, que es lo que más difícil tiene la transición a eléctrico de batería. Si se plantea para todo el transporte, también para automoción a hidrógeno, las cifras no dan y estaríamos ampliando la dependencia a los combustibles fósiles de cara a un futuro”. A día de hoy, el transporte depende en más de un 95 % de combustibles fósiles, por lo que el desafío es mayúsculo. No obstante, de acuerdo con Greenpeace, debe vigilarse el riesgo de generar una burbuja de hidrógeno, pues no deben descuidarse otras patas necesarias para lograr la tan deseada transición energética. “Desde luego, la actuación no se puede limitar a coger todo lo que hay y pasarlo a cero emisiones con el mismo escenario y la misma cantidad de desplazamientos porque simplemente no salen las cifras, independientemente de que se utilicen tecnologías de baterías, de hidrógeno o de biocombustibles”, concluye Adrián Fernández. Para otros, como Vaclav Smil, científico y miembro de la Real Sociedad Canadiense, considerado uno de los mayores expertos mundiales en el campo de la energía, todo esto es “tan solo un cuento de hadas”. “No existe producción comercial de hidrógeno verde, todo forma parte del típico grandioso europlanning”, apunta. “Llámenme cuando haya al menos unas pocas plantas comerciales de hidrógeno verde produciendo millones de toneladas del gas”.


Los cimientos de la Tierra se derriten

Los cimientos de la Tierra se derriten

 

El 25 por ciento del suelo del hemisferio Norte está congelado; es el llamado permafrost. Sobre él se asientan poblaciones, carreteras e infraestructuras y de él depende el equilibrio de un ecosistema tremendamente especializado. Además, encierra un secreto: millones de toneladas de carbono preso en sus entrañas que si se deshelara se sumaría a las crecientes emisiones de gases de efecto invernadero. El cambio climático está calentando el doble de rápido estas zonas que las del resto del planeta, lo que parece amenazar a esta capa subterránea y, con ello, al resto del mundo.

 

U na cuarta parte del suelo del hemisferio Norte está congelado permanentemente, según el Centro Nacional de Datos de Nieve y Hielo. En total, más de 20 millones de kilómetros cuadrados repartidos entre las altas cumbres del Tíbet y de las Montañas Rocosas de EE.UU., y bajo los vastos paisajes casi siempre blancos de Siberia, Alaska, Canadá y Groenlandia. Están en los Alpes, Pirineos y demás picos que superan los 3.000 metros de altura. En la mitad sur del planeta también hay sustrato helado, pero mucho menos porque tiene más océano y menos tierra. Allí, habrá que escalar los Andes, alcanzar los confines de la Patagonia y excavar muy profundo en la Antártida para encontrarlo. El permafrost no se ve, porque lo tapa el paisaje que se deshiela y congela según se suceden las estaciones. Pero esta tierra subterránea, aislada de la intemperie, permanece por debajo de cero grados, al menos durante dos años seguidos. Aunque mucha de ella lleva milenios así. Hasta ahora. “El permafrost, en el conjunto del planeta, se está calentando. De media, su temperatura ha aumentado 0,29 grados centígrados”, avisa Marc Oliva, investigador principal del Grupo de Investigación de Entornos Antártico, Ártico y Alpino de la Universidad de Barcelona. Y la razón parece ser el calentamiento global, señala la investigación en la que participó y que fue publicada en 2020 en Nature Communications. Un calentamiento mundial sí, pero desigual. El Ártico se está caldeando tres veces más rápido que el resto del planeta. En menos de medio siglo, de 1971 a 2019, la temperatura media anual en esta región ha subido 3,1 °C, mientras que en general solo aumentaba alrededor de 1 grado. Esta es la llamada de atención del último estudio del Programa de Vigilancia y Evaluación del Ártico del Consejo Ártico, que es el principal foro donde interaccionan los ocho estados árticos (Canadá, Dinamarca, Finlandia, Islandia, Noruega, Rusia, Suecia y Estados Unidos). Y el calor derrite el hielo, también el que no se ve a simple vista. En el año 2100, el área de permafrost más vulnerable, el que está más cerca de la superficie, habrá disminuido entre un 2 y un 66 por ciento, en el supuesto más favorable, aquel en el que la humanidad restringe mucho la cantidad de gases de efecto invernadero vertidas a la atmósfera. Porcentaje que puede llegar al 99 por cien si persiste el nivel actual de emisiones. Estas son las estimaciones que maneja el último Informe especial sobre el océano y la criosfera en un clima cambiante, publicado por el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), en 2019. Las consecuencias ya se están empezando a notar. El 20 de junio del año pasado, la estación meteorológica de Verkhoyansk llegó a los 38 °C , la temperatura más alta jamás registrada por encima del círculo polar ártico. Los habitantes de esta remota zona de Siberia, como también los de otras áreas de Suecia y Alaska, sufren olas de calor cada vez más frecuentes, que provocan incendios forestales incontrolables. Además, están padeciendo plagas y cambios en sus ecosistemas, pues el encharcamiento provocado por el deshielo no le va bien a las plantas que alimentan a especies emblemáticas como los renos y los osos, lo que está forzando a migraciones masivas de especies salvajes. También, afecta a las infraestructuras: carreteras, edificios, instalaciones... que están firmemente construidas sobre este sustrato helado, que es tan duro como el hormigón... hasta que se derrite. Esta fue la causa de la mayor catástrofe medioambiental en el Ártico: el vertido de petróleo que se produjo en la región rusa de Norilsk, en 2020. El tanque que lo contenía se derrumbó por el deshielo del sustrato sobre el que se asentaba. Según un artículo publicado el año pasado en Environmental Research Letters, a partir de los datos recogidos por satélites de la Agencia Espacial Europea, más de la mitad de las comunidades e infraestructuras árticas estarán “en riesgo” por el deshielo del permafrost, en las próximas tres décadas. Esto preocupa especialmente a Rusia, ya que aproximadamente el 60 por ciento de su territorio se asienta sobre permafrost. Es tal la alarma que la prensa internacional se hizo eco de la decisión tomada por el presidente ruso Vladimir Putin de revisar la vulnerabilidad de las infraestructuras clave de su país, tales como gasoductos, centrales nucleares y vías de comunicación. Aunque no hay que irse tan lejos. “En latitudes como la nuestra, donde el permafrost es casi residual y se entiende como algo exótico, la sociedad no percibe como problema su deshielo”, señala Oliva. Lo que no sabe es que por encima de los 3.000 metros de altura, este hielo invisible es el que mantiene “pegadas” las montañas. Es el caso de las cumbres de Pirineos, Picos de Europa y Sierra Nevada. También, del Piz Cengalo, en los Alpes, que sufrió un derrumbe en 2017 que sepultó a ocho personas y supuso el desalojo de todo el valle. Esos días, las temperaturas fueron inusualmente altas. Chimeneas de carbono Lo que pasa en el Ártico, no se queda en el Ártico. Este es el título del informe que publicó hace años Greenpeace para concienciar sobre el impacto global que tiene el deshielo de las zonas polares. No solo puntualmente afecta a las poblaciones que pisan permafrost, sino a todos los habitantes del planeta. El texto avisaba de que “según se caliente el Ártico y retroceda el hielo, los mecanismos de retroalimentación, entre ellos, una menor capacidad de reflexión del hielo (el llamado albedo) y la liberación de los gases de efecto invernadero de su largo almacenamiento en el permafrost, provocarán un aumento del cambio climático mundial”. Los terrenos congelados son un sumidero de carbono. Algunas estimaciones consideran que hay el doble de este elemento en el permafrost que en la atmósfera. Toda una caja de Pandora. Por una parte, contiene grandes cantidades de carbono orgánico en forma de plantas y animales que al morir se acumularon sin descomponerse, debido a la baja temperatura. Pero, sobre todo, tiene atrapadas grandes cantidades de metano antiguo, que proviene de los momentos en los que se estaba formando el permafrost. En climas fríos, en entornos de alta presión y ausencia de oxígeno, el CH4 que producen organismos anaerobios a partir de la materia orgánica puede reaccionar con el agua a punto de congelarse y formar hidratos de metano. Estas son moléculas de H2 O que cristalizan dejando una cavidad en la que queda literalmente atrapado el gas. Su apariencia es la del hielo corriente con diminutas burbujas de aire en su interior. Mientras el carbono siga almacenado, no hay problema. Pero, con el aumento de las temperaturas y la consecuente eliminación de las capas superficiales de hielo, quedará expuesta la materia orgánica muerta, que se descompondrá en dióxido de carbono, el célebre CO2 , y metano que irán a parar a la atmósfera. No hay que olvidar que el metano puede retener hasta 80 veces más calor que el CO2 , así que podría contribuir a que aumentara aun más la temperatura del planeta. Esto, a su vez, supondría más deshielo y más emisión de GEI y, por ende, más calor. Se podría desencadenar un mecanismo de retroalimentación conocido como la amplificación ártica. ¿Cuánto condicionará al clima global? No hay consenso aún para dar una respuesta. “El impacto dependerá de cuánto carbono tiene atrapado realmente la gran extensión de permafrost ártico, que es lo que más preocupa a la comunidad científica”, señala Oliva. El Informe del IPCC de 2019 estimó que ‘el permafrost de las regiones ártico y boreal contienen entre 1.460 y 1.600 Gigatoneladas (Gt, igual a mil millones de toneladas) de carbono orgánico”. Lo que supondría que almacena más de una cuarta parte del carbono global del suelo de la Tierra. El mismo texto cree bastante posible que, hacia final de este siglo, el permafrost degradado libere anualmente entre un 0.01 y 0.06 Gt de CH4 /año, equivalente a las emisiones de 300 millones de coches, 12 veces los que tiene España . Esto “tiene potencial para acelerar el cambio climático”, alerta. Un artículo posterior, publicado en enero de 2021 en la revista Geoscientific Model Development, va más allá y considera que estas emisiones producirán un aumento adicional de las temperaturas globales de alrededor de 0,2 grados centígrados, en 2100. Puede parecer poco pero cada pequeña variación importa si se tiene en cuenta que pasar de 1,5 grados a 2 a finales de siglo puede suponer o no la desaparición total de todos los arrecifes de coral o la extinción del doble de insectos, plantas y vertebrados, aclaraba en un estudio anterior el IPCC. Otros estudios se muestran más optimistas. Es el caso del publicado en la revista Siberian Environmental Change en 2020 que, aunque llega a cifras parecidas de emisiones de metano del orden del 0,02 Gt al año, a mediados de siglo, solo en Siberia, concluye que esto supondría un aumento de la temperatura global de menos de 0.02 grados centígrados. La investigación concluye que “la retroalimentación entre el deshielo de los humedales siberianos y el clima global se ha sobreestimado significativamente”. En la misma línea se encuentra un artículo publicado en 2020 en la revista Science, que sugiere que tras el fin de la última glaciación hace 12.000 años, cuando el hielo que cubría gran parte del globo se retiró hasta los límites actuales, sí aumentó el metano atmosférico pero no procedió del encerrado en el permafrost, sino que tuvo otro origen, como los incendios forestales o la descomposición de la materia orgánica que se produjo en los lagos que surgieron. “El hallazgo sugiere que las emisiones de metano que se prevén en respuesta al calentamiento futuro no será tan grande como algunos han sugerido”, concluye el estudio. La pradera del mamut Otra incógnita es si el medio podrá adaptarse y compensar con la suficiente rapidez los cambios del permafrost. En el informe de 2019 del IPCC se plantea que quizás al retroceder el hielo, el terreno será colonizado por plantas que capturen de manera natural parte del CO2 emitido. Un artículo posterior, de septiembre de 2021, publicado en Nature, duda que “los ecosistemas árticos tengan la capacidad de recuperación para resistir nuevas tensiones”. Opinión que comparte Fernando Valladares, director del grupo de Ecología y Cambio Global en el Museo Nacional de Ciencias Naturales: “secuestrará algo pero nunca el total del exceso producido porque la nueva vegetación de tundra no es nada exuberante: se compone de arbustos enanos, praderas, musgos, líquenes y árboles dispersos, y la fotosíntesis que se da en esos climas fríos es baja. Si, además, se tiene en cuenta que cambiar una superficie blanca por una oscura aumenta la absorción de radiación, el efecto sumidero de la vegetación ve reducido su alcance”. La capa vegetal superficial sí puede ser un aislante que preserve el subsuelo. La clave está en el tipo de vegetación. “Si se deja simplemente la que aparece naturalmente tras el deshielo del permafrost, una vegetación con mucha turba, encharcada, con matorrales dispersos que dejan muchos huecos sin cubrir, no sellará bien los gases que puedan estar todavía encerrados en las capas más profundas y tampoco aislará térmicamente lo que tiene debajo, porque el agua conduce muy bien el calor”, explica Valladares. La idea, “que no está exenta de polémica”, como reconoce el investigador, es convertir esos nuevos terrenos ganados al hielo en una pradera, con grandes herbívoros que coman y de esa manera vayan forzando de manera natural a que se extienda una cobertura herbácea densa que sí pueda preservar el hielo profundo durante más tiempo. No se trata solo de entelequias secundadas por investigadores prestigiosos de la Universidad de Oxford y difundidas en Nature, sino que ya hay un proyecto piloto. El experto ruso en ecología ártica y subártica Sargey Zimov y su hija Nikita llevan años reintroduciendo caballos, ciervos, bisontes y otros grandes herbívoros en la cada vez más verde Siberia para reconstruir lo que ellos llaman la llanura del mamut (pleistocenepark.ru). El ecosistema de pastizales imperante por esas tierras en el Pleistoceno, hace más de dos millones de años. Colocar capas aislantes para preservar el suelo no es nuevo y ya se hace desde hace años en Europa: cada primavera, en los Alpes suizos, cubren el glaciar Ródano con mantas térmicas para reducir en un 70 % el derretimiento estacional. “Esto no se puede ni plantear en las áreas próximas al ártico, con una superficie tan gigantesca, sólo Siberia tiene la extensión de Europa, donde solo parece posible intentar ayudar a que la naturaleza haga gran parte del trabajo: animales viviendo a su aire, reproduciéndose y generando una dinámica natural”, puntualiza Valladares. “Este parque es una de las pocas acciones planteadas in situ para prevenir el apocalipsis ártico. Mientras, la ciencia está enfocada en cuantificar el problema para saber a qué atenernos y saber la mitigación que tenemos que hacer en otros sitios para contrarrestar la pérdida del permafrost. Darlo todo por perdido es también negacionismo. Así que ya podemos ser imaginativos”, concluye el investigador.