UN GRUPO DE NOTABLES BUSCA SOLUCIONES
Las 5 mayores amenazas para el futuro de la humanidad, según los expertos de Oxford
El futuro de la humanidad está seriamente amenazado. En los últimos meses se han sucedido numerosos informes oficiales que reflejan la preocupación de agencias de seguridad y organismos internacionales sobre esta posibilidad. Desde la NASA a la ONU, pasando por el Pentágono, han analizado en documentos internos los riesgos de un posible colapso de la civilización. Un escenario cada vez más cercano sobre el que el departamento de defensa norteamericano cuenta con un plan de contingencia bajo el que un Comando Estratégico del ejército de EEUU se instruye en las labores propias de una gran catástrofe planetaria.
Los riesgos que señalan estos organismos son numerosos y diversos, aunque todos tienen como telón de fondo los problemas de escasez: crisis alimentarias, energéticas, económicas (incremento de la desigualdad social), climáticas y del agua. La convergencia de estas generaría una ‘tormenta perfecta’ tras la cual se incrementaría la violencia y los enfrentamientos entre países por el acceso los recursos, la generalización de la pobreza, el deterioro democrático o las migraciones masivas.
Las instituciones universitarias y los científicos más reputados del mundo no han estado ajenos a la lectura del ‘colapso de la civilización’, sin dejar de aportar soluciones a cada uno de los retos a los que nos enfrentamos. El archiconocido Stephen Hawking, el cosmólogo y astrofísico de Cambridge Martin Rees, el ingeniero informático y cofundador de Skype Jaan Tallinn o el exasesor científico del gobierno británico y de la Royal Society Robert May, entre otros, son algunos de los cerebros científicos que ya están trabajando codo con codo para preparar diferentes respuestas a los “desastres potencialmente devastadores para la civilización”.
El denominado Center for the Study of Existential Risk (CSER) se centrará en identificar los eventos catastróficos que podrían devastar el mundo e, incluso, “provocar la extinción de la especie humana”. Su primer informe sobre los “riesgos civilizatorios” se facilitará a los gobiernos de todo el mundo, así como a las sociedades científicas, para animarlos a ser copartícipes de las posibles soluciones. Un trabajo similar al del Future of Humanity Institute (FHI) de la Universidad de Oxford.
Uno de los investigadores del FHI, el científico Anders Sandberg, ha publicado un medio especializado los cinco “riesgos existenciales” que podrían poner fin a la historia de la humanidad “si no desarrollamos las tecnologías necesarias para evitarlos o, al menos, mitigarlos”.
Invierno nuclear
El principal fantasma de la Guerra Fría todavía no se ha disipado. Aunque este destructivo armamento no se emplea desde la Segunda Guerra Mundial, “es un error descartar la posibilidad de una guerra nuclear hoy en día”.
Durante la crisis de los misiles en Cuba se estuvo a punto de apretar el botón rojo, al igual que en otras confrontaciones de la Guerra Fría. Las tensiones internacionales han descendido desde entonces y, por tanto, también las posibilidades, aunque estas se elevan al uno por mil, según los cálculos de probabilidades realizados por los miembros del instituto.
El desencadenamiento de un enfrentamiento armado mundial de estas características generaría millones de muertes, pero el colapso de la civilización vendría provocado por las consecuencias posteriores sobre el planeta: el invierno nuclear. Es decir, los cambios climáticos provocados por este tipo de guerra, así como la contaminación de suelo, que no sería cultivable, del aire y del agua. Como consecuencia, crisis alimentarias y de acceso a los recursos hídricos que aceleraría las infecciones mortales y las epidemias de hambre.
Resistencia a los antibióticos y expansión de nuevos virus
Hace unos días, la Organización Mundial de la Salud (OMS) advertía sobre la expansión de cuatro nuevos virus muy peligrosos. Su directora general, Margaret Chan, explicó que se trata del Síndrome Respiratorio de Oriente Medio por Coronavirus (MERS-CoV), con la mayoría de casos en Arabia Saudí y los Emiratos Árabes Unidos, de los virus H5N1 y H7N9 de la gripe aviar, y del ébola, del que se ha registrado recientemente un grave brote en Guinea Conakry.
Los peligros en este caso se focalizan en la rapidez con la que se pueden expandir estos virus por todo el mundo y en el fácil acceso a las armas biológicas, impulsando así el denominado bioterrorismo. Por otra parte, la cada vez más extendida resistencia genética a los medicamentos antibióticos puede provocar la expansión de infecciones mortales y convertir en intratables cientos de viejas enfermedades.
Nanotecnología
El control y manipulación de la materia a nanoescala y con precisión atómica no es mala en sí misma. Como ocurre con la inteligencia artificial tiene grandes posibilidades, pero el abuso y la mala praxis son difíciles de evitar. Como remarca el científico de Oxford, podemos caer en una espiral autodestructiva. Un ejemplo de ello es el desarrollo de armas autónomas. Los comúnmente denominados robots asesinos son ya una realidad, y no nos referimos solamente a los drones militares, sino a otras armas que ya están usando diversos ejércitos. Tanto es así, que las armas letales autónomas se han convertido en una seria preocupación internacional hasta el punto de que la ONU discutió hace escasos días en Ginebra su posible prohibición o, al menos, limitación.
En la reunión participaron diplomáticos y responsables militares de los 117 países firmantes de la Convención de Naciones Unidas para la Prohibición de Armas Inhumanas. La misma que decidió prohibir en la década de los 90 las armas láser cegadoras. Eso sí, una vez que ya habían sido utilizadas en el campo de batalla. Un extremo que el director de la sede europea de la ONU, Michael Moeller, pretende evitar ahora: “El derecho internacional suele responder a las atrocidades y al sufrimiento una vez que ya han ocurrido, pero ahora tenemos la oportunidad de tomar medidas preventivas”.
Inteligencia artificial
“El problema de este tipo de desarrollo es que se enmarque al margen de las leyes morales y éticas. Si definitivamente se produce este salto en al vacío de la inteligencia artificial, sin antes fijar unas normas y restricciones concretas, podría suponer un gran desastre”, advierte el científico del FHI. Aunque Sandberg reconoce que es complicado adelantarse a las consecuencias de los avances tecnológicos, “tienen un claro potencial para propiciar desastres de gran magnitud porque estos avances se imponen a gran velocidad, dejando a la sociedad sin tiempo para reaccionar”. La seguridad, añade, es prácticamente inexistente en este terreno, pues seguimos aplazando los problemas innatos a la inteligencia artificial.
Otras amenazas todavía desconocidas
El futuro es impredecible, y como tal existe una serie de peligros para el futuro de la humanidad que todavía no han podido ser identificados. Por otra parte, hay que tener en cuenta factores impredecibles como puede ser el impacto de un meteorito. “La tasa de extinción de las especies naturales se sitúa en el millón de años”. Unos datos a tener en cuenta a pesar de que son mucho menores que los de una guerra nuclear o bacteriológica.
No hay comentarios:
Publicar un comentario