"DEBEMOS PREGUNTARNOS QUÉ HACER"
El avance científico que amenaza el futuro de la humanidad, según Hawking
“El desarrollo de la inteligencia artificial podría ser el mayor logro humano. Por desgracia, también podría ser el último si no aprendemos a evitar sus riesgos”. Esta es la última advertencia lanzada por Stephen Hawking, que si bien llevaba ya un tiempo preocupado por las consecuencias sociales del desarrollo descontrolado de robots inteligentes, ahora dice estar seguro de que estos son una verdadera amenaza para el futuro de la humanidad. O ellos o nosotros.
Los robots inteligentes “tienen la capacidad de perfeccionarse a sí mismos y ser más astutos que todos nosotros”, aseguraba el científico en una entrevista concedida al canal norteamericano HBO. Un extremo que podría llegar a provocar un enfrentamiento entre máquinas y personas con un resultado más que evidente para Hawking: “perderíamos”. Una visión que puede tentarnos a relacionarla con un guion cinematográfico de estirpe hollywoodiense, lo cual “sería un error, y posiblemente el peor error de nuestra historia”.
La amenaza para el futuro de la humanidad que supuestamente representaría la incierta evolución de la inteligencia artificial es también una de las principales obsesiones del Center for the Study of Existential Risk (CSER). Formado por un equipo de reputados científicos, entre los que se encuentran el cosmólogo y astrofísico de Cambridge Martin Rees, el ingeniero informático y cofundador de Skype Jaan Tallinn o el exasesor científico del gobierno británico y de la Royal Society Robert May, su trabajo se centra en identificar y responder a los eventos catastróficos que podrían devastar el mundo e, incluso, “provocar la extinción de la especie humana”.
La carrera armamentística para la fabricación de robots asesinos
Para el experto en riesgos de la Universidad de Cambridge, David Spiegelhalter, “la guerra nuclear fue una amenaza que quedó enterrada en el siglo pasado. Hoy en día, es más destructivo un ataque bioterrorista o el desarrollo de la inteligencia artificial para fines bélicos”. Unas cuestiones que, en consonancia con las palabras de su colega Rees, “deben ser prioritarias en la agenda política internacional”.
Una visión compartida por Hawking, que aunque reconoce que los potenciales beneficios de este desarrollo tecnológico podrían ser “enormes”, alerta de que, al menos a corto plazo, están más encaminados a la autodestrucción. “La inteligencia artificial podría servir para erradicar la guerra, las enfermedades y la pobreza en el mundo. Sin embargo, estamos comprobando cómo se priorizan las inversiones hacia una carrera armamentística”.
Los denominados “robots asesinos” son ya una realidad, y no nos referimos solamente a los drones militares, sino a otras armas en poder de diversos ejércitos. Tanto es así, que las armas letales autónomas se han convertido en una seria preocupación internacional, hasta el punto de que la ONU está estudiando su prohibición, como ya han solicitado las organizaciones Human Rights Watch y Amnistía Internacional.
La regulación no destaca por anticiparse a estas cuestiones, y su inexistencia actual explica que se carezca de cifras globales sobre cuántas unidades de “robots asesinos” hay en funcionamiento. La poca información disponible es que Estados Unidos y China son sus principales productores y consumidores. Los primeros son líderes en la robótica militar y tienen desplazados unos 11.000 vehículos aéreos no pilotados y 12.000 robots terrestres, mientras que otros países como Israel, Taiwán, Corea del Sur, Reino Unido y Rusia también producen este tipo de armamento.
Stephen Hawking. (Efe)
La delgada línea entre el bien y el mal
Otro de los argumentos que Hawking puso sobre la mesa en un artículo de opinión publicado en el diario The Independent es que “el impacto a corto plazo depende de quién controle el desarrollo de la inteligencia artificial, pero a largo plazo dependerá de los propios robots, que podrán estar fuera de cualquier tipo de control”. Este último es el escenario más probable a día de hoy, insiste el científico, pues las autoridades y las instituciones académicas apenas están orientando sus investigaciones a este futurible.
“Es como si una civilización alienígena, superior a la nuestra, nos envía un mensaje diciendo: ‘vamos a llegar a la Tierra en un par de décadas’, y nosotros respondemos diciendo: ‘bueno, llámennos cuando lleguen, dejaremos las luces encendidas’”, explicita el físico británico. No hay otra opción: “todos nosotros debemos preguntarnos qué podemos hacer para aprovechar las potencialidades y evitar los riesgos”.
Un frente en el que el premio Nobel no parece estar solo. El Future of Humanity Institute (FHI) de la Universidad de Oxford trabaja ya en mitigar los “riesgos existenciales” que podrían poner fin a la historia de la humanidad. Entre ellos se incluye la inteligencia artificial. “El problema de este tipo de desarrollo es que se enmarque al margen de las leyes morales y éticas. Si definitivamente se produce este salto en al vacío de la inteligencia artificial, sin antes fijar unas normas y restricciones concretas, podría suponer un gran desastre”, apuntaba recientemente en un medio especializado Anders Sandberg, uno de los investigadores del FHI.
Aunque Sandberg reconoce que es complicado adelantarse a las consecuencias de los avances tecnológicos, “tienen un claro potencial para propiciar desastres de gran magnitud porque estos avances se imponen a gran velocidad, dejando a la sociedad sin tiempo para reaccionar”. La seguridad, añade, es prácticamente inexistente en este terreno, pues seguimos aplazando los problemas innatos a la inteligencia artificial.
No hay comentarios:
Publicar un comentario