Del mito de Frankenstein a las leyes de Asimov: cuáles son los riesgos reales de la inteligencia artificial

Del mito de Frankenstein a las leyes de Asimov: cuáles son los riesgos reales de la inteligencia artificial post thumbnail image

Por SAMUEL A. PILAR

A pesar de que es una herramienta que lleva décadas gestándose, ha sido en los últimos meses cuando el desarrollo de la inteligencia artificial parece haber alcanzado un ritmo vertiginoso. Es ahora cuando el público general ha comenzado a ver sus enormes capacidades, pero aplicaciones generativas como ChatGPT, Midjourney o Dall-e son solo la punta del iceberg de una revolución tecnológica con capacidad para repercutir prácticamente en todos los ámbitos de la vida humana. En este punto de inflexión, se escuchan cada vez con mayor insistencia voces que advierten de su peligro potencial, y piden a las compañías desarrolladoras que se guíen por el principio de precaución.

A finales de marzo, algunos de los líderes más importantes del sector, como Steve Wozniak, Jaan Tallinn o Elon Musk, planteaban en una carta abierta los riesgos que la inteligencia artificial puede acarrear. Denunciaban que su desarrollo se está realizando sin ningún tipo de planificación, y por ello pedían que se paralizasen temporalmente los grandes experimentos con esta tecnología, para “desarrollar e implementar un conjunto de protocolos de seguridad”.

Poco después apareció una segunda carta abierta, firmada esta vez por miembros de la Asociación por el Avance de la Inteligencia Artificial (AAAI), como Francesca Rossi de IBM o Eric Horvitz de Microsoft. En ella, después de enumerar los múltiples beneficios que esta tecnología ya está aportando a la sociedad, reconocían “las limitaciones y preocupaciones sobre sus avances, incluida la posibilidad de que los sistemas de inteligencia artificial cometan errores, proporcionen recomendaciones sesgadas, amenacen nuestra privacidad, empoderen a los malos actores con nuevas herramientas y tengan impacto en determinadas profesiones”.

Más recientemente, otro gurú tecnológico, Geoffrey Hinton, conocido como ‘el padrino de la inteligencia artificial’, se desvinculaba profesionalmente de Google para alertar sobre los desarrollos que actualmente se están haciendo con la inteligencia artificial y los riesgos que plantean. En una entrevista concedida a MIT Technology Review, este pionero del deep learning, o aprendizaje profundo, explicaba con más detalle su decisión, y afirmaba que la nueva generación de grandes modelos lingüísticos -en especial, GPT-4, lanzado por OpenAI en marzo- le ha hecho darse cuenta de que las máquinas van camino de ser más inteligentes de lo que ellos mismos habían pensado en un primer momento.

De manera particular, Hinton se mostraba preocupado por el hecho de que esta tecnología pueda aprovecharse para cambiar radicalmente el signo de algunas de las experiencias humanas “más trascendentales”, como las elecciones o las guerras. Aunque, en última instancia, apuntaba a un riesgo existencial, en el que lo que está en peligro no es otra cosa que la propia humanidad.

Lee todo el articulo en RTVE

Artículos relacionados