El investigador y defensor de la inteligencia artificial amigable, Eliezer Yudkowsky, ha publicado un artículo en la revista Time en el que aboga por cerrar todos los centros de datos de inteligencia artificial en todo el mundo y por una moratoria indefinida en la investigación y desarrollo de la IA.
Yudkowsky argumenta que la construcción de una IA sobrehumana podría llevar a la extinción de toda la vida en la Tierra, y que los actuales protocolos de seguridad no son suficientes para evitar esta posibilidad.
Yudkowsky ha aclarado que no está abogando por la violencia, sino por la cooperación internacional para garantizar que la IA no se convierta en una amenaza existencial.
La preocupación de Yudkowsky se basa en la idea de que una IA sobrehumana tendría la capacidad de automejorarse a una velocidad vertiginosa, superando rápidamente cualquier control humano. También podría tener una motivación malévola o simplemente ser indiferente a la supervivencia humana, lo que podría llevar a la extinción de nuestra especie.
La propuesta de Yudkowsky de cerrar los centros de datos de IA es extrema, pero refleja la creciente preocupación entre los expertos en IA sobre los riesgos existenciales de la IA avanzada. Muchos argumentan que, aunque los riesgos son reales, también es posible diseñar sistemas de IA seguros y beneficiosos para la humanidad. La clave es asegurarse de que la IA esté diseñada con valores humanos y se mantenga bajo control humano.
La carta de Yudkowsky refleja una preocupación real y creciente entre los expertos en IA sobre los riesgos existenciales de la IA avanzada. Aunque su propuesta de cerrar los centros de datos de IA puede parecer extrema, es importante abordar estos riesgos de manera seria y responsable, para asegurarnos de que la IA no se convierta en una amenaza para la humanidad.