¡Detengan las máquinas! La inquietante carta de los principales actores tecnológicos sobre la IA

¡Detengan las máquinas! La inquietante carta de los principales actores tecnológicos sobre la IA

Primeras espadas del mundo tecnológico piden detener el desarrollo de la IA durante seis meses.

Tecnología | 29 de marzo de 2023
Pedro Borràs

La Inteligencia Artificial (IA) está avanzando a un ritmo sin precedentes. Aunque esto puede parecer emocionante, también presenta riesgos graves y preocupantes para la sociedad.


Se acaba de emitir un comunicado [1] de expertos en IA y tecnología, respaldado por investigaciones exhaustivas y reconocido por los principales laboratorios de IA. En éste, se advierte de la necesidad urgente de establecer medidas para la regulación de la IA y proteger a la sociedad de sus riesgos.

La IA de nivel humano puede representar un cambio profundo en la historia de la vida en la Tierra. Aunque se han establecido principios para su uso responsable, la planificación y gestión adecuadas aún no están en marcha. En lugar de ello, los laboratorios de IA están compitiendo desenfrenadamente para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie. Pero ni siquiera sus creadores pueden entender, predecir o controlar de manera confiable esta tecnología.

Preguntas trascendentes sobre la mesa

A medida que los sistemas de IA se vuelven más competitivos en tareas generales, es necesario preguntarse: ¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Deberíamos automatizar todos los trabajos, incluso los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que eventualmente puedan superarnos, dejarnos obsoletos y reemplazarnos? ¿Deberíamos arriesgar la pérdida de control de nuestra civilización? Estas decisiones no deben delegarse a líderes tecnológicos no elegidos.

La IA de nivel humano debe desarrollarse solo cuando se esté seguro de que sus efectos serán positivos y sus riesgos manejables. Este nivel de confianza debe estar bien justificado y aumentar con la magnitud de los efectos potenciales de un sistema. Debe haber una revisión independiente antes de comenzar a entrenar sistemas futuros. Los esfuerzos más avanzados deben acordar limitar la tasa de crecimiento del cómputo utilizado para crear nuevos modelos.

Una medida inmediata y urgente

Por lo tanto, se hace un llamado a todos los laboratorios de IA para que detengan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más poderosos que GPT-4. Este llamado es público y verificable e incluye a todos los actores clave. Si no se puede realizar esta pausa rápidamente, los gobiernos deben intervenir e instituir un moratorio.

Los expertos en IA y los desarrolladores deben aprovechar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de la IA avanzada. Estos deben ser rigurosamente auditados y supervisados por expertos externos independientes. Además, estos protocolos deben garantizar que los sistemas que los sigan sean seguros más allá de una duda razonable.

La investigación y el desarrollo de la IA deben enfocarse en hacer que los sistemas de vanguardia actuales sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales. Paralelamente, los desarrolladores de IA deben trabajar con los responsables de políticas para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza de la IA.

Es importante entender que la IA puede llevar a un futuro próspero para la humanidad, pero hay que actuar con cautela y responsabilidad.

Ante esta situación, los expertos en Inteligencia Artificial han lanzado un llamado a la reflexión y a la acción. El comunicado pide una pausa inmediata en la formación de sistemas de IA más potentes que GPT-4 por un mínimo de seis meses. Esta medida debería ser pública y verificable, y debería incluir a todos los actores clave en el campo de la Inteligencia Artificial.

¿Para qué esta pausa en el desarrollo de la IA?

La pausa permitiría a los laboratorios de IA y a los expertos independientes trabajar juntos en el desarrollo y la implementación de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada. Estos protocolos deberían ser rigurosamente auditados y supervisados por expertos independientes externos y garantizar que los sistemas que los sigan sean seguros más allá de cualquier duda razonable.

Además, se llama a los desarrolladores de IA a colaborar con los responsables políticos para acelerar dramáticamente el desarrollo de sistemas robustos de gobernanza de la IA. Esto debería incluir, como mínimo, nuevas y capaces autoridades regulatorias dedicadas a la IA, supervisión y seguimiento de sistemas de IA altamente capaces y grandes conjuntos de capacidades computacionales, sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear las fugas de modelo, un ecosistema sólido de auditoría y certificación, responsabilidad por el daño causado por la IA, financiación pública sólida para la investigación técnica de seguridad de la IA e instituciones bien dotadas para hacer frente a las importantes interrupciones económicas y políticas (especialmente para la democracia) que causará la IA.

La IA tiene el potencial de cambiar nuestras vidas de maneras que no podemos imaginar, y debemos asegurarnos de que los cambios sean positivos y manejables. Una pausa en el desarrollo de sistemas de IA más avanzados que GPT-4, junto con el desarrollo de protocolos de seguridad compartidos y sistemas de gobernanza sólidos, puede ayudar a asegurar que la IA beneficie a la sociedad en general y no solo a unos pocos selectos.

Como sociedad, tenemos la responsabilidad de asegurarnos de que la tecnología avance de manera responsable y que los riesgos se manejen adecuadamente. Es hora de que desarrolladores de IA y políticos actúen juntos para asegurar que la IA se desarrolle de manera segura y responsable para todos.


[1] Enlace al comunicado.


Comentarios


Efemérides







Política de Privacidad
Política de cookies