Líderes tecnológicos piden pausar los grandes experimentos de IA

Se trata de una carta abierta que ya ha recibido el apoyo de más de 1100 personas, entre ellas CEO’s de gigantes compañías como Elon Musk y Steve Wozniak.

Anahí Di Santo.

Periodista.

Guardar

La inteligencia artificial bajo la lupa.
La inteligencia artificial bajo la lupa.

“Hacemos un llamado a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4”, dice la carta abierta publicada por Future Of Life Institute, una organización sin fines de lucro con sedes en Europa y Estados Unidos que trabaja para reducir los riesgos a gran escala de las tecnologías transformadoras y concretar sus potenciales beneficios.

El texto rescata los Principios de IA de Asilomar para recordar la necesidad de que estos grandes cambios se planifiquen y administren con cuidado, debido a los riesgos para la humanidad y la sociedad que pueden implicar. “En los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas, que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable”, lamentan quienes apoyan la iniciativa.

El texto, que puede ser firmado por cualquier persona que lo desee, ya posee el respaldo de grandes referentes del mundo tecnológico y especialistas en aprendizaje profundo, inteligencia artificial, científicos y profesores de diversas disciplinas. Elon Musk, CEO de SpaceX, Tesla y Twitter; Steve Wozniak, cofundador de Apple; Jaan Tallinn, cofundador de Skype; Emad Mostaque, fundador y CEO de Stability AI; Victoria Krakovna, científica investigadora de DeepMind y Max Tegmark, profesor de física del Centro de Inteligencia Artificial e Interacciones Fundamentales del Instituto de Tecnología de Massachusetts, son algunos ejemplos, entre los que también se encuentran ingenieros de Meta y Google.

Resulta llamativo, en tanto, que entre los firmantes no hay ningún representante de OpenAI, la compañía que creó GPT-4 respaldada por Microsoft. Y tampoco de Anthropic, cuyo equipo se separó de OpenAI para construir un chatbot de IA “más seguro”.

“Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, reflexionan desde la carta.

Otro de los puntos centrales de la propuesta, que da una pista de la gravedad de la situación a los ojos de estos especialistas, solicita la intervención de autoridades de control en el caso de que esto no se logre de forma voluntaria: “Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”.

La misiva aclara, luego, que esta iniciativa “no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”.

Los deepfakes, los dilemas éticos, los temores de los trabajadores frente a un posible reemplazo por sistemas automatizados, la toma real de decisiones y la pérdida del control sobre muchas herramientas son sólo algunas de las preocupaciones que han surgido en el último tiempo de la mano de estos fabulosos avances, que nadie puede predecir hasta dónde llegarán.

Por ello, los firmantes de la carta solicitan medidas concretas: “autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por daños causados ​​por IA; financiación pública sólida para la investigación técnica de seguridad de la IA e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA”.

Esta declaración se conoce días después de que Europol planteara preocupaciones éticas y legales sobre IA avanzadas como ChatGPT, advirtiendo sobre el posible uso que los delincuentes pueden darle en intentos de phishing, desinformación y estrategias criminales.