Leticia Gómez Rivero

Opinión

Regular la inteligencia artificial sin perder el equilibrio

Responsable de Estrategia de IA en Minsait (Indra).

Guardar

Inteligencia artificial.
Inteligencia artificial.

La emergencia de la inteligencia artificial (IA) como una fuerza omnipresente en sectores clave como la salud, la economía, la seguridad y la vida cotidiana ha traído consigo avances significativos y complejos desafíos. Ya ha demostrado su capacidad para mejorar la automatización, la eficiencia, la productividad y la velocidad en la toma de decisiones, junto con la detección proactiva de amenazas y el análisis predictivo. Sin embargo, también plantea dilemas éticos y prácticos importantes.

Los desafíos incluyen el sesgo en los algoritmos, la falta de transparencia en la toma de decisiones y dilemas éticos relacionados con la autonomía excesiva de los sistemas avanzados. Estos problemas requieren una atención seria y una regulación cuidadosa para garantizar que la IA se utilice de manera responsable y ética.

Su impacto ambiental es otro tema crítico. El entrenamiento de máquinas en lenguaje humano y otras tareas complejas puede tener una huella medioambiental considerable y es necesario adoptar un enfoque sostenible en el desarrollo de la inteligencia artificial, como proponen las prácticas de green AI. Por poner un ejemplo muy gráfico, su impacto ambiental estimado es cinco veces la huella ecológica generada por un automóvil a lo largo de su vida útil, según el estudio de la Universidad de Amherst en Massachusetts "Energy and policy considerations for deep learning in NLP" ("Consideraciones energéticas y políticas para el aprendizaje profundo en el procesamiento de lenguaje natural").

A nivel global, se están realizando esfuerzos para abordar estos desafíos. Iniciativas como el IA Summit en el Reino Unido, legislaciones como AI Act o Data Governance Act, y los esfuerzos del G7 para desarrollar un código no vinculante para controlar las IA generativas son pasos en la dirección correcta. Además, la creación de un Instituto de Seguridad de IA en Estados Unidos es un ejemplo de cómo los gobiernos están tomando medidas proactivas.

No obstante, el gran desafío es legislar sobre la IA de manera que no se sofoque la innovación. La regulación excesiva puede limitar el potencial de la inteligencia artificial para generar soluciones transformadoras y progreso.

Es fundamental que la industria y las Administraciones se comprometan con regulaciones equilibradas que protejan a la sociedad sin impedir el avance tecnológico. Si bien buscan salvaguardar a las personas de posibles riesgos y abusos, la normativa no debe ser un freno a la libertad creativa y la expansión de la IA.

Para conseguir este equilibrio, es imprescindible un diálogo continuo y colaborativo entre diferentes actores, desde los líderes tecnológicos hasta los responsables políticos y los expertos en ética. Esta colaboración debe orientarse a establecer marcos regulatorios flexibles, capaces de adaptarse al rápido desarrollo de este campo sin poner en riesgo la seguridad y el bienestar de la sociedad.

El equilibrio entre la regulación y el fomento continuo de la innovación es, en suma, esencial para el bienestar social y el desarrollo tecnológico sostenible. La inteligencia artificial es un aliado poderoso para abordar problemas críticos como el cambio climático y la conservación de la biodiversidad. Es, por tanto, deseable hacer un uso responsable y ético, fomentando su adopción efectiva y legal para el beneficio de la sociedad y del entorno.