• Home /

  • /

  • Superar la brecha normativa de la IA: equilibrar innovación y seguridad en un mundo competitivo

Opinión

Superar la brecha normativa de la IA: equilibrar innovación y seguridad en un mundo competitivo

Senior Director Sales Engineering Europe South de Commvault

La carrera mundial de la inteligencia artificial (IA) se intensifica con nuevos avances cada semana: por ejemplo, el lanzamiento por China de DeepSeek, que cogió al sector totalmente por sorpresa. A pesar de que se ha intentado adoptar un enfoque unificado con la publicación del primer "Informe Internacional de la Seguridad en la IA", los países de todo el mundo siguen luchando por el liderazgo. El nuevo gobierno de EE.UU. se apresuró a anunciar 500.000 millones de dólares de inversión del sector privado en el 'Proyecto Stargate' para construir una infraestructura avanzada de IA, con una colaboración histórica de patrocinadores entre los que se incluyen OpenAI, Oracle y Softbank. Esto vino justo después del reciente lanzamiento por parte del Reino Unido del' Plan de Acción de Oportunidades de la IA', respaldado por una financiación de 14.000 millones de libras de las principales empresas tecnológicas. Por su lado, la UE ha puesto en marcha la iniciativa 'InvestAI' para movilizar 200.000 millones de euros de inversión en inteligencia artificial.

La creciente desconexión normativa

Sin embargo, mientras algunos países establecen planes agresivos de crecimiento en IA, la brecha entre los enfoques reguladores se está ampliando. El gobierno estadounidense revocó rápidamente su anterior Orden Ejecutiva, que supuestamente debía proteger de los riesgos que la IA planteaba a los consumidores y a la seguridad nacional, y que había exigido importantes divulgaciones de seguridad en relación con el desarrollo. Este giro subraya el compromiso de la nueva administración de dar prioridad a la innovación en IA por encima de lo que considera barreras al progreso, incluso las relacionadas con la seguridad, la privacidad y la parcialidad.

En marcado contraste, la UE está avanzando con su Ley de IA, un marco exhaustivo y jurídicamente vinculante que prioriza claramente la regulación de la IA, la transparencia y la prevención de daños. Establece obligaciones inequívocas para el desarrollo y despliegue de la IA, incluidas evaluaciones de riesgos obligatorias y multas significativas por incumplimiento.

Adaptar los principios de seguridad a la IA

Esta divergencia normativa está creando un panorama complejo para las organizaciones que crean e implantan sistemas de IA. La falta de cohesión crea un terreno de juego desigual y, posiblemente, un futuro más arriesgado impulsado por la IA. 

Las organizaciones tendrán que determinar un camino a seguir que equilibre la innovación con la mitigación de riesgos, adoptando sólidas medidas de ciberseguridad y adaptándolas específicamente a las demandas emergentes de la IA. Entre las áreas que ya suscitan preocupación se encuentran el envenenamiento de datos y la cadena de suministro de datos.

Envenenamiento de los modelos de datos

El envenenamiento de datos, donde actores malintencionados manipulan los datos de entrenamiento, será un riesgo importante para la IA. Puede incluir cambios sutiles que generen errores y resultados incorrectos, o alteraciones del código para mantener un control oculto sobre el modelo. Estas manipulaciones pueden comprometer gradualmente una empresa, causando malas decisiones y pérdidas financieras. En casos motivados políticamente, también podrían promover prejuicios e influir en las actitudes.

La naturaleza sigilosa de estos ataques hace que sean difíciles de detectar hasta que el daño es demasiado tarde para revertirlo, ya que los datos maliciosos pueden mezclarse a la perfección con los datos legítimos. Combatir el envenenamiento de datos requiere una sólida validación de datos, detección de anomalías y supervisión continua de los conjuntos de datos para identificar y eliminar las entradas maliciosas, ya que el envenenamiento puede perpetrarse en cualquier fase. Puede producirse inicialmente durante la recopilación de datos, inyectarse posteriormente en los repositorios de datos, o tal vez introducirse inadvertidamente desde otras fuentes infectadas.

Proteger la cadena de suministro de datos

La propuesta reciente del gobierno de Reino Unido de crear una Biblioteca Nacional de Datos pone de relieve el riesgo de que modelos aparentemente fiables se vean comprometidos y fluyan rápidamente por la cadena de suministro. En un par de años, es probable que muchas organizaciones dependan de tales modelos para dirigir sus negocios y operaciones diarias. Dado que los delincuentes ya aprovechan las capacidades de la IA para potenciar sus ataques, las consecuencias de la entrada de una mala IA en el ecosistema de los proveedores podrían ser catastróficas y generalizadas.

Los responsables de las empresas tendrán que disponer de una protección y unas defensas sólidas para garantizar la resiliencia en toda su cadena de suministro y contar con planes de recuperación ante catástrofes de eficacia probada. Efectivamente, esto significa dar prioridad a las aplicaciones que realmente importan, y definir lo que constituye un negocio mínimo viable y una postura de riesgo aceptable. Sólo entonces podrán estar seguros de que las copias de seguridad críticas pueden restaurarse rápida y completamente en caso de compromiso.

Ser consciente de los riesgos

Aunque la IA ofrece un inmenso potencial de innovación, es crucial considerar su aplicación con cautela. Las enormes capacidades de la IA conllevan riesgos igualmente sustanciales, sobre todo en términos de ciberseguridad, privacidad y ética. A medida que los modelos de IA se arraiguen más en las infraestructuras organizativas, las posibilidades de que se produzcan violaciones de la seguridad y abusos aumentarán drásticamente.

Mantener salvaguardias fiables, procesos de desarrollo transparentes y normas éticas es vital para mitigar estos riesgos. Sólo equilibrando la innovación con la tolerancia cero al uso indebido podrán las empresas cosechar con seguridad los beneficios de la IA y protegerse de sus peligrosos inconvenientes. Paralelamente, aunque parezca improbable, la regulación coordinada por los gobiernos sigue siendo esencial para establecer marcos aplicables para la seguridad de la IA en todo el mundo.

Archivado en: