Sistemas basados en IA, en la mira de los ciberdelincuentes
(México) El uso generalizado de la Inteligencia Artificial en América Latina incluyendo México, donde la tasa de adopción es de 71%, según NTT Data, ha elevado la utilización de esta tecnología entre ciberdelincuentes. Además de usarla para crear contenido y códigos maliciosos, ahora centran sus ataques contra los sistemas IA, buscando alterarlos para evadir reglas, robar o falsificar datos, o incluso “envenenarlos”, es decir, llenarlos con información falsa, comprometiendo su precisión y efectividad.
“Este tipo de ataques son conocidos como aprendizaje automático adversario y consisten en engañar a los sistemas de IA, introduciendo datos falsos o manipulados, lo que puede afectar la precisión de los modelos, especialmente si no están diseñados para identificar y resistir la falsificación de información”, afirmó Manuel Moreno, Chief Information Security Officer (CISO), de IQSEC, líder en Ciberseguridad e Identidad Digital.
Aprendizaje automático adversario: Evasión, envenenamiento, privacidad y abuso.
Y es que, al exponer a los sistemas de IA a datos no confiables, estos se vuelven en una amenaza para quienes lo usan. Incluso, el Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) documenta varios tipos de ataques que se clasifican bajo el concepto de “aprendizaje automático adversario”, los cuales se dividen en cuatro categorías principales: la evasión, se refiere a confundir a un modelo de reconocimiento para evitar la identificación de una persona; el envenenamiento, con la inserción de datos falsos; la privacidad, la inferencia de información confidencial, y el abuso, con generación de deepfakes.
“Cada una de estas categorías presenta riesgos únicos y desafíos de mitigación. Por ejemplo, cuando un chatbot es alimentado con datos tóxicos, como lenguaje o comentarios ofensivos, puede aprender a generar respuestas dañinas, que causen malestares a los usuarios. Si bien es posible corregir manualmente algunas de estas respuestas, la escala de los datos involucrados hace que esta tarea sea prácticamente imposible de realizar de manera exhaustiva”, detalló el especialista en ciberseguridad.
Uno de los problemas más serios es que los conjuntos de datos utilizados para entrenar la IA son, en su mayoría, demasiado grandes para ser monitoreados y filtrados. Esta falta de supervisión abre la puerta a la corrupción de datos para alterar o deteriorar la información, ya sea durante el entrenamiento inicial como durante la operación continua del sistema. Incluso, cuando se identifica un problema, corregirlo puede ser extremadamente difícil, sin afectar negativamente el rendimiento del sistema.
“Aunque el mismo NIST reconoce que no existe un método infalible para proteger a la IA de ser mal dirigida, el identificar los cuatro principales tipos de ataques es un llamado a la acción para que los desarrolladores y las organizaciones comprendan las amenazas que enfrentan al adoptar esa tecnología y, sobre todo, pongan en perspectiva la necesidad implementar políticas de gobernanza de datos, además de promover un enfoque de trabajo colaborativo entre humano y máquinas, ya que la automatización, por sí sola, no garantiza el buen juicio”, aseguró Manuel Moreno.
Medidas de seguridad
Además, es fundamental que se implementen medidas de seguridad para proteger la privacidad de los datos y evitar posibles brechas que comprometan tanto los sistemas de IA como la información personal de los usuarios. Entre ellas están:
- Evaluaciones de impacto en la privacidad: Permiten a las organizaciones identificar posibles vulnerabilidades y desarrollar estrategias para abordarlas antes de que se conviertan en problemas críticos.
- Desarrollo de herramientas de gestión y control de privacidad: Es vital que los usuarios puedan gestionar y controlar su privacidad.
- Implementación de técnicas de cifrado y anonimización: El cifrado asegura que los datos sean inaccesibles para personas no autorizadas, mientras que la anonimización reduce el riesgo de que la información sensible sea vinculada a individuos específicos.
- Autenticación rigurosa: Verificar las identidades de los usuarios es crucial para garantizar que solo personas autorizadas tengan acceso a los sistemas de IA. Esto reduce el riesgo de manipulación de datos.
- Modelos federados: Este enfoque permite que los modelos de IA se entrenen en datos distribuidos en múltiples ubicaciones, sin que los datos crudos se compartan centralmente.
- La gestión eficaz de los datos utilizados en los sistemas IA es esencial para garantizar su calidad, integridad y seguridad. La gobernanza de datos debe establecer procesos claros para la actualización y el mantenimiento continuo de los conjuntos de datos, evitando sesgos que puedan afectar el rendimiento y la precisión de los modelos de IA.
La identificación y mitigación de los riesgos asociados con el “aprendizaje automático adversario” permitirá a las organizaciones superar los desafíos que plantea la adopción de los sistemas IA, a fin de que siga siendo una herramienta poderosa para el progreso de México y América Latina.
Ver más: Estudio revela cuántos empleos serían afectados por la IA en América Latina
Ver más: ¿Es la IA una burbuja a punto de estallar?
Ver más: La IA podría provocar una pérdida masiva de puestos de trabajo: ¿Es la renta básica la solución?