España podría multar a las empresas de IA con hasta 35 millones de euros

(España – Euronews) El Consejo de Ministros español aprobó el martes la remisión al Congreso de un proyecto de ley que podría imponer enormes multas a las empresas de inteligencia artificial (IA) que no etiqueten adecuadamente los contenidos generados con esa tecnología, en un esfuerzo por limitar los ‘deepfakes’.

El proyecto de ley clasifica el etiquetado incorrecto de la IA como infracción grave, con una sanción potencial de entre 7,5 y 35 millones de euros o entre el 2 y el 7% de la facturación global de una empresa. La nueva legislación sugiere que las nuevas y medianas empresas podrían recibir una sanción menor.

“La inteligencia artificial debe ayudarnos a mejorar el mundo en el que vivimos”, dijo el martes en relación a la ley Óscar López, ministro español para la Transformación Digital. López señaló que la legislación centrará el uso de la IA en la investigación médica, la prevención de catástrofes y la mejora del tráfico en las ciudades españolas en lugar de “difundir bulos, mentiras y difamaciones”.

La ley española adopta las directrices de la Ley de Inteligencia Artificial de la UE, una legislación relativamente nueva del bloque que impone estrictas normas de transparencia a los sistemas de IA considerados de alto riesgo, según López. El proyecto de ley aún necesita la aprobación parlamentaria antes de entrar en vigor.

Otras prácticas prohibidas por la iniciativa

Según el Gobierno de España, el proyecto de ley prohíbe otras prácticas como el uso de técnicas subliminales, que incluyen “imágenes o sonidos imperceptibles” para manipular decisiones sin consentimiento. Un ejemplo de este tipo de técnica sería un chatbot que identifique a usuarios con adicción al juego y les anime a entrar en una plataforma de apuestas.

El proyecto de ley también impediría a las empresas de IA clasificar a las personas por su raza, opiniones políticas, religión u orientación sexual basándose en sus datos biométricos o su presencia en las redes sociales. Estos datos no pueden utilizarse para decidir si una persona tiene más probabilidades que otras de cometer un delito, una crítica que se ha hecho a un algoritmo utilizado en una cárcel de Cataluña para determinar el riesgo de reincidencia de los presos.**

Las empresas que utilicen la biometría para controlar la asistencia de sus empleados pero no cuenten con supervisión humana sobre este sistema también podrían ser multadas con entre 500.000 y 7,5 millones de euros o entre el 1 y el 2% de la facturación global anual. El proyecto de ley también permite al Gobierno español retirar temporalmente un sistema de IA del país “cuando haya causado un accidente grave, como la muerte de una persona”.

Ver más: El sector financiero debe prevenir la amenaza de las computadoras cuánticas, Moody’s

Ver más: CEO de NVIDIA y visionarios de la industria revelarán el próximo capítulo de la IA en la GTC 202

Ver más: La transformación de las telcos de la mano de la IA y la nube