La UE avanza con polémicas leyes sobre IA que enojan a la “tecnocasta”

(Europa) La Unión Europea (UE) ha presentado nuevas directrices en el marco de su Ley de IA centradas en los usos prohibidos de la tecnología, a medida que avanza con el marco regulatorio que ha suscitado la oposición de los pesos pesados ​​de la industria.

La Ley de IA, presentada por primera vez en 2023, clasifica las tecnologías de IA en niveles de riesgo mínimo, de transparencia, alto o inaceptable, y pasa a prohibir los sistemas que suponen una amenaza para la seguridad y los derechos fundamentales. Las últimas medidas, publicadas por la Comisión Europea el martes (4 de febrero), proporcionan una orientación detallada sobre cómo se aplicarán las normas.

Según las nuevas directrices, que entraron en vigor el 2 de febrero, los sistemas de IA que llevan a cabo “prácticas manipuladoras, explotadoras, de control social o de vigilancia” están prohibidos en la UE. Esto incluye prácticas de IA como la puntuación social predictiva, la vigilancia biométrica masiva y el raspado de fuentes de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial.

La legislación también impone requisitos de transparencia para las empresas que desarrollan sistemas de IA de “alto riesgo”, que cumplen funciones de servicio público, como la atención sanitaria, la calificación crediticia y la migración. Los desarrolladores de modelos de IA más avanzados se enfrentan a obligaciones aún más estrictas, incluida la supervisión humana obligatoria de los sistemas de IA y las evaluaciones de riesgos.

Los reguladores nacionales supervisarán la aplicación de la ley, y las empresas que no cumplan se enfrentarán a fuertes sanciones financieras de hasta 35 millones de euros o más con respecto a sus ingresos anuales globales. Las empresas que participen en prácticas de IA prohibidas también podrían verse afectadas por la prohibición de operar en la UE.

Sin embargo, el marco exime de su alcance a determinadas áreas, incluidas las tareas de seguridad nacional, las autoridades de terceros países u organizaciones internacionales que utilizan la IA para hacer cumplir la ley y la investigación y el desarrollo de la IA previos a la comercialización.

Reacción de la industria

Varios gigantes tecnológicos, incluida Meta, han expresado su preocupación por las estrictas regulaciones, argumentando que podrían aplastar la innovación y la inversión en IA. En respuesta al último anuncio, el director de asuntos globales de Meta, Joel Kaplan, anunció que la empresa no se unirá al Código de prácticas de IA de la UE, calificándolo de “inviable” y alegando que impone cargas innecesarias a los modelos de IA de código abierto.

Mientras tanto, el presidente de Estados Unidos, Donald Trump, ha advertido a la UE de que no ataque a las empresas tecnológicas estadounidenses, al tiempo que ha insinuado posibles medidas de represalia contra las empresas del bloque. “Tenemos algunas quejas muy importantes con la UE”, dijo el mes pasado.

A pesar de las críticas, un funcionario de la UE dijo al Financial Times que la postura del organismo regulador sobre la IA sigue siendo firme. “Lo que podemos hacer es asegurarnos de que sea lo más favorable posible a la innovación, y eso es lo que estamos haciendo en este momento”, añadió.

Ver más: Sánchez: Lo voy a decir en menos de 280 caracteres, Europa tiene que frenar a la «tecnocasta»

Ver más: Pedro Sánchez: “Barcelona y España abrazan la transformación digital como una oportunidad única”

Ver más: China lanza un nuevo vehículo de transporte que sorprende a EE.UU. y el mundo