ChatGPT: ¿Por qué Italia ha decidido bloquearlo?

Este 31 de marzo la agencia de protección de datos de Italia anunció el bloqueo de la aplicación de IA, Chat GPT, argumentando que no respeta su legislación sobre el almacenamiento de datos personales, además de no tener un sistema adecuado para verificar la edad de los usuarios menores.

No solo este gobierno se mostró en contra de esta inteligencia artificial.

Esta semana, un grupo de expertos en inteligencia artificial y ejecutivos de la industria tecnológica, incluido Elon Musk, pidieron una pausa de seis meses en el entrenamiento de los poderosos sistemas de inteligencia artificial, argumentando que se trata de una potencial amenaza para la humanidad.

La declaración, firmada por más de 1.000 personas, señala que existe una carrera “fuera de control” en el desarrollo de este tipo de tecnología.El organismo regulador italiano dijo que no solo bloquearía el chatbot de OpenAI, sino que también investigará si éste cumple con el Reglamento General de Protección de Datos.

La medida entra en vigor de inmediato. Las autoridades del país europeo aseguraron que la aplicación “sufrió el 20 de marzo una pérdida de datos sobre las conversaciones de los usuarios y las informaciones relativas al pago de los abonados al servicio de pago”.

No obstante, las autoridades han pedido a la empresa desarrolladora de la aplicación que realice un ajuste en los temas pertinentes o si no podría enfrentar una sanción de hasta 20 millones de euros.

Ver más: ChatGPT: Un fallo expuso dirección de correo y otra información de usuarios

Dan Morgan, experto de Security Scorecard, una firma de calificaciones de seguridad cibernética, dijo que la prohibición muestra la importancia del cumplimiento normativo que deben seguir las compañías que operan en Europa.”Las empresas deben priorizar la protección de los datos personales y cumplir con las estrictas normas de protección de datos establecidas por la Unión Europea”.

La decisión estuvo influenciada porque la aplicación carece de una nota informativa para los usuarios en la cual se les explique que sus datos son recogidos por la empresa ‘OpenAl’, además de tener ausencia de una base jurídica que “justifique la recogida y conservación en masa de los datos personales”.

Algunos usuarios de la aplicación habían denunciado recibir imágenes y mensajes con algún tinte sexual. 

El 20 de marzo el ente regulador sostuvo que no había ninguna base legal para justificar “la recopilación y el almacenamiento masivo de datos personales con el fin de ‘entrenar’ a los algoritmos en los que se basa el funcionamiento de la plataforma”.También dijo que dado que no existe una forma de verificar la edad de los usuarios y que la aplicación “expone a los menores a respuestas absolutamente inadecuadas en comparación con su grado de desarrollo y conciencia”.Bard, el chatbot de inteligencia artificial rival desarrollado por Google, actualmente está disponible solo para usuarios mayores de 18 años.

Ursula Pachl, subdirectora general de la organización de consumidores, advirtió que “existen serias preocupaciones sobre cómo ChatGPT y chatbots similarespueden engañar y manipular a las personas“, dijo Pachl.

“Estos sistemas de inteligencia artificial necesitan un mayor escrutinio público y las autoridades deben reafirmar el control sobre ellos”, agregó.

La Unión Europea prepara un proyecto de ley con el cual busca regular la inteligencia artificial, que podría estar listo a finales de 2023 o inicios de 2024 y ser aplicado rápidamente. 

Mientras que el Reglamento Europeo de Protección de Datos (RGPD) trabaja en imponer millonarias multas a las empresas tecnológicas por el “mal manejo de datos” de algunas aplicaciones.

ChatGPT ya está bloqueado en varios países, incluidos China, Irán, Corea del Norte y Rusia.