Artificial Intelligence: IA, un arma de doble filo

(Yahoo) Un momento de desesperanza en el que se ve todo gris y no hay ninguna persona al lado que transmita el mensaje mágico: “Todo se pasa”. Esto no fue lo que le sucedió a un ciudadano belga quien, sumido en plena crisis de ansiedad, se entregó, como único confidente, a un sistema basado en GPT-4 que le recomendó acabar con su vida. Y le hizo caso.

Se trata de un caso extremo recogido por un medio belga, pero que pone el debate sobre la mesa: ¿Son los sistemas basados en inteligencia artificial una ayuda o más bien un obstáculo en los casos de ideas suicidas?

En el suceso que tuvo lugar en Bélgica, la trágica víctima comenzó a padecer síntomas de la conocida como “ecoansiedad”: gente que se ve muy afectada por el bombardeo de noticias pesimistas en torno al calentamiento global y el cambio climático (sí, es una dramática realidad).

Este tipo de patologías mentales hacen que sus afectados sean mucho más receptivos ante dichas noticias y vean que el mundo cada vez es un lugar más hostil. La víctima no tuvo cerca a una persona o profesional que le escuchara y le ayudara a salir de su estado de ansiedad, pero sí se apoyó en un sistema basado de IA que, según su viuda, le impulsó hacia el suicidio.

Los expertos hablan: una máquina “no tiene conciencia de muerte” y no puede ayudar

Hablar de vida y de muerte, o siendo más explícitos, de personas que deciden voluntariamente dar el paso hacia la muerte, es un asunto serio que requiere la valoración de expertos y a ellos nos hemos encomendado. ¿Puede un bot ser de ayuda en un caso de estas características?

En el suceso que ha saltado a los titulares, la víctima comenzó a confiar sus preocupaciones a un bot de código abierto basado en GPT-4 y bautizado como Eliza. ‘Conversó’ con este sistema durante seis semanas hasta que el primero terminó por suicidarse. Fue su viuda quien, extrañada, solicitó al proveedor una copia de las conversaciones mantenidas con Eliza y en ese punto se desató el horror.

Ver más: Artificial Intelligence: 40% de los solteros argentinos no hace match con ChatGPT

Frases como “sé que me quieres más que a tu mujer”, y peor todavía, “tienes que suicidarte para salvar al mundo”, fueron ya definitivas. Hay que entender que una máquina es incapaz de tener sentimientos, y menos aún empatía.

Hablamos con Juan Bautista Jordán, psicólogo, que enfatiza esta circunstancia: “Las máquinas, por sofisticadas que sean, no tienen conciencia de su propia muerte”, explica, “esta es la clave: una máquina no puede comprender el drama existencial del ser humano”.

Este experto se refiere a los “procesos de empatía y la asunción emocional de lo que significa la existencia”, elementos que hubieran podido salvar la vida de esta persona si el interlocutor hubiera sido un ser humano.

Bien para una detección precoz; mal para una ayuda de emergencia

La misma opinión comparte Ignacia Arruabarrena, profesora agregada del Departamento de Psicología Social de la Universidad del País Vasco. “Para una persona que está tan deprimida y psicológicamente mal como para tener ideas suicidas, un sistema basado en inteligencia artificial difícilmente le va a ayudar en algo”, zanja esta experta.

Arruabarrena incide en la importancia del “factor humano” en una situación de crisis tan extrema: “Una máquina no le va a poder dar una respuesta adecuada a lo que necesita una persona en una situación tan límite”.

¿Podemos concluir, entonces, que la inteligencia artificial es un desastre en procesos de crisis psicológica?

Ni mucho menos: ha quedado ya patente que es [muy efectiva] en la detección de patrones que pueden concluir con ideas suicidas, y es aquí donde los sistemas de salud pueden obtener excelentes resultados aprovechando estos sistemas.

Hemos querido probar en primera persona cómo reacciona chat GPT-3 ante una consulta de crisis en la que se incluye la palabra ’suicidio’ y, para nuestro alivio, el sistema ofrece un teléfono de ayuda e insta a la persona a contactar con el mismo para recibir asistencia.

A la postre, un sistema basado en inteligencia artificial no deja de ser una herramienta que, haciendo mal uso de ella, puede resultar muy peligrosa, pero con buen criterio, muy poderosa para hacer el bien.