ChatGPT: Estafas y engaños alrededor de este fenómeno

ChatGPT ha despertado gran interés desde su aparición por su sorprendente capacidad y por las posibles formas de uso en diferentes escenarios. Esta atracción e interés masivo, como siempre sucede, también es aprovechado por los cibercriminales que buscan sacar partido de la popularidad de esta tecnología para cometer algún tipo de fraude.

Algunas de las formas en que los cibercriminales utilizan el nombre de ChatGPT para atraer a potenciales víctimas, son:

  • Falsas extensiones de ChatGPT en Chrome: Recientemente se descubrió una extensión maliciosa para Google Chrome, llamada “Quick access to Chat GPT”, que ofrecía acceso directo al Chat GPT. Si bien la extensión proporciona la funcionalidad que promete, el objetivo principal es robar cuentas de Facebook y de otros servicios. Luego, los delincuentes utilizaban estas cuentas robadas para crear bots y desplegar a través de la red social más anuncios maliciosos que distribuyen malware y robar credenciales.

La extensión, que ya fue eliminada del repositorio oficial de Chrome, estuvo disponible durante seis días y registró un promedio de 2000 instalaciones diarias. Este complemento recopilaba información del navegador, como cookies de sesiones abiertas de cualquier servicio activo (como Facebook) y enviaba esta información a un servidor del atacante. Investigadores de Guardio revelaron que se trata de una campaña que comenzó en febrero y que incluye otras extensiones maliciosas para Chrome que también utilizan el nombre de ChatGPT. “No sería extraño que exista otra extensión maliciosa en actividad o que pueda aparecer una nueva en un futuro cercano. Así que mucho cuidado con las extensiones que instalamos en nuestro navegador”, advierte Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de importante compañía de ciberseguridad en Latinoamérica.

  • Sitios y perfiles falsos de ChatGPT en redes sociales: Se detectó la presencia de páginas en redes sociales como Facebook que promueven contenido sobre esta herramienta, pero que también se utilizan para distribuir enlaces y anuncios que llevan a sitios que se hacen pasar por ChatGPT. Algunas de estas páginas buscan engañar a las víctimas para que descarguen archivos maliciosos en sus equipos. Algunos de estos sitios descargaban malware que roba credenciales del equipo infectado.

“Vale la pena mencionar que debido a la demanda que existe por ChatGPT y que muchas personas no pueden acceder al servicio por el volumen de personas interesadas en utilizar la herramienta, ahora OpenAI ofrece la posibilidad de pagar para acceder a la versión Plus. Esto también es utilizado por los atacantes para intentar robar los datos financieros de la tarjeta mediante falsos formularios”, agrega Gutierrez Amaya.

Ver más: Pasos para ir a la Nube

  • Falsas apps para móviles de ChatGPT: Por el momento ChatGPT no está disponible a través de una app para teléfonos. Sin embargo, los cibercriminales están aprovechando este escenario para distribuir falsas apps para Android que descargan spyware o adware en los smartphones. Investigadores de Cyble detectaron más de 50 apps maliciosas que utilizaban el logo de ChatGPT que tenían como objetivo final realizar algún tipo de actividad maliciosa.

Otro caso reportado por Gizmodo reveló que en App Store se distribuyó una app de dudosa reputación que utiliza el nombre de ChatGPT de forma gratuita, pero que al cabo de tres días cobra cargos de suscripción.

“Si bien estas son algunas de las formas que -hasta ahora- han explorado los atacantes, seguramente aparezcan nuevos casos o incluso otras formas de aprovechar el interés y la curiosidad para cometer algún tipo de delito. Por lo tanto, las personas deberán estar atentas y desconfiar de los resultados de búsqueda, de los anuncios que muestran los resultados de Google o en las redes sociales. También se debe prestar atención a los enlaces que se comparten en grupos donde se discute sobre este tema o de cualquier app que prometa instalar este chatbot en el teléfono o como software en la computadora”, concluye.