La nueva estafa a los usuarios de Chat GPT que vacía cuentas bancarias

Investigadores expertos en seguridad cibernética han descubierto que delincuentes han utilizado la herramienta de inteligencia artificial ChatGPT, desarrollada por Open AI, para crear cepas de malware y ejecutar ataques de software malicioso.

ChatGPT es un prototipo de chatbot de inteligencia artificial desarrollado por OpenAI en 2022, que se especializa en el diálogo, entrenado para mantener una conversación e interactuar con humanos de manera natural que brinda una respuesta en texto y genera ideas. Además, es un chat que se basa en el modelo de lenguaje GPT 3.5.

En la última semana, un grupo de investigadores de ciberseguridad encontró que algunos ciberdelincuentes estarían utilizando ChatGPT para ejecutar campañas de malware. Un fraude que utiliza la creación de OpenAI para dañar o explotar cualquier servicio o red programable.

A través de esta acción maliciosa los estafadores pretenden robar datos de cuentas personales, tarjetas de crédito y otro tipo de información bancaria.

Al respecto, la investigadora de la compañía global de Seguridad Informática ESET Latinoamérica, Sol González, manifestó: «Es por esto que cuando se habla de que una tecnología puede ser utilizada para la optimización, quedan incluidos todos los procesos, como aquellos que son utilizados para desplegar amenazas».