Los delincuentes utilizan la herramienta para lanzar estafas o crear correos electrónicos destinados a engañar a los usuarios en fraudes
Por iProfesional
15/02/2023 – 10,04hs
ChatGPT es empleada por cibercriminales para la creación de virus informáticos. De acuerdo con la empresa de ciberseguridad Check Point, el cibercrimen consiguió superar las barreras de este chatbot, capaz de responder casi a cualquier pregunta gracias al uso de inteligencia artificial, para crear mensajes para estafas y elaborar código malicioso.
“Con ChatGPT es posible agilizar mucho la cadena de ataque”, dijo al medio español ABC Eusebio Nieva, director técnico para España y Portugal de Check Point, que realizó investigaciones realizadas con la inteligencia artificial desarrollada por la empresa OpenAI.
“Vimos que en algunos foros de la ‘darkweb‘ que los cibercriminales hablaban de que estaban usando ChatGPT para crear código malicioso destinado al robo de información. Intentamos probar la herramienta para ver si lo conseguimos y así fue”, dijo Nieva.
Tras la realización de este hallazgo, OpenAI realizó cambios en la herramienta destinados a “restringir la interfaz texto”, es decir, la propia página de la plataforma, para evitar que los cibercriminales puedan seguir utilizándolo para generar código malicioso.
“El problema es que esa protección no existe en la API (sigla en inglés por interfaz de programación de aplicaciones) de ChatGPT”, señaló el directivo de la empresa de ciberseguridad.
La API de una herramienta como ChatGPT permite que dos aplicaciones se comuniquen y el usuario pueda utilizar funciones del chatbot en otra aplicación. Se trata de un procedimiento parecido al que algunos usuarios siguieron para mantener conversaciones con la inteligencia artificial en aplicaciones como WhatsApp.
OpenAI es la empresa propietaria de ChatGPT.
Textos para estafas y códigos para robos
Check Point descubrió que varios cibercriminales aleccionan a otros actores maliciosos sobre cómo explotar la API de ChatGPT para utilizar la herramienta para lanzar estafas o crear correos electrónicos destinados a engañar a los usuarios en estafas.
“También estamos viendo que desde Rusia se están vendiendo formas de acceder a ChatGPT, donde OpenAI ha restringido el acceso geográfico a ChatGPT”, explicó Nieva. Check Point descubrió varios usos fraudulentos de ChatGPT gracias a la explotación de su API.
En un foro clandestino, por ejemplo, un usuario ofrece acceso a un bot de Telegram capaz de funcionar exactamente igual que la inteligencia artificial de OpenAI. La herramienta puede crear, sin problema, texto para estafas por correo y código malicioso destinado al robo de información.
“Los mensajes para ciberestafas que desarrolla son buenísimos. Están mucho mejor que los que solemos encontrar en las campañas más tradicionales, que suelen tener muchos errores”, admitió el director técnico de la empresa de ciberseguridad.
El ingenio está desarrollado con el objetivo de sacarle partido a nivel económico. De este modo, los delincuentes pueden acceder de forma gratuita a la versión maliciosa de ChatGPT para 20 consultas gratuitas y luego se les cobra 5,50 dólares por cada 100 consultas.