Recientemente se ha descubierto que los ciberdelincuentes y piratas informáticos han creado sus propias versiones de la tecnología de generación de texto. Hasta donde se conoce, los sistemas podrían, potenciar la capacidad de los delincuentes para escribir malware, o incluso correos electrónicos de phishing que consigan engañar a las personas para que las mismas entreguen su información de inicio de sesión.
Tal parece que desde inicios del mes de julio, los criminales que publican en foros y así mismo en mercados de la web oscura (dark web), han estado promocionando 2 modelos de lenguaje extenso (LLM) los cuales dicen haber producido. Los sistemas que se mencionan que imitan a ChatGPT y Bard, generan texto para responder a las preguntas o indicaciones que ingresan los usuarios. Sin embargo, hay que destacar que a diferencia de los LLM creados por grandes compañías legítimas, estos chabots clones, se comercializan para actividades evidentemente ilícitas. ¡Todos los detalles los presentamos a continuación!
Chatbots clones se comercializan para actividades ilícitas
Evidentemente hay varias preguntas pendientes sobre la autenticidad o legitimidad de los chatbots. Los criminales no son personas confiables y cabe la posibilidad de que estén tratando de ganar dinero rápido estafándose unos a otros. Cabe acotar que a pesar de esto, los desarrollos han llegado en un momento en que los estafadores se encuentran explotando la exageración de la IA generativa para su propio beneficio.
Según los investigadores de seguridad que monitoreaban la actividad, recientemente, en las últimas semanas, se han informado 2 chatbots en foros de la web oscura; WormGPT y así mismo, FraudGPT. Los modelos de lenguaje extenso legítimos desarrollados por grandes compañías como por ejemplo; OpenAI, Google y Microsoft, poseen un conjunto de medidas de seguridad y protección para evitar que se usen de forma indebida. Si el caso es que se le solicita que generen malware o discursos de odio por ejemplo, se negaran.
Los LLM obscuros afirman eliminar cualquier tipo de protección de seguridad o barreras éticas. Hay que mencionar que por ejemplo WormGPT fue descubierto por vez primera por el investigador independiente de seguridad cibernética, Daniel Kelly. Los desarrolladores de WormGPT aseveran que esta herramienta brinda un número ilimitado de caracteres y así mismo, formato de código. Mientras que el creador de FraudGPT ha asegurado un mayor potencial para su sistema, aludiendo que podría “crear malware indetectable” y así mismo, encontrar fugas y vulnerabilidades además de crear texto que podría llegar a usarse en estafas en línea. Según Rakesh Krishnan, el analista senior de la firma de seguridad Netenrich que encontró FraudGPT, mencionó que la persona que lo vende ha anunciado el producto en diversidad de foros de la web oscura y así mismo en los canales de Telegram.
Quienes promocionan los chatbots atestiguan que existen, pero, es difícil verificar la composición y así mismo, la legitimidad de los sistemas. Se sabe que los estafadores ciberdelincuentes están estafando a otros estafadores con investigaciones anteriores que evidencian que con periodicidad intentan estafarse unos a otros, según se ha conocido, no brindan lo que dicen que están vendiendo y ofrecen un servicio pésimo al cliente. Según ha mencionado Sergey Shykevich, gerente del grupo de inteligencia de amenazas en la firma de seguridad conocida como “Check Point” existen algunos indicios de que las personas están usando WormGPT, según expresó, tal parece que hay una herramienta real. Al mismo tiempo que indicó que el vendedor detrás de la herramienta posee un historial en foros de delitos cibernéticos.
Lo cierto es que el investigador de Check Point menciona que no hay señales de que ninguno de los sistemas sea mucho mejor o más capaz que ChatGPT de OpenAI, u otro LLM comercial. A pesar de las dudas sobre los sistemas, para nada nos sorprende que los ciberdelincuentes quieran participar en el apogeo de LLM.
El FBI advirtió que los ciberatacantes están considerando el uso de Inteligencia Artificial Generativa en su trabajo, y la agencia europea de aplicación de la ley, Europol, también formuló una advertencia parecida. Según se ha conocido, las agencias de aplicación de la ley han manifestado que los LLM podrían llegar a ayudar a los criminales con el fraude, así como con la suplantación de identidad e incluso, con muchas otras ingenierías sociales mucho más rápido que anteriormente y así mismo, optimizar su ingles escrito. Por lo que se debe tener sumo cuidado en la actualidad con los ciberdelincuentes y sus miles de forma para realizar fechorías.