El ChatGPT y el uso de la inteligencia artificial no solo tiene sorprendido al mundo por sus alcances, sino que ha despertado muchas inquietudes y preocupaciones, no solo en el mundo académico y científico, sino entre las autoridades.

La capacidad de ChatGPT para redactar textos muy realistas a gran velocidad y escala hace de esta herramienta de inteligencia artificial un recurso para fraudes y desinformación, pero también un aliado de ciberdelincuentes con pocos conocimientos técnicos al hacer códigos en varios lenguajes de programación, advirtió Europol.

Los modelos de lenguaje extenso como ChatGPT tienen un “lado oscuro”, admite la agencia de coordinación policial, que publicó este lunes 27 de marzo su primer informe sobre la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes, algo que, dice, “ofrece un panorama sombrío” y un nuevo desafío para la aplicación de la ley.

El modelo actual de acceso público a ChatGPT, capaz de procesar y hacer un texto similar a una persona, puede responder preguntas sobre una variedad de temas, traducir texto, chatear, generar contenido nuevo y producir código funcional, pero también facilitar actividades delictivas que van desde ayudar a los delincuentes a permanecer en el anonimato hasta delitos específicos, como el terrorismo y la explotación infantil.

(Lea también: Prueban si ChatGPT hace buenas hojas de vida; abusa de palabras cliché y comete errores)

El Laboratorio de Innovación de Europol se sumó a la creciente atención pública prestada a Chat GPT, una chatbot al que ya han salido rivales como Bard (Google) y Bing (Microsoft). Los expertos de Europol han investigado cómo los delincuentes pueden abusar de estos modelos de lenguaje extenso (LLM, en sus siglas en inglés).

Han identificado numerosas áreas de preocupación, pero destacan tres ámbitos relevantes.

La primera es su forma de facilitar las tareas de fraude, suplantación de identidad e ingeniería social, puesto que la capacidad de la inteligencia artificial para redactar textos muy auténticos cambia las reglas del juego: el ‘phishing’ más básico era fácil de detectar dado que usaba mensajes y correos llenos de errores gramaticales y ortográficos, pero ahora es posible hacerse pasar por una organización o individuo de manera realista y con pocos conocimientos de inglés.

(Vea también: Aprenda a identificar una estafa con estas cuatro señales claves y evite que lo tumben)

“Hasta ahora, este tipo de comunicación engañosa ha sido algo que los delincuentes tenían que producir por su cuenta. En el caso de campañas producidas en masa, las víctimas de este tipo de delitos a menudo podían identificar la naturaleza no auténtica de un mensaje debido a errores ortográficos o gramaticales obvios o su contenido vago o inexacto”, señala Europol.

Con la tecnología artificial, estos ‘phishing’ y fraude virtual se pueden crear de “manera más rápida, mucho más auténtica y a una escala significativamente mayor”, y permiten “responder a mensajes en contexto y adoptar un estilo de escritura específico”, alerta.

Junto al fraude y la desinformación, Europol destaca la ciberdelincuencia como tercer área de preocupación, puesto que ChatGPT no se limita a generar un lenguaje similar al humano, sino que también es capaz de producir código en varios lenguajes de programación distintos, con una variedad de resultados prácticos en cuestión de minutos ingresando las indicaciones correctas en la página web de esta herramienta.