La inteligencia artificial está transformando numerosos sectores. En muchos casos, es una herramienta que comporta importantes ventajas. Si embargo, también tiene una peligrosa cara, a la que urge hacer frente. 

Aunque pareza mentira, existen tecnologías dirigidas a diseñar ciberataques automatizados de alta precisión. Tiene un coste irrisorio, menos de 200 euros, y las hay hasta gratuitas. 

Al igual que se hace con ChatGPT o cualquier IA similar, a la que podemos pedir, por ejemplo, que nos plafinique una vacaciones, basta con decirle a estos modelos: "Quiero atacar tal empresa o quiero desarrollar este código de malware". Ni tan siquiera hace falta ser usuario avanzado. Si tenemos cualquier problema, hay un suporte para ayudarte a la distribución del malware que generes.

"El problema de estas herramientas es que operan sin filtros éticos ni restricciones de uso", explica a ELPLURAL.COM Ramón Rico, Cybersecurity Operations Manager de Logicalis Spain, un proveedor global de servicios de TI y soluciones digitales. Se trata de un modelo de negocio dirigido a criminales o a cualquier persona que en un momento dado quiera crear una instrucción maliciosa. Por increíble que pueda parecer, no se oculta nada. "Hacen captación de gente que quiera participar en sus campañas y funcionan con una gran capacidad organizativa", aclara este especialista. "Es un negocio abierto, descentralizado y que carece de cualquier tipo de filtro", precisa. . 

Rico pone como ejemplo WormGPT, que permiten elaborar correos de phishing en distintos idiomas con una redacción impecable, o FraudGPT, que automatiza la generación de códigos maliciosos y páginas web falsas. "Los esfadores ya no tienen que inventar nada. Todo lo que le pidan a esta IA  se lo va a dar y si tienen problemas para generar la orden maliciosa tienen un soporte de ayuda".

Este tipo de Inteligencia Artificial convierte la estafa del hijo en apuros es casi un juego de niños. "A través de las redes sociales, les es muy fácil obtener la voz, e, incluso, la imagen", detalla este experto de Logicalis, que añade que después es tan sencillo como generar "un mensaje pidiendo ayuda". Rico recuerda en este contexto un caso de Reino Unido de 2019, en el que se simuló la imagen y la voz del CEO de una empresa para ordenar una transferencia de 220.000 euros

Legislación, control y concienciación

Para hacer frente a este tipo de amenazas es fundamental que la seguridad avance al mismo rítmo que lo hace el desarrollo de la IA. En este sentido, apunta este experto, una parte vital se basa en la legislación. "Igual que se legisla un medicamento o un arma, ha de regularse la IA", insiste  "Los Gobiernos han de establecer marcos normativos que regulen no solo el desarrollo, sino también el uso responsable de estas herramientas" defiende.

Del mismo modo, "las grandes tecnológicas tienen una responsabilidad con esto y son las que tienen que desarrollar esos modelos base, establecer controles de uso, dar transparecencia", recalca.

En cuanto a usuarios y empresas, es imprescindible la concienciación. "Las empresas que se impliquen en transofrmación ndigial han de hacerlo también en seguridad, apunta Rico, que expone que muchas compañías "están comenzando a implatar la IA en sus procesos, pero no tienen un plan claro de cómo protegerse de su uso malicioso". Es más, el uso desmedido de inteligencia artificial está abriendo brechas de seguridad, no por solo por las herramientas pensadas directamente para hacer el mal, sino porque "las empresas le están dando a la Inteligencia Artificial muchos datos que pueden comprometerlas", asegura.

Según el informe CIO Report 2025 elaborado por Logicales, el 94% de los responsables tecnológicos en las organizaciones están explorando aplicaciones de inteligencia artificial para mejorar procesos y eficiencia; pero este impulso no siempre va acompañado de las garantías necesarias en términos de protección frente a amenazas emergentes

En definitiva, hacen falta "políticas claras, control de desarrollos y accesos y supervisión", resume Rico.  A día de hoy, están emergiendo, además, modelos defensivos capaces de anticiparse a comportamientos anómalos y detectar amenazas como el malware generativo o la suplantación hiperrealista. "La clave estará en combinar capacidades predictivas con la formación continua de los equipos, así como en generar alianzas sólidas entre el sector público y privado para hacer frente a riesgos que traspasan fronteras y sectores", aclara .

Rico insiste en que ignorar el equilibrio entre transformación digital y seguridad "pone en peligro no solo la reputación y los datos de las organizaciones, sino también la estabilidad de las infraestructuras críticas. 

Por último, resulta necesario que todo el contenido generado por IA esté etiquetado con una advertencia, para que el usuario sea consciente de lo que está viendo. "Esto es muy importante, sobre todo, con colectivos vulnerables como la población mayor", alerta Rico.

"La inteligencia artificial no es ni buena ni mala, depende de cómo la utilicemos. Podemos hacer que esta revolución tecnológica suponga un aprovechamiento y no una amenaza, zanja. .

Súmate a El Plural

Apoya nuestro trabajo. Navega sin publicidad. Entra a todos los contenidos.

hazte socio