“Las amenazas basadas en Inteligencia Artificial [IA] son una realidad que debemos asumir y afrontar ya que, como cualquier herramienta, su uso inadecuado o con fines ilícitos puede resultar muy peligroso”. Con esta frase, la Oficina de Seguridad del Internauta [OSI], advierte de los peligros  de esta tecnología.

Todo el mundo habla de sus ventajas, pero pocas personas o instituciones llaman la atención sobre el lado criminal de la IA. Sin duda, está revolucionando nuestra forma de trabajar y muchos otros aspectos de nuestra vida, pero “no podemos olvidarnos de las implicaciones de ciberseguridad que tiene, sobre todo cuando los objetivos que persigue son maliciosos”.

Por eso, la OSI acaba de lanzar la campaña #IACiber, “para empezar a integrar la Inteligencia Artificial en tu vida con la ciberseguridad”.

Entre los dispositivos de riesgo se encuentran los asistentes virtuales del hogar

Lado criminal

La OSI destaca que los sistemas de IA “de alto riesgo” son los “dispositivos médicos, de formación, selección de personal o procesos democráticos, entre otros”.

Pero no son los únicos sujetos a amenazas. También lo están los “de propósito general, entre los que se encuentran los asistentes virtuales del hogar o algunas herramientas web”.

Por último, están los que directamente están prohibidos, como las imágenes, videos o noticias falsas “que distorsionan el comportamiento de una persona o explotan sus vulnerabilidades” para causarle un daño. 

En muchos casos, no somos conscientes de la presencia de la IA en nuestras vidas

Sin saberlo

Esta institución, dependiente del incibe [instituto nacional de Ciberseguridad], advierte de que la IA “forma parte ya de numerosos ámbitos de nuestra vida de los que, en muchos casos, no somos conscientes, como la salud y medicina, la educación, la automatización y fabricación, el transporte o las finanzas”.

Una situación que aprovechan los cibercriminales: “Un ciberdelincuente puede usarla para generar spam, hacer un phishing u otras amenazas, aprovechando la capacidad de las herramientas para crear texto creíble en varios idiomas, por ejemplo, o para anunciar productos o servicios falsos”.

Ataques

Pero no es la única forma de atacar: “También se utiliza para generar contenido falso y su posterior distribución, es decir, la desinformación, con las fake news y las deepfakes. Otros usos ilícitos son la evasión de censura o la creación de perfiles falsos, para llevar a cabo fraudes como las estafas de citas, la manipulación de opiniones o el fraude de soporte técnico”.

Recomendaciones

Por eso, la OSI recomienda: “Es importante que conozcas qué pistas te pueden ayudar a identificar un contenido”. En el caso de desconfiar de uno, “verifica la fuente; analiza su calidad”

Entre los detalles que te pueden ayudar a descubrir un bulo están, los textos que no guardan coherencia o tienen errores gramaticales. En los vídeos, “puede haber parpadeos y movimientos faciales o incongruencias entre el rostro y el cuerpo”. En cuanto al audio, “puede haber ruidos de fondo, el tono y el ritmo presentan variaciones o el contexto del discurso no tiene sentido. Y, por último, “fíjate también en los detalles de las imágenes y en la iluminación y las sombras, por si hay algún aspecto que no te encaja”.

Prácticas delictivas

Entre los usos de la IA para las prácticas delictivas que señala esta institución, se encuentran la mejora del código malicioso a través de plataformas como ChatGPT.

También aprovechan sus capacidades de generación de texto, para sus spam, phishing u otras amenazas en diferentes idiomas o para generar anuncios de productos falsos o servicios fraudulentos.

Por supuesto, uno de los usos más extendidos es la desinformación: “la facilidad para generar contenido de distinta tipología (texto, imagen, vídeos y audio) por parte de los sistemas IA es aprovechada para la creación de contenido falso para su posterior distribución”. Noticias falsas y bulos profundos [deep fakes] tanto con rostros como con voces alterados para dañar la reputación de una persona o difundir información adulterada son algunas de las prácticas.

Pero también se usa para evadir la censura: “a pesar de que muchos sistemas de IA están programados para no dar respuestas sobre temas ilegales o controvertidos, algunos usuarios buscan saltarse estas restricciones compartiendo métodos para liberar la versión de estos y usarlo sin limitaciones éticas”.

También está presente en la generación de “perfiles de usuario falsos en distintas plataformas (foros, redes sociales, aplicaciones de mensajería instantánea, etc.) que se utilizan para difundir mensajes maliciosos o que intentan recopilar datos personales o bancarios a través de interacciones con otros usuarios”.