La inteligencia artificial (IA) viene pisando fuerte y, como toda la tecnología que se presenta, lo hace con oportunidades, pero también con retos. Así las cosas, si bien el objetivo de esta herramienta es la de agilizar el trabajo a quienes recurren a ella, provoca igualmente discrepancias en algunos campos. Ahora es factible hacer, por ejemplo, una imagen que parece real aun siendo ficticia y textos en apenas minutos, aunque en ocasiones imperfectos.

Algunos de los ejemplos más claros y recientes se encuentran en la fotografía del Papa Francisco con un abrigo acolchado o pluffer, sobrándose de estilo a las puertas del Vaticano. O en la portada de El Mundo que desató la polémica por juntar a Yolanda Díaz y Pablo Iglesias compadreando en mitad de su particular pugna. Pero la máxima expresión de lo que es capaz la IA ha aparecido en las últimas horas después de que la revista Die Aktuelle publicara una entrevista con el piloto de Fórmula 1 fallecido Michael Schumacher. Una decisión que ha caído tan mal en el círculo más cercano al alemán que la familia piensa en llevarlo a los tribunales. “Ya nos cuesta diferenciar ficción y realidad”, señala de manera contundente a este medio Marc Rivero, analista de Kaspersky y experto en el tema.

Qué es ChatGPT

Pero esta nueva amiga -o enemiga, en función de a quién se pregunte- alcanza muchos niveles, siendo uno de los más polémicos al que llega ChatGPT. Se trata de un sistema de chat que funciona con inteligencia artificial. Una especie de Alexa que tiene respuesta a prácticamente cualquier pregunta convencional que le hagas. Rivero lo explica mucho mejor y de manera bastante más sencilla: “No deja de ser un servicio que opera en la nube y que tiene detrás a la inteligencia artificial. Trabaja con un modelo de datos ya definido para poder operar con cuestiones o preguntas que la gente que use el servicio tenga”.

Precisamente por esto último sus tentáculos alcanzan muchos mares, algunos más profundos y oscuros como los que Europa se encuentra investigando. La encargada de abrir el melón fue Italia, quien bloqueó de inmediato el pasado 31 de marzo al chatbot considerando que no cumplía con las normas de privacidad europeas. En concreto, el país transalpino ha sido el que más lejos ha llegado en el continente, pero no el único que ha puesto sobre la mesa la investigación. Sin ir más lejos, España situaba a OpenIA -encargada del desarrollo- en el punto de mira de forma que la Agencia de Protección de Datos Española (AEPD) ha anunciado que investigará de oficio a la fundación Altam en colaboración con otros socios europeos.

La problemática, que ha llegado hasta territorios como China o Estados Unidos (EEUU), pasa principalmente por las implicaciones del software de inteligencia artificial en lo que a privacidad e información personal de los usuarios se refiere (el asunto es motivo de disputa hasta para el magnate Elon Musk). Roma está dispuesta a levantar el veto en el momento en el que la aplicación demuestre que juega limpio en asuntos como la transparencia y la protección de datos, especialmente de los menores de edad. La cuestión va más allá e incluye detalles más complejos de carácter legislativo. Nuestro experto reconoce no atrever a predecir estos últimos, dado que no es su campo, pero subraya que pueden depender en función de cada país y no descarta que aparezcan “diferentes versiones” de ChatGPT para respetar todas las legislaciones.

Desnudos en la nube

El país de Joe Biden, por su lado, ha habilitado un periodo de dos meses para recoger ideas y propuestas para las nuevas plataformas de inteligencia artificial. Los vecinos Francia y Alemania han abierto estudios al respecto. China ha presentado una batería de medidas que incluyen controles a estos nuevos actores. España actúa en la línea de lo mencionado. Y así podríamos seguir hasta la saciedad. El caso es que desde la puesta en marcha concretamente de ChatGPT, hace cosa de un año, éste trae ahora de cabeza a países y usuarios -más allá de la parte positiva de su uso-; y también a empresas.

Prueba de lo último es que ha obligado a compañías como Microsoft, Google o Baidu a posicionarse en seguida. En definitiva, el éxito abrumador -alcanzó 100 millones de usuarios activos- ha creado una especie de Frankenstein con mucho margen de mejora y sin riesgos. Algo que se antoja casi imposible habida cuenta de lo que suponen la tecnología e internet en sí, ante los que cada día nos servimos, pero respecto a los que estamos también desnudos. No obstante, hay matices frente al servicio al que se refieren estas líneas y una red social u orto espacio de la red. “Se diferencia en la cantidad de datos que procesa y almacena y trata. Es verdad que los servicios de internet procesan datos, pero están más enfocados a otro área. El problema aquí ha pasado también por el hype, y es que ha tenido una cuota de usuarios muy, muy alta hasta alcanzar el millón de forma muy temprana. Por lo tanto, se ha juntado la cantidad de personas que utilizan la plataforma y la manera en la que esta trata y trabaja los datos”, desliza.

¿Estamos preparados para la Inteligencia Artificial?

La pregunta que todo el mundo se hace es, por tanto, si la inteligencia artificial realmente ha llegado para facilitar la vida o, por el contrario, para complicarla. Rivero recuerda que cuando apareció internet en el día a día de anteriores generaciones, así como otras herramientas sin las que hoy nos costaría horrores vivir, también había miedo a la pérdida de trabajos o a que no fuéramos capaces de adaptarnos. La Inteligencia Artificial parece encontrarse en esa primera fase de miedo hacia lo desconocido, pero es algo positivo siempre que se utilice con cabeza. Como todo.

Y es que su objetivo último pasa por “automatizar ciertas tareas”, pero -al menos por el momento- no disfruta de lo más importante: la “capacidad emocional” y el “sesgo de análisis”. “Seguimos y, creo, seguiremos siendo útiles a nivel productivo”, tranquiliza el analista de Kaspersky.

Seguiremos siendo útiles a nivel productivo

Algunas de las mejoras pasan por restringir según qué servicios y, sobre todo, abanderar siempre la transparencia como bastión para avanzar. El propio ChatGPT, explica nuestra fuente, ha pensado ya en ello y dispone de un detector que comprueba si algo está escrito o no con IA. “La cuestión principal pasa porque la gente pueda distinguir sin problema lo que está hecho y lo que no con IA. Igual que si un organismo está financiado por el Gobierno de España, su deber es ponerlo para que la gente lo pueda saber; si hacemos una imagen o un texto con IA, lo debemos incluir”.

Pero no es lo único a tener en cuenta, pues hay que tratar igualmente de reducir comportamientos machistas, racistas, homófobos y escapar de las fake news, siendo ello otros desafíos que se nos plantean como sociedad. “Pero estamos preparados para todo”. El tiempo respaldará -esperemos- estas palabras.