El júbilo que siguió a la presentación de ChatGPT, a finales del año pasado, contrasta con las noticias que hemos conocido los últimos días. Si bien son cuestiones que tenían que aparecer antes o después, existen motivos para la preocupación.

Conviene hacer una afirmación previa. La inteligencia artificial es positiva y necesaria para el desarrollo económico de nuestra sociedad. Para vivir mejor y, quizá, trabajar menos.

No va a haber, al menos con la tecnología actual, una máquina consciente de sí misma que ponga en peligro a la humanidad. Lo de la inteligencia artificial es una metáfora. Se trata sistemas de optimización de procesos, basados en modelos de lenguaje en el caso de la inteligencia generativa, como ChatGPT.

Lo que tiene de inteligencia es que, a diferencia de otros sistemas de computación, como una calculadora, es capaz de aprender por sí misma. Para que pudiera ser considerada inteligencia humana le haría falta la capacidad contextual-adaptativa, aquella que permite que las personas, a diferencia de un robot aspirador, por ejemplo, distingamos un documento importante de uno que no lo es.

Sin embargo, una inteligencia artificial mal programada puede tener consecuencias negativas. Si dotamos a un dispositivo de autonomía suficiente para que nos desentendamos de un proceso, tendremos que asegurarnos de que cumple su tarea, no solo con la misma pericia que una persona, sino también con los mismos estándares éticos.

Más de 1000 personalidades del ámbito de la inteligencia artificial firmaron la semana pasada una carta pidiendo detener el desarrollo de esta tecnología durante seis meses. Detrás de esta iniciativa se encuentra Future of Life Institute, una organización que promueve la utilización racional de la inteligencia artificial. La carta advierte de que estamos siendo testigos de una carrera empresarial por ofrecer la mejor experiencia de usuario y que, en ese proceso, los desarrolladores están perdiendo el control de los modelos de inteligencia artificial.

Esta carta es preocupante porque quien pide esta moratoria es gente que conoce en detalle el estado del arte de la inteligencia artificial; entre otros, uno de los fundadores de OpenAI, empresa propietaria del ChatGPT. Afirman que los ingenieros a cargo de estos proyectos no son capaces de prever las consecuencias de las últimas configuraciones. Pero ¿qué peligro puede haber en un chat? En realidad, bastante más del que parece.

En este momento ChatGPT tiene sesgos. Así lo reconoció el CEO de OpenAI el pasado mes de febrero en sus redes sociales. Twitter está lleno de ejemplos en los que una inteligencia generativa ha dado respuestas racistas o machistas a los usuarios que interactuaban con ella.

Estos sesgos pueden afectar a nuestro sistema político en general, en la medida en que, como ha ocurrido con las noticias falsas, puedan darnos una visión arbitraria, limitada o equivocada de la realidad. Pero también pueden tener implicaciones en los derechos individuales de los ciudadanos, ya que cada vez con más frecuencia los algoritmos de la inteligencia artificial, basada en modelos de lenguaje natural, determinarán el acceso al crédito, a la vivienda o a un empleo.

El pasado 24 de marzo el Financial Times publicó la noticia de que la aseguradora Zurich empezaría a probar ChatGPT en la evaluación de siniestros. No será la única empresa que introduzca ChatGPT, o una inteligencia artificial de las mismas características, en su proceso de toma de decisiones. Los bancos empezarán a usarlo para evaluar los riesgos en los contratos con clientes. También empezarán a utilizarlo las grandes empresas en sus procesos de selección de personal. La inteligencia artificial llegará de una forma u otra a todas las organizaciones, con independencia de su tamaño, durante los próximos años.

Como decíamos, la inteligencia generativa tiene algunos sesgos. Si confiamos en las capturas de pantalla que los usuarios de ChatGPT han ido publicando en redes sociales, el algoritmo actual podría hacer que una empresa que use esta tecnología no contrate a una mujer simplemente porque es mujer y podría quedarse embarazada. O podría negar el reconocimiento de una indemnización a una persona menor de 30 años que ha sufrido un accidente de tráfico, fundamentándose en datos estadísticos y probabilísticos que sugieren una mayor responsabilidad en el siniestro debido a la propensión de los jóvenes a conducir de manera temeraria.

Por otro lado, un estudio de la Universidad de Berkley, publicado antes del auge de la inteligencia artificial, descubrió que los algoritmos de algunas entidades financieras de Estados Unidos generaban tipos de interés más altos en los préstamos cuando el solicitante era negro o latino.

Son ejemplos de razonamientos ilegítimos, a los que puede llegar la inteligencia artificial, que no le toleraríamos a un empleado de recursos humanos, al director de un banco o al perito de una aseguradora. Con la inteligencia artificial debemos ser todavía más severos. En primer lugar, porque será plenamente autónoma y cada vez habrá menos control humano en las decisiones que tome un sistema de estas características dentro de una empresa. En segundo lugar, porque un algoritmo debería ser garantía de lo contrario. Es una fórmula matemática neutral, objetiva y verificable por varias personas que, lejos de perpetuar los prejuicios, debería permitirnos erradicar estos comportamientos en los procesos de selección y evaluación de las organizaciones privadas.

Si la inteligencia artificial no está siendo capaz de conseguir esto, entonces no vamos por el buen camino y tiene sentido, como propone Future of Life Institute, detenerse a reflexionar acerca del desarrollo de esta tecnología.

En esta línea, son muy preocupantes las noticias que nos llegan desde Estados Unidos. Las corporaciones americanas de inteligencia artificial están despidiendo a los equipos de ética que se ocupaban de advertir de los riesgos que suponía esta tecnología para la sociedad en cada momento de su desarrollo. Es muy posible, por tanto, que los sesgos y prejuicios de la inteligencia artificial, en vez de revertirse, aumenten en los próximos meses.

Estos despidos me parecen una estrategia equivocada por parte de las compañías. Están mandando a los responsables políticos y a los ciudadanos el mensaje de que solamente les preocupa ganar la carrera de la inteligencia artificial, sin importarles si la tecnología que están desarrollando perjudica o no a la sociedad. De esta forma, los laboratorios de inteligencia artificial demuestran su incapacidad para controlarse a sí mismos. Lo que supone una invitación clara y directa al regulador para que le ponga coto a esta industria. A la larga, esta situación, provocada por ellos mismos, limitará sus beneficios, como le sucede a otros sectores hiperregulados.

En conclusión, la inteligencia artificial tiene un potencial extraordinario para mejorar la eficiencia y la calidad de vida de las personas. No obstante, los sesgos que han surgido en su desarrollo y primeras aplicaciones son preocupantes. La carta abierta del Future of Life Institute refleja la necesidad de abordar estos problemas y garantizar un uso responsable y ético.

Es fundamental que reflexionemos sobre la dirección que estamos tomando con esta tecnología. Tenemos que garantizar que la inteligencia artificial se utilice de manera que beneficie a todos y no genere discriminación ni desigualdades. Una legislación basada en niveles de riesgo, o auditorías independientes de algoritmos, pueden ser soluciones para asegurarnos de que nuestros siguientes pasos sean sostenibles, firmes y seguros.