La inteligencia artificial es uno de los interrogantes cruciales del futuro de la Humanidad. No solo tiene implicaciones económicas, sociales y políticas, también éticas. Según expertos en la materia reunidos en la conferencia Dreamforce 18 en San Francisco (Estados Unidos), existe el riesgo de que replique prejuicios y sesgos humanos.

Y es que, aunque la premisa fundamental de la inteligencia artificial es que las máquinas piensan y toman decisiones por sí mismas, son los humanos quienes deben enseñarles a llevar a cabo estos procesos, por lo que cualquier sesgo presente en el mundo real es fácilmente repetido. “Se trata de una tecnología que puede hacer mucho bien, pero también tiene potencial para dañar a los individuos”, ha señalado la arquitecta de prácticas éticas de inteligencia artificial del gigante de computación en nube Salesforce, Kathy Baxter, en un debate en este evento.

Según Baxter, la clave son los datos -de los que se nutren las máquinas en su proceso de aprendizaje-, ya que si estos presentan sesgos o patrones discriminatorios, las decisiones que termine tomando la máquina harán lo mismo o incluso los ampliarán. “Pongamos por caso un programa de inteligencia artificial que decide mediante un análisis de riesgo si se otorgan préstamos o no a potenciales clientes de un banco”, usó como ejemplo la responsable de Salesforce.

Incluso aunque el programador elimine variables como la raza o el género en el algoritmo de toma de decisiones, la máquina no tendría por qué mantener la supresión. “Si históricamente las mujeres o minorías étnicas han experimentado una tasa inferior con respecto a la concesión de préstamos por parte del banco, eso será lo que aprenda la máquina y lo reproducirá”, apuntó.