Las tecnologías de inteligencia artificial como ChatGPT aparentemente están haciendo todo en estos días: escribir código, componer música e incluso crear imágenes tan realistas que pensará que fueron tomadas por fotógrafos profesionales. Agregue pensar y responder como un ser humano a la conga de capacidades. Un estudio reciente de BYU demuestra que la inteligencia artificial puede responder preguntas de encuestas complejas como un ser humano real y los analistas políticos han visto en esa capacidad una oportunidad.

Sustituir las encuestas de intención de voto por preguntas a robots

Para determinar la posibilidad de utilizar la inteligencia artificial como sustituto de los respondedores humanos en una investigación tipo encuesta, un equipo de profesores de ciencias políticas e informática y estudiantes de posgrado de BYU probó la precisión de los algoritmos programados de un modelo de lenguaje GPT-3: un modelo que imita la complicada relación entre las ideas humanas, las actitudes y los contextos socioculturales de las subpoblaciones.

En un experimento, los investigadores crearon personajes artificiales asignando a la IA ciertas características como raza, edad, ideología y religiosidad; y luego se probó para ver si las personas artificiales votarían igual que los humanos en las elecciones presidenciales de EE. UU. de 2012, 2016 y 2020. 

Usando los Estudios Electorales Nacionales Estadounidenses (ANES) para su base de datos humana comparativa, encontraron una alta correspondencia entre cómo votaron la IA y los humanos.

 

David Wingate, profesor de informática de BYU y coautor del estudio se sorprendió absolutamente al ver con qué precisión coincidía, y dijo que "es especialmente interesante porque el modelo no fue entrenado para hacer ciencia política, solo fue entrenado en cien mil millones de palabras de texto descargadas de Internet. Pero la información consistente que recibimos estaba muy relacionada con la forma en que la gente votó realmente".

Crear votantes artificiales para estudiar el comportamiento

En otro experimento, condicionaron personas artificiales para que ofrecieran respuestas de una lista de opciones en una encuesta estilo entrevista, nuevamente usando el ANES como su muestra humana. Encontraron una gran similitud entre los patrones matizados en las respuestas humanas y de IA.

Esta innovación tiene perspectivas interesantes para investigadores, especialistas en marketing y encuestadores. Los investigadores prevén un futuro en el que se utilice la inteligencia artificial para elaborar mejores preguntas de encuesta, perfeccionándolas para que sean más accesibles y representativas; e incluso simular poblaciones de difícil acceso. Se puede utilizar para probar encuestas, eslóganes y eslóganes como precursores de grupos focales.

Mejorar cómo entendemos a las personas con Inteligencia Artificial

"Estamos aprendiendo que la IA puede ayudarnos a comprender mejor a las personas", dijo el profesor de ciencias políticas de BYU, Ethan Busby. "No está reemplazando a los humanos, pero nos está ayudando a estudiar a las personas de manera más efectiva. Se trata de aumentar nuestra capacidad en lugar de reemplazarla. Puede ayudarnos a ser más eficientes en nuestro trabajo con las personas al permitirnos probar nuestras encuestas y nuestros mensajes. ."

Y si bien las posibilidades expansivas de los grandes modelos de lenguaje son intrigantes, el auge de la inteligencia artificial plantea una serie de preguntas: ¿cuánto sabe realmente la IA? ¿Qué poblaciones se beneficiarán de esta tecnología y cuáles se verán afectadas negativamente? ¿Y cómo podemos protegernos de los estafadores y estafadores que manipularán la IA para crear estafas de phishing más sofisticadas?

Si bien gran parte de eso aún está por determinarse, el estudio establece un conjunto de criterios que los futuros investigadores pueden usar para determinar cómo de preciso es un modelo de IA para diferentes áreas temáticas.

"Vamos a ver beneficios positivos porque desbloqueará nuevas capacidades", dijo Wingate, y señaló que la IA puede ayudar a las personas en muchos trabajos diferentes a ser más eficientes. "También vamos a ver que suceden cosas negativas porque a veces los modelos de computadora son inexactos y otras veces están sesgados. Continuará afectando a la sociedad".

 

Busby dice que encuestar personas artificiales no debería reemplazar la necesidad de encuestar a personas reales y que los académicos y otros expertos deben unirse para definir los límites éticos de la encuesta de inteligencia artificial en la investigación relacionada con las ciencias sociales.

Christopher Rytting, un Ph.D. de BYU. estudiante que fue coautor del estudio, dijo que su creencia en Dios y su deseo de seguir el mandamiento de "amar a tu prójimo como a ti mismo" ayudaron a catalizar el estudio.

Fuente: BYU

Estudio: Argyle, L., Busby, E., Fulda, N., Gubler, J., Rytting, C., & Wingate, D. (2023). Out of One, Many: Using Language Models to Simulate Human SamplesPolitical Analysis, 1-15. doi:10.1017/pan.2023.2

De uno, muchos: uso de modelos de lenguaje para simular muestras humanas

Abstracto

Proponemos y exploramos la posibilidad de que los modelos de lenguaje puedan estudiarse como sustitutos efectivos para subpoblaciones humanas específicas en la investigación de las ciencias sociales. Las aplicaciones prácticas y de investigación de las herramientas de inteligencia artificial a veces se han visto limitadas por sesgos problemáticos (como el racismo o el sexismo), que a menudo se tratan como propiedades uniformes de los modelos. Mostramos que el "sesgo algorítmico" dentro de una de esas herramientas, el modelo de lenguaje GPT-3, es en cambio tanto detallado como demográficamente correlacionado, lo que significa que el condicionamiento adecuado hará que emule con precisión las distribuciones de respuesta de una amplia variedad de subgrupos humanos. Llamamos a esta propiedad fidelidad algorítmicay explorar su extensión en GPT-3. Creamos "muestras de silicio" al condicionar el modelo en miles de antecedentes sociodemográficos de participantes humanos reales en múltiples encuestas grandes realizadas en los Estados Unidos. Luego comparamos las muestras humanas y de silicio para demostrar que la información contenida en GPT-3 va mucho más allá de la similitud superficial. Es matizado, multifacético y refleja la compleja interacción entre las ideas, las actitudes y el contexto sociocultural que caracterizan las actitudes humanas. Sugerimos que los modelos de lenguaje con suficiente fidelidad algorítmica constituyen una herramienta novedosa y poderosa para avanzar en la comprensión de los humanos y la sociedad a través de una variedad de disciplinas.

© The Author(s), 2023. Publicado por Cambridge University Press en nombre de la Society for Political Methodology