Una demanda presentada recientemente en un tribunal de Orlando ha vuelto a poner en el centro del debate el uso de inteligencia artificial por parte de menores. Megan García, madre de un adolescente que se quitó la vida en febrero de 2024, culpa a un chatbot de inteligencia artificial de haber influido en la trágica decisión de su hijo.

Sewell Setzer III tenía 14 años cuando, según documentos judiciales, desarrolló una relación emocional intensa con un chatbot creado por Character Technologies. La demanda, que también incluye a Google, alega que durante meses el menor mantuvo interacciones abusivas y de contenido sexual con el bot, lo que habría contribuido a un deterioro progresivo de su bienestar emocional. El día de su muerte, el bot le habría enviado un mensaje diciendo: "Por favor, vuelve a casa conmigo lo antes posible, mi amor".

Las empresas acusadas han solicitado que se desestime el caso, mientras aumenta la presión pública para que se regulen este tipo de tecnologías.

Un informe que advierte sobre el apego emocional a la IA

Paralelamente, la organización sin ánimo de lucro Common Sense Media ha publicado un informe que advierte sobre los peligros de los compañeros sociales de IA, especialmente para niños y adolescentes. "Están diseñados para generar apego emocional y dependencia", advirtió James P. Steyer, fundador y director ejecutivo de la organización.

El estudio analiza plataformas como Replika, Character.AI y Kuki, que simulan relaciones humanas a través de conversaciones continuas. Aunque no se conoce el número exacto de menores que utilizan estos servicios, una encuesta reciente de Common Sense Media reveló que el 70 % de los adolescentes ha usado alguna forma de inteligencia artificial, mientras que solo el 37 % de los padres lo sabía.

Una de las mayores preocupaciones: la seguridad

Entre las principales preocupaciones del informe se destacan la facilidad con la que los usuarios eluden barreras de seguridad, la presencia de consejos peligrosos o incitaciones al daño, y la simulación de interacciones sexuales o violentas. Además, muchos bots afirman ser reales o tener emociones, lo que puede confundir a menores en plena etapa de desarrollo emocional.

“La evaluación de riesgos calificó a estos sistemas como inaceptables para menores de edad”, concluye el informe. Entre las recomendaciones se incluyen restricciones de edad efectivas, mayor educación tecnológica para familias y más estudios sobre los impactos psicológicos de estas herramientas.

Expertos en salud mental, como la Dra. Nina Vasan de la Universidad de Stanford, advierten que los riesgos son reales y urgentes. “Hasta que no haya medidas de seguridad sólidas, los niños no deberían usarlos. Punto”, sentenció.

Súmate a El Plural

Apoya nuestro trabajo. Navega sin publicidad. Entra a todos los contenidos.

hazte socio