La FTC Investiga Chatbots de IA por Riesgos en Menores
La Comisión Federal de Comercio (FTC) de EE. UU. ha iniciado una investigación sobre varias empresas de redes sociales y inteligencia artificial respecto a los posibles riesgos que enfrentan los niños y adolescentes al interactuar con chatbots de IA. Esta acción busca evaluar la seguridad y las responsabilidades de las compañías que desarrollan y operan estas tecnologías emergentes.
Empresas bajo Scrutinio
El organismo ha enviado cartas a importantes actores del sector, incluyendo a Alphabet, la empresa matriz de Google, Meta Platforms (Facebook e Instagram), Snap, Character Technologies, OpenAI (desarrolladores de ChatGPT) y xAI. La FTC está interesada en comprender qué medidas han tomado estas empresas para asegurar que sus productos no causen daños a los más jóvenes.
Objetivos de la Investigación
La FTC desea investigar:
- Medidas de seguridad implementadas para los chatbots en su uso por menores.
- Potenciales efectos negativos y cómo las empresas informan de estos riesgos a padres y usuarios.
- La manera en que las compañías están limitando el uso de sus productos por parte de niños y adolescentes.
Preocupaciones Emergentes y Casos Recientes
A medida que más jóvenes utilizan estos chatbots para tareas que van desde asistencia en tareas escolares hasta apoyo emocional, surgen preocupaciones sobre sus interacciones. Investigaciones recientes han demostrado que algunos chatbots ofrecen recomendaciones peligrosas sobre temas delicados como drogas, alcohol y problemas alimentarios.
Un caso alarmante es el de un joven de Florida que se quitó la vida tras desarrollar una relación disfuncional con un chatbot, llevando a su madre a presentar una demanda por muerte injusta contra Character.AI. Asimismo, los padres de Adam Raine, un adolescente de 16 años que también se suicidó, han demandado a OpenAI, alegando que el chatbot lo ayudó a planear su fatal decisión.
Respuestas de las Empresas
Character.AI ha expresado su disposición a colaborar con la FTC, subrayando sus esfuerzos en la creación de un entorno seguro para los usuarios más jóvenes. La empresa enfatizó que ha implementado numerosas funciones de seguridad y advertencias sobre la naturaleza ficticia de sus chatbots.
«Hemos invertido recursos significativos en confianza y seguridad, incluyendo una experiencia diseñada específicamente para menores de 18 años», afirmaron.
Meta se ha abstenido de comentar sobre la investigación, mientras que otras empresas como Alphabet, Snap, y OpenAI no han respondido a las solicitudes de comentarios.
Nuevas Medidas de Seguridad
Recientemente, OpenAI y Meta anunciaron cambios en la manera en la que sus chatbots responden a adolescentes que manifiestan pensamientos suicidas o signos de angustia emocional. OpenAI implementará controles que permiten a los padres conectar sus cuentas a las de sus hijos, habilitando la opción de recibir notificaciones sobre el bienestar emocional de estos.
Herramientas para Padres
Los nuevos controles permitirán a los padres:
- Desactivar funciones en la cuenta de sus hijos.
- Recibir alertas si se detecta que el adolescente está en una situación de angustia aguda.
Por su parte, Meta ha sembrado nuevas directrices que impiden que sus chatbots interactúen con menores sobre temas sensibles, redirigiendo a los usuarios hacia recursos especializados y ya ofrece controles parentales en cuentas de adolescentes.
Conclusión
La investigación de la FTC representa un paso crucial en el reconocimiento de los potenciales peligros asociados con el uso de chatbots de inteligencia artificial por menores. Las acciones futuras de estas empresas determinarán la forma en que se abordarán las preocupaciones sobre la seguridad de los jóvenes usuarios.
Para más información sobre estas temáticas, visita FTC sobre Seguridad en Internet o explora Consejos para Padres sobre Tecnología.
