Entre las señales se incluyen patrones de uso a largo plazo, la antigüedad de la cuenta, las horas típicas del día en que el usuario está activo y, aunque se trate de un dato que se puede falsear, la edad declarada de la persona.
Una vez que el modelo de predicción de edad sugiera que el usuario es menor de 18 años, detalló la empresa en una publicación de blog, ChatGPT aplicará de forma automática protecciones diseñadas para reducir la exposición a “contenido sensible”, como representaciones de autolesiones, entre otras características.
Además, en caso de que las personas sean identificadas erróneamente como menores de edad, estos podrán utilizar un servicio de verificación para restaurar su acceso completo a la plataforma, un sistema que utilizan otras compañías, como Roblox.
Si bien se trata de una medida para proteger a los jóvenes que utilizan ChatGPT, no es una decisión que OpenAI haya tomado únicamente por buena voluntad, y es que la Comisión Federal de Comercio (FTC) inició una investigación en su contra y otras empresas de IA por el efecto de su chatbot en niños y adolescentes.




