OpenAI presenta herramientas para que padres supervisen a sus hijos durante el uso de ChatGPT
Los nuevos controles permiten restringir horarios de uso, limitar el contenido sensible y desactivar funciones como voz o generación de imágenes
La compañía OpenAI ha anunciado la implementación de nuevas funciones de seguridad en ChatGPT dirigidas a adolescentes de entre 13 y 18 años. Estas herramientas, disponibles desde ahora en todo el mundo, buscan ofrecer mayor tranquilidad a los padres al permitirles recibir notificaciones si sus hijos mantienen conversaciones vinculadas con temas sensibles como la autolesión o el suicidio.
El despliegue llega en un contexto de creciente preocupación pública sobre el impacto de los chatbots en los menores de edad. En los últimos meses, la empresa ha enfrentado cuestionamientos legales tras una demanda en Estados Unidos en la que unos padres denunciaron que su hijo adolescente, que posteriormente falleció, recibió indicaciones inapropiadas mientras usaba la plataforma.
Con esta actualización, OpenAI pretende equilibrar dos objetivos: reforzar la seguridad de los usuarios jóvenes y, al mismo tiempo, mantener cierto nivel de privacidad en las interacciones, de modo que las conversaciones no sean expuestas de manera literal a los tutores ni a terceros.
Nuevos filtros de contenido para adolescentes
Una de las novedades principales es la posibilidad de conectar la cuenta del padre o madre con la del adolescente. Una vez realizada la vinculación, el sistema activa automáticamente un conjunto de protecciones adicionales.
Estas incluyen la reducción de acceso a contenido gráfico, restricciones sobre retos virales peligrosos, la limitación de juegos de rol con tintes violentos o sexuales y la moderación de referencias extremas relacionadas con la apariencia física.
Además, en caso de que un menor escriba mensajes relacionados con conductas de riesgo, estos serán evaluados por un equipo humano de moderadores. Si se confirma la gravedad, se enviará una alerta a los padres a través de canales como correo electrónico, notificación en la aplicación o mensajes de texto.
OpenAI ha reconocido que, por ahora, estas notificaciones no son instantáneas: pueden tardar algunas horas en llegar. La compañía asegura estar trabajando para acortar ese margen, ya que en situaciones de emergencia cada minuto puede resultar crucial.
Privacidad y notificaciones limitadas
La empresa ha explicado que los avisos enviados a los padres no contendrán citas exactas ni transcripciones de las conversaciones de los adolescentes. En su lugar, la alerta indicará que el menor podría haber abordado temas sensibles y ofrecerá recomendaciones de especialistas en salud mental sobre cómo iniciar un diálogo con sus hijos.
El objetivo es dar a los padres la información necesaria para intervenir sin comprometer la confidencialidad del adolescente, ya que las conversaciones pueden contener otros aspectos de su vida personal. Los tutores, no obstante, tendrán la opción de solicitar detalles adicionales, como marcas de tiempo, para hacer un seguimiento.
En circunstancias en las que los moderadores consideren que un adolescente corre un riesgo inmediato y no se logre contactar con sus padres, OpenAI contempla notificar directamente a las fuerzas de seguridad. Sin embargo, la compañía aún no ha detallado cómo se coordinará este protocolo a escala internacional.
Más control parental y uso responsable
El paquete de funciones presentado por OpenAI no se limita a la moderación de contenido sensible. También incorpora herramientas de gestión del tiempo que permiten a los padres fijar franjas horarias en las que ChatGPT estará bloqueado, por ejemplo, durante la noche o las horas de estudio.
Entre las nuevas opciones también figura la posibilidad de excluir los datos de los adolescentes del entrenamiento de los modelos de IA, desactivar la memoria que guarda conversaciones pasadas, limitar el uso del modo de voz y bloquear la generación de imágenes. De esta forma, los padres pueden configurar una experiencia ajustada al nivel de madurez y necesidades de sus hijos.
La compañía advierte que ninguna barrera es completamente infalible. Según pruebas externas, algunos filtros pueden ser vulnerados mediante instrucciones específicas. Aun así, OpenAI considera que estas medidas constituyen un avance significativo en la protección de los adolescentes frente a riesgos potenciales en su interacción con la inteligencia artificial.