Presenta:

ChatGPT suma herramientas de control parental para reforzar la seguridad de los menores

La inteligencia artificial forma parte de la vida de múltiples generaciones, por lo que ChatGPT ha incorporado medidas para que los padres sepan qué hacen sus hijos.

El uso de la inteligencia artificial en niños ha crecido exponencialmente en los últimos años. Foto: Shutterstock

El uso de la inteligencia artificial en niños ha crecido exponencialmente en los últimos años. Foto: Shutterstock

El uso de la inteligencia artificial se ha extendido a todas las generaciones. En este sentido, desde OpenAl, la empresa a cargo del famoso ChatGPT ha lanzado una herramienta pensada para que los padres puedan supervisar la actividad de sus hijos dentro de la aplicación.

Esta medida se anuncia en medio de un contexto en el que la presencia de menores en plataformas digitales toma cada vez más impulso, lo cual implica nuevos desafíos para padres y familias enteras. Es por esto que establecer límites y prevenir situaciones problemáticas se vuelve necesario para resguardar la seguridad de los más jóvenes.

Los mejores consejos sobre qué deben tener en cuenta los padres para elegir el primer celular de sus hijos. Foto: Shutterstock
ChatGPT aumenta la seguridad. Foto: Shutterstock

ChatGPT aumenta la seguridad. Foto: Shutterstock

¿Cómo funciona el nuevo sistema de seguridad de ChatGPT?

A partir de esta actualización, los padres cuentan con un mecanismo para intervenir todas las veces que consideren necesario, con controles que tienen que ver con la restricción de funciones y la activación de filtros de seguridad. El objetivo es acompañar al menor, sin la necesidad descuidar su experiencia de uso.

Los controles parentales se gestionan desde un panel dentro de la aplicación. Es muy fácil activarla, ya que los adultos envían una invitación al perfil del adolescente y, una vez aceptada, ambas cuentas quedan enlazadas. Si el menor decide desligarse, el sistema envía una notificación inmediata a los padres.

Por otra parte, el mecanismo contempla además situaciones críticas. Cuando se detectan expresiones vinculadas con autolesiones u otros riesgos graves, un equipo de OpenAI evalúa la interacción y puede alertar a los adultos mediante correo electrónico, mensajes de texto o notificaciones dentro de la app.