Así funcionará el control parental de ChatGPT, y podría ser precisamente la implementación de IA que los padres estaban esperando

ChatGPT
(Crédito de imagen: Shutterstock)

  • OpenAI introduce controles parentales en ChatGPT
  • Los padres podrán vincular cuentas, establecer restricciones de funciones y recibir alertas si sus hijos adolescentes muestran signos de angustia emocional
  • Las conversaciones delicadas en ChatGPT también se canalizarán a través de modelos más cautelosos, entrenados para responder a personas en situación de crisis

¿Tienes adolescentes o personas que están enfrentando crisis emocionales? De ser así, esto te interesa, pues OpenAI está implementando mejoras de seguridad en ChatGPT diseñadas para proteger a este sector del público.

La compañía anunció planes para lanzar controles parentales que permitirán a los padres vincular sus cuentas con las de sus hijos a partir de los 13 años. Con esta función, podrán restringir características y recibirán alertas en tiempo real si la IA detecta mensajes problemáticos que pudieran indicar depresión u otro tipo de malestar.

La actualización muestra que OpenAI no va a negar que los adolescentes usan ChatGPT, y que en ocasiones lo tratan como un amigo o confidente. Aunque no se menciona directamente, también parece una respuesta a algunos casos recientes de alto perfil en los que se afirmó que interactuar con un chatbot de IA llevó al suicidio de un ser querido.

Los nuevos controles comenzarán a implementarse el próximo mes. Una vez configurados, los padres podrán decidir si el chatbot puede guardar el historial de conversaciones o usar la función de memoria. También tendrá activadas de manera predeterminada guías de contenido apropiado para la edad, que regularán cómo responde la IA. Si ocurre una conversación marcada como riesgosa, los padres recibirán una notificación. No se trata de una vigilancia universal, ya que fuera de estas alertas los padres no tendrán acceso a las charlas, pero los avisos se enviarán en momentos donde una intervención real podría ser más necesaria.

“Nuestro trabajo para hacer que ChatGPT sea lo más útil posible es constante y continuo. Hemos visto que las personas recurren a él en los momentos más difíciles”, explicó OpenAI en una publicación de blog. “Por eso seguimos mejorando la forma en que nuestros modelos reconocen y responden a señales de angustia mental y emocional, guiados por la experiencia de especialistas.”

Modelos emocionalmente seguros

Para adultos y adolescentes, OpenAI afirma que comenzará a desviar las conversaciones delicadas que impliquen problemas de salud mental o ideas suicidas a través de una versión especializada del modelo ChatGPT. El modelo emplea un método denominado «alineación deliberativa» para responder con mayor cautela, resistirse a las indicaciones hostiles y ceñirse a las directrices de seguridad.

Para que el nuevo sistema de seguridad funcione, OpenAI ha creado el Consejo de Expertos en Bienestar e IA y la Red Global de Médicos, que incluye a más de 250 profesionales médicos especializados en salud mental, consumo de sustancias y atención a adolescentes. Estos asesores ayudarán a definir cómo se detecta el malestar, cómo responde la IA y cómo deben funcionar las escaladas en momentos de riesgo en el mundo real.

Los papás llevan mucho tiempo preocupados por el tiempo que pasan sus hijos frente a la pantalla y los contenidos en línea, pero la IA introduce una nueva dimensión: no solo lo que ven sus hijos, sino con quién hablan. Cuando ese «quién» es un modelo de lenguaje grande y emocionalmente sofisticado que parece preocuparse a pesar de ser solo un algoritmo, las cosas se complican aún más.

Hasta ahora, la seguridad de la IA ha sido principalmente reactiva, pero las nuevas herramientas impulsan a la IA a ser más proactiva en la prevención de daños. Con suerte, eso significa que no será necesario enviar un mensaje dramático a los padres y que la IA suplique a los adolescentes que piensen en sus seres queridos. Puede resultar incómodo o molesto, pero si las nuevas funciones pueden alejar una llamada de auxilio conversacional del borde del precipicio, no es algo malo.

You might also like

TOPICS
Antonio Quijano
Editor
Aportaciones de