La nueva función de detección de edad de ChatGPT está fallando y los usuarios adultos se quedan atascados en el modo adolescente

OpenAI
(Crédito de imagen: Getty Images/ SOPA Images )
  • ChatGPT ha lanzado su nueva función de predicción de edad a nivel mundial antes del lanzamiento de su nuevo Modo Adulto.
  • A algunos adultos se les etiqueta como adolescentes.
  • Los usuarios frustrados están preocupados porque superar restricciones inexactas invada su privacidad.

El nuevo modelo de inteligencia artificial de predicción de edad de ChatGPT se está implementando a nivel mundial, pero parece un poco exagerado en sus intentos de detectar quién es menor de 18 años para configurar automáticamente los filtros de contenido del "modo adolescente".

Pero parece que ChatGPT no solo aplica medidas de protección a los usuarios menores de 18 años. Varios suscriptores adultos se han visto obligados a hablar con la versión para adolescentes de ChatGPT, con restricciones que les impiden interactuar con la IA en temas más maduros. Este problema ha persistido desde que OpenAI comenzó a probar la función hace un par de meses, pero eso no ha impedido su implementación más amplia.

El aspecto técnico de esta función es confuso. OpenAI afirma que el sistema utiliza una combinación de señales de comportamiento, historial de cuenta, patrones de uso y, ocasionalmente, análisis del lenguaje para estimar la edad. En caso de incertidumbre, el modelo es precavido. En la práctica, esto significa que las cuentas más nuevas, los usuarios con hábitos de uso nocturno o quienes preguntan sobre temas relevantes para adolescentes podrían verse atrapados en la red de seguridad, incluso si llevan mucho tiempo suscritos a la versión Pro de ChatGPT.

Confirmación de identificación con IA

A primera vista, parece un ejemplo clásico de buenas intenciones que se encuentran con una implementación contundente. OpenAI claramente busca crear una experiencia más segura para los usuarios más jóvenes, especialmente dado el creciente alcance de la herramienta en el ámbito educativo, familiar y de proyectos creativos para adolescentes.

Para los usuarios marcados incorrectamente, la compañía afirma que es fácil de resolver. Puedes confirmar tu edad mediante una herramienta de verificación en Ajustes. OpenAI utiliza una herramienta de terceros, Persona, que en algunos casos puede solicitar a los usuarios que envíen una identificación oficial o un video selfie para confirmar su identidad. Pero para muchos, el problema principal no es el clic adicional, sino que un chatbot los malinterpreta y tienen que proporcionar más información personal para evitar la acusación.

Solicitar la identificación, incluso si es opcional y anónima, plantea interrogantes sobre la recopilación de datos, la privacidad y si esto constituye una puerta trasera hacia políticas de verificación de edad más estrictas en el futuro. Algunos usuarios creen ahora que OpenAI está tanteando el terreno para la confirmación completa de la identidad con el pretexto de la seguridad de los adolescentes, mientras que a otros les preocupa que el modelo pueda ser entrenado parcialmente con los materiales que envían, aunque la empresa insista en lo contrario.

"Una excelente manera de obligar a la gente a subir selfis", escribió un usuario de Reddit . "Si [OpenAI] me pide un selfi, cancelaré mi suscripción y eliminaré mi cuenta", escribió otro . "Entiendo por qué lo hacen, pero por favor, busquen una forma menos invasiva".

En un comunicado en su sitio de ayuda, OpenAI aclaró que nunca ve la identificación ni la imagen. Persona simplemente confirma si la cuenta pertenece a un adulto y responde con un sí o un no. La compañía también afirma que todos los datos recopilados durante este proceso se eliminan tras la verificación, y el único objetivo es corregir la clasificación errónea.

La tensión entre el objetivo de OpenAI de una IA personalizada y la superposición de mecanismos de seguridad receptivos que no alienen a los usuarios es evidente. Y es posible que no satisfaga a todos con sus explicaciones sobre cuánto puede inferir sobre alguien basándose en señales de comportamiento.

Categorías
Jorge Covarrubias
Editor

Apasionado del mundo de los videojuegos. El survival horror mi género favorito y de Resident Evil. Dedicado también a probar, conocer y reseñar todo tipo de gadgets y del mundo tech.