OpenAI ha anunciado una serie de medidas que refuerzan la protección digital de los adolescentes, abordando los desafíos entre privacidad, libertad y seguridad. La compañía reconoce que las conversaciones con IA pueden ser tan sensibles como hablar con un médico o un abogado, por lo que defiende que estas interacciones deben tener el mismo nivel de protección. Por esta razón, OpenAI está desarrollando características avanzadas de seguridad para garantizar que los datos sean privados incluso frente a empleados de la empresa, aunque se reservan excepciones ante riesgos críticos como amenazas graves o incidentes de ciberseguridad a gran escala.
En cuanto a la libertad de uso, OpenAI quiere ofrecer a los usuarios adultos la máxima autonomía posible, permitiendo solicitar respuestas personalizadas siempre y cuando no se infrinjan límites de seguridad o se cause daño. El principio de “tratar a los adultos como adultos” guía estas decisiones, autorizando interacciones más libres dentro de parámetros muy claros.
Protección específica para adolescentes
La prioridad absoluta para los menores es la seguridad, incluso por encima de la privacidad y la libertad. Para ello, OpenAI está desarrollando un sistema de predicción de edad que distinguirá a los usuarios menores de 18 años, aplicando de manera preventiva la experiencia infantil si hay dudas. También se plantea solicitar identificación en determinados casos o países, una medida que, aunque afecta la privacidad adulta, se considera necesaria para proteger a los más jóvenes.
En el entorno adolescente, se han establecido límites claros: la IA no responderá a conversaciones de carácter coqueto ni dará pie a discusiones sobre suicidio o autolesiones, ni siquiera en contextos creativos. En situaciones críticas, se contactará con los padres o, si fuera necesario, con las autoridades.
Esta noticia representa una oportunidad estratégica para las empresas que gestionan comunidades digitales, plataformas educativas o servicios con presencia adolescente. Adoptando políticas similares, podrían reforzar su imagen de responsabilidad social y crear entornos digitales más seguros, generando confianza entre usuarios, familias y reguladores.
Fuente: OpenAI News




