OpenAI atualiza diretrizes do ChatGPT com proteções U18
OpenAI incorporou os Princípios U18 à Model Spec, priorizando segurança, transparência e intervenções apropriadas para adolescentes de 13 a 17 anos no ChatGPT.
Danilo Gato
Autor
Introdução
OpenAI oficializou os Princípios U18 na Model Spec do ChatGPT em 18 de dezembro de 2025, estabelecendo proteções explícitas para adolescentes de 13 a 17 anos. A prioridade é segurança, com diretrizes desenhadas para situações de maior risco e para conversas cotidianas, o que coloca as proteções U18 do ChatGPT no centro do debate sobre IA responsável para jovens.
A mudança define como o modelo deve se comportar com adolescentes, com foco em prevenção, transparência e intervenção precoce, sempre que o tema tocar áreas sensíveis como autolesão, sexualidade, substâncias perigosas e transtornos alimentares. O texto foi informado por especialistas externos, inclusive a American Psychological Association, e faz parte de um esforço mais amplo de segurança para famílias.
O que mudou na Model Spec e por que isso importa
A Model Spec é o conjunto escrito de regras que orienta o comportamento dos modelos, especialmente em contextos difíceis. Com a atualização, a aplicação dessas regras para menores ganhou detalhes práticos. As novas diretrizes U18 se assentam em quatro compromissos: colocar a segurança do adolescente em primeiro lugar, promover suporte no mundo real, tratar adolescentes como adolescentes, e ser transparente sobre limites e expectativas.
Na prática, o ChatGPT deve recusar ou redirecionar pedidos de maior risco feitos por jovens e oferecer alternativas seguras, como materiais de apoio e encorajamento para buscar ajuda confiável. Em cenários de risco iminente, a orientação é acionar serviços de emergência ou linhas de crise, reforçando que a IA não substitui cuidados humanos. Esse posicionamento reduz a possibilidade de respostas que normalizem comportamentos perigosos, e cria um padrão mais consistente para toda interação U18.
Como os Princípios U18 se traduzem em comportamento do modelo
O texto deixa claro que, embora os princípios gerais da Model Spec valham para todos, a aplicação sob U18 é mais protetiva. O ChatGPT é orientado a evitar roleplay romântico ou sexualizado com adolescentes, a não produzir conteúdo gráfico ou explícito, e a demonstrar cautela extra em temas como autolesão, transtornos alimentares e uso de substâncias. O objetivo é prevenir normalização de riscos e, quando necessário, encorajar suporte presencial de adultos de confiança.
Houve também orientação específica sobre como responder quando surgem preocupações de segurança. Em vez de respostas genéricas, as diretrizes incentivam caminhos práticos, como promover pausas, sugerir contato com familiares ou profissionais, e sinalizar limites do assistente. Essa abordagem tenta equilibrar empatia, autonomia do adolescente e salvaguardas concretas.
![Teens using laptop responsibly]
Produtos e recursos, do controle parental ao Atlas e ao Sora
A atualização da Model Spec chega junto de um esforço multi camadas para segurança adolescente no ecossistema OpenAI. A empresa destaca que os controles parentais já lançados foram expandidos para novos produtos, como chats em grupo, o navegador ChatGPT Atlas e o app Sora, com a meta de permitir que famílias personalizem a experiência do jovem conforme surgem funções novas.
Os recursos para pais foram reforçados com um hub que inclui um guia para uso responsável de IA por adolescentes, além de dicas revisadas por organizações como a ConnectSafely e pelo Expert Council on Well-Being and AI. Esse material facilita conversas contínuas em casa sobre limites, privacidade e escolhas saudáveis, o que é coerente com o princípio de promover suporte no mundo real.
Previsão de idade, padrão U18 por segurança e verificações
Para separar menores de adultos de forma escalável, a OpenAI iniciou a implantação de um sistema de previsão de idade nos planos de consumo do ChatGPT. Se houver dúvida sobre a idade, a experiência U18 será aplicada por padrão, com opções de verificação de idade para adultos que forem classificados de forma incorreta. Essa combinação de inferência comportamental com opt-out verificado tenta minimizar fricção e, ao mesmo tempo, impedir que menores usem variações do produto sem as proteções adequadas.
A própria OpenAI reconhece que há tensões entre liberdade, privacidade e proteção. Em nota publicada no mesmo dia, Sam Altman reforçou que a segurança tem precedência para adolescentes e que a empresa está disposta a pedir identificação em alguns casos ou países. A justificativa é pragmática, já que a simples autodeclaração raramente basta para políticas robustas, e o risco de dano é mais alto nessa faixa etária.
Temas sensíveis, linguagem adequada e limites claros
As diretrizes U18 orientam o modelo a adotar linguagem respeitosa, sem condescender e sem tratar adolescentes como adultos. Ao mesmo tempo, o texto define limites operacionais objetivos, como não atender a pedidos de conteúdo sexualizado, e reorientar conversas que possam reforçar comportamentos nocivos. Esse tipo de baliza previne respostas ambíguas que, em contextos de risco, podem ser interpretadas como validação.

Para tópicos como automutilação ou ideação suicida, o ChatGPT deve reconhecer sinais de sofrimento e guiar o usuário a cuidados profissionais, inclusive por meio de conexões com linhas de ajuda locais, algo que a OpenAI vem expandindo em parceria com a ThroughLine. Além disso, a empresa diz incorporar avaliação clínica via a Global Clinician Network para testar e melhorar o comportamento do modelo.
Colaboração com especialistas e a ancoragem em ciência do desenvolvimento
O desenho dos Princípios U18 envolveu consulta a especialistas, entre eles a American Psychological Association, que revisou um rascunho inicial e reforçou a importância de precauções apropriadas ao desenvolvimento de usuários jovens. A diretriz de combinar AI com interações humanas para promover habilidades socioemocionais e pensamento crítico ganhou centralidade no texto final.
Esse processo de escuta estruturada também influenciou controles parentais e notificações familiares, e fundamentou ajustes de detecção de sofrimento. Com o avanço para o GPT 5.2 mencionado pela OpenAI, a promessa é transferir esse aprendizado para capacidades de modelo e superfícies de produto mais novas, sem abrir mão de camadas de proteção.
![Parents and teens discussing AI use]
Aplicações práticas para escolas, famílias e criadores de produto
Para escolas, a presença de proteções U18 mapeadas em uma Model Spec pública cria um ponto de referência que pode ser convertido em políticas internas. Em situações de aprendizagem assistida por IA, professores podem configurar atividades que não dependam de respostas de risco e, em paralelo, explicar aos alunos como funcionam as recusas e os redirecionamentos do sistema. A transparência reduz atritos e, com o tempo, ajuda estudantes a internalizar a diferença entre pedir orientação segura e tentar burlar regras de conteúdo.
Para famílias, os controles parentais mais granulares apoiam acordos domésticos claros. Pais podem, por exemplo, ajustar permissões em group chats ou limitar certos recursos no Atlas, ao mesmo tempo em que usam o material do hub para promover conversas sobre limites, tempo de tela e privacidade. Quando o adolescente entende que o assistente deixará claro o que não pode fazer e por quê, fica mais fácil construir confiança na ferramenta.
Para equipes de produto, o recado é inequívoco. Modelos generalistas podem, e devem, mudar de comportamento com base em contexto etário, com respostas que equilibram empatia, utilidade e segurança. A métrica de sucesso não é só acurácia ou criatividade, é redução de risco e consistência no tratamento de tópicos delicados por faixa etária. Documentar regras, testar com especialistas e iterar com dados do mundo real compõem o caminho recomendado.
Liberdade, privacidade e segurança, como equilibrar na prática
A nota “Teen safety, freedom, and privacy” deixa explícito o trade-off: adultos devem ser tratados como adultos, e adolescentes recebem proteções mais robustas. Isso implica aceitar compromissos de privacidade em nome da segurança, como a previsão de idade e, em casos específicos, verificação via documento. A empresa reconhece que há divergências legítimas sobre onde traçar a linha, porém argumenta que, após consultar especialistas, o equilíbrio atual atende melhor o interesse dos jovens.
Esse posicionamento é valioso para outras plataformas que pretendem adotar proteções etárias. Em vez de regras genéricas, a proposta define princípios, cenários e respostas esperadas. O resultado tende a ser menos dependente de ad hoc e mais alinhado a objetivos verificáveis, como menor exposição a conteúdo adulto e mais encaminhamentos para suporte presencial quando necessário.
Sinais de maturidade regulatória e próximos passos
A combinação de diretrizes comportamentais, previsões de idade e recursos para famílias indica uma resposta a um ambiente regulatório que exige mais responsabilidade no trato com menores. No plano operacional, a OpenAI afirma que continuará melhorando controles parentais, capacidades de modelo e parcerias com organizações especializadas, enquanto expande a presença de linhas de ajuda localizadas no ChatGPT e no Sora.
A empresa também sinaliza que os Princípios U18 serão iterados conforme surgirem novas pesquisas e feedbacks de uso real. Esse compromisso de revisão contínua é central, já que a superfície de produto se expande, por exemplo com Atlas e Sora, e novos modos de uso, como group chats, pedem salvaguardas contextuais.
Conclusão
A formalização das proteções U18 na Model Spec do ChatGPT é um passo estratégico que refina expectativas, padroniza respostas e amplia o foco em prevenção. Há uma mensagem clara para o ecossistema, segurança adolescente não é um add-on, é um requisito de design que se manifesta na conversa, nas configurações e, quando necessário, em encaminhamentos para suporte fora da tela.
À medida que escolas, famílias e criadores de produto discutem o papel da IA no cotidiano de adolescentes, a referência pública de princípios, processos e salvaguardas ajuda a transformar debate em prática. O teste real virá com o tempo, medido pela consistência nas recusas, pela qualidade dos redirecionamentos e pela capacidade de promover escolhas mais seguras sem desrespeitar a autonomia juvenil.
