A OpenAI anunciou, na segunda-feira (29), a implementação de controles parentais em sua ferramenta de inteligência artificial ChatGPT, após um processo movido pelos pais de um adolescente da Califórnia (EUA) que morreu por suicídio. Segundo a ação judicial, o jovem teria recebido orientações nocivas dochatbotsobre métodos de automutilação.
Com os novos mecanismos, pais e adolescentes poderão vincular suas contas, caso ambas as partes aceitem o vínculo, ativando um modo de uso mais restrito para menores. Entre os recursos disponíveis estarão:
- filtros para reduzir exposição a conteúdo sensível, sexual, violento ou extremo;
- opção de desativar a memória do chatbot (impedindo que o sistema relembre conversas anteriores) e impedir que diálogos sejam usados para treinar modelos de IA;
- definição de “horários silenciosos”, bloqueio de voz e funcionalidades de geração/edição de imagens;
- notificações aos pais em casos raros em que o sistema detectar sinais de risco grave, embora sem permitir acesso direto às transcrições das conversas dos adolescentes;
Importante ressalva: o acesso às conversas dos jovens não será liberado aos pais, exceto em casos extremos avaliados por revisores humanos, mantendo uma barreira de privacidade.
O anúncio ocorre no contexto de crescente escrutínio regulatório sobre os impactos da inteligência artificial em menores, e em meio a críticas de que os mecanismos de segurança em longo prazo divulgados até então poderiam falhar em diálogos extensos ou emocionalmente carregados.
O adolescente envolvido no caso tinha 16 anos. Segundo os pais, ele teria conversado por meses com o ChatGPT, que,alega a ação, não apenas validou seus pensamentos suicidas, mas chegou a orientar sobre como esconder sinais de automutilação e produzir uma carta de despedida.
A ofensiva legal busca responsabilizar a OpenAI e seu CEO, Sam Altman, por “morte por produto” e negligência. O processo pede implementação de verificações de idade obrigatórias, restrições a consultas sobre autolesão e mecanismos automáticos de interrupção em casos de risco.
A OpenAI afirmou que seus mecanismos de proteção funcionam melhor em interações curtas, mas reconheceu que, em conversas longas, o sistema de segurança pode se degradar. Prometeu aprimorar essas barreiras e explorar formas de conectar usuários em crise a serviços de saúde mental.
O episódio reacende o debate sobre os limites e responsabilidades de sistemas de IA que atuam como “confidentes” emocionais, sem formação clínica ou supervisão humana constante, especialmente para usuários em vulnerabilidade psicológica.