OpenAI sob pressão: procuradores-gerais afirmam que “prejuízo a crianças não será tolerado”

Resumo

Em uma carta pública enviada em 5 de setembro de 2025, os procuradores-gerais da Califórnia e de Delaware alertaram a OpenAI que qualquer dano a crianças “não será tolerado”. No documento os escritórios exigem informações detalhadas sobre medidas de segurança, governança e eventuais remediações imediatas, além de avisar que estão revisando a proposta de recapitalização/reestruturação da empresa para garantir que a missão — especialmente a proteção de menores — seja preservada.

O que os procuradores-gerais pediram

A carta, encaminhada ao presidente do conselho da OpenAI, solicita transparência e documentação sobre práticas de segurança voltadas a protegê‑los, com destaque para:

  • Descrição das salvaguardas atuais para prevenir que conteúdo sexualizado ou prejudicial atinja menores;
  • Informações sobre governança e quem toma decisões sobre segurança de modelos e produtos;
  • Planos de resposta e medidas corretivas imediatas quando riscos concretos são identificados;
  • Detalhes sobre a proposta de recapitalização/reestruturação e como ela afetará a missão de segurança e o controle sobre modelos.

Contexto documental

O alerta surge após um documento anterior datado de 25 de agosto, no qual procuradores-gerais de 44 jurisdições enviaram uma carta a 12 empresas de IA notificando riscos de segurança à juventude, incluindo a circulação de conteúdo sexualizado para menores. A nova comunicação, datada de 5 de setembro, foca especificamente na OpenAI e vincula reportes de danos reais envolvendo menores a falhas nas proteções atuais da indústria.

Por que isso importa: terminologia e contexto

Alguns termos-chaves explicados para compreensão do caso:

  • Recapitalização/reestruturação: mudanças no modelo financeiro ou societário de uma empresa que podem alterar controle, incentivos e governança — pontos críticos quando a missão declarada inclui segurança pública.
  • Governança de IA: conjunto de estruturas, políticas e processos que determinam como decisões sobre desenvolvimento, implantação e mitigação de riscos são tomadas dentro da organização.
  • Controles parentais e proteção de menores: tecnologias e políticas (como filtragem de conteúdo, verificação de idade e rotas para atendimento humano) projetadas para reduzir a exposição de crianças a conteúdo nocivo.

Relação com mudanças técnicas recentes

O movimento dos procuradores-gerais ocorre em meio a anúncios e debates públicos sobre a evolução de modelos e controles de segurança. Relatos recentes indicam que provedores de IA têm buscado estratégias técnicas, como roteamento de conversas sensíveis para modelos especificamente treinados (por exemplo, versões mais recentes de modelos) e introdução de controles parentais. Ainda assim, os procuradores entendem que as medidas do setor podem não ser suficientes ou consistentes.

Implicações regulatórias e legais

As demandas dos procuradores-gerais podem resultar em desdobramentos práticos relevantes para OpenAI e para todo o setor de IA:

  • Maior escrutínio em processos de governança, com exame da proposta de recapitalização para avaliar riscos à missão de segurança;
  • Possibilidade de processos ou ações civis caso respostas e remediações sejam consideradas insuficientes;
  • Pressão por padrões mínimos de proteção infantil aplicáveis a modelos de linguagem e chatbots, que podem incluir exigências técnicas e auditorias independentes;
  • Impacto reputacional e operacional para empresas que não adaptarem políticas e salvaguardas de forma rápida e transparente.

O que a carta não faz (e limites do que já se sabe)

Embora a comunicação seja enfática, ela não anuncia, por si só, uma ação punitiva imediata — trata‑se de uma solicitação formal de informações e de uma sinalização de que as autoridades estão atentas. A TechCrunch reportou que solicitou comentário à OpenAI; respostas oficiais adicionais podem esclarecer prazos e demandas específicas.

Como as empresas de IA podem responder

Para mitigar riscos e atender às demandas regulatórias e de fiscalização, empresas de IA geralmente adotam ações como:

  • melhorar controles de conteúdos sensíveis e filtros por idade;
  • implementar rotas humanas para revisões de casos críticos;
  • adoção de medidas de governança mais robustas, incluindo comitês de segurança independentes;
  • fornecer auditorias e relatórios transparentes a reguladores e ao público.

O que observar nos próximos passos

Fique atento a:

  • resposta pública e técnica da OpenAI ao pedido de informações;
  • detalhes sobre a revisão da recapitalização/reestruturação;
  • possíveis cartas de follow‑up ou medidas de execução por parte de procuradores-gerais;
  • eventuais padrões ou exigências práticas que outros provedores de IA também terão de adotar.

Conclusão

A carta de 5 de setembro de 2025 marca um ponto de inflexão no relacionamento entre reguladores estaduais e provedores de IA: não se trata apenas de mitigar riscos técnicos, mas também de assegurar que mudanças estruturais e financeiras não enfraqueçam a proteção de usuários, especialmente crianças. Para usuários, pais e responsáveis, o episódio reforça a necessidade de exigir transparência e mecanismos reais de proteção ao interagir com serviços baseados em modelos de linguagem.

Fonte: https://techcrunch.com/2025/09/05/attorneys-general-warn-openai-harm-to-children-will-not-be-tolerated/

Fale com a Lia

Olá 👋, para iniciarmos o atendimento nos informe seu nome e telefone

Ao clicar no botão iniciar conversa, você será direcionado para o nosso Whatsapp e um de nossos atendentes lhe atenderá  em seguida.