Google Gemini classificado como alto risco para crianças e adolescentes, avalia Common Sense Media

Uma nova avaliação da organização Common Sense Media classificou o modelo de linguagem Google Gemini como “alto risco” para crianças menores de 13 anos e para adolescentes. O relatório aponta que as versões voltadas para jovens do Gemini são, na prática, o mesmo produto adulto com filtros adicionais, e que o sistema ainda pode apresentar conteúdo inadequado e orientações potencialmente perigosas a menores.

O que diz a avaliação

Segundo a avaliação relatada pela TechCrunch, o Gemini recebeu a classificação “High Risk” (alto risco) em ambas as faixas etárias analisadas. Entre os problemas identificados estão a potencial exposição de crianças e adolescentes a conteúdo sexual, informações sobre drogas e álcool e conselhos problemáticos sobre saúde mental. Embora o Gemini deixe claro em suas interações que é um sistema computacional e não um amigo — um ponto positivo para reduzir riscos parasociais — a Common Sense Media defende que segurança verdadeira exige um desenho pensado especificamente para crianças, e não adaptações aplicadas a um produto adulto.

Comparativo com outros modelos

A avaliação ainda coloca o Gemini no contexto de outras plataformas de IA. Conforme citado na reportagem, avaliações anteriores da mesma organização classificaram modelos concorrentes em níveis variados de risco:

  • Meta AI e Character.AI: “unacceptable” (inaceitável)
  • Perplexity: “high risk” (alto risco)
  • ChatGPT: “moderate” (moderado)
  • Claude (18+): “minimal risk” (risco mínimo)

Esses rótulos são indicativos das diferenças nas abordagens de segurança e nas limitações de uso por menores adotadas por cada provedor.

Resposta do Google

O Google questionou alguns resultados da avaliação e afirmou que possui salvaguardas específicas para menores, realiza red‑teaming com especialistas e tem implementado proteções adicionais. A empresa também afirmou que algumas funcionalidades citadas pela avaliação não estariam disponíveis para menores e que não teve acesso aos prompts de teste utilizados pela Common Sense Media. Em outras palavras, o Google aceita a necessidade de proteção, mas contesta a metodologia ou as conclusões em partes.

Por que isso importa

A classificação de risco é relevante para pais, educadores, formuladores de políticas e desenvolvedores de produto. Plataformas de IA estão cada vez mais integradas a assistentes virtuais, ferramentas educacionais e aplicativos que menores podem usar com frequência. Se um grande modelo apresentar lacunas de segurança, ele pode amplificar desinformação, normalizar conteúdos impróprios ou oferecer conselhos inadequados em temas sensíveis como saúde mental.

Implicações — e o caso potencial da Siri

O relatório chega em um momento em que há especulações sobre parcerias tecnológicas que poderiam ampliar ainda mais o alcance do Gemini. A possibilidade de que empresas integrem o modelo a assistentes amplamente usados por adolescentes pode aumentar a exposição dos jovens a interações automatizadas. A adoção de um modelo classificado como “alto risco” em produtos populares exigiria atenção extra em políticas de segurança, controles parentais e design centrado na criança.

Termos e conceitos essenciais

  • High risk (alto risco): indicação de que o sistema pode causar danos relevantes a usuários jovens por gerar conteúdo inapropriado ou orientações inseguras.
  • Red‑teaming: prática de testar sistemas com ataques ou cenários adversos para encontrar vulnerabilidades e falhas de segurança.
  • Design centrado na criança: desenvolvimento que prioriza proteção, privacidade e necessidades cognitivas e emocionais de menores desde a concepção do produto.

Recomendações práticas para pais e educadores

Enquanto fornecedores de IA ajustam suas políticas e implementam proteções, especialistas sugerem medidas concretas para reduzir riscos:

  • Supervisão ativa do uso de assistentes e chatbots por menores; manter dispositivos em áreas comuns quando apropriado.
  • Configurar controles parentais e revisar permissões de conta para limitar acesso a recursos sensíveis.
  • Educar crianças e adolescentes sobre a natureza das IAs — que são ferramentas, têm limitações e não substituem orientação humana profissional.
  • Buscar alternativas projetadas especificamente para a faixa etária quando o objetivo for educação ou apoio emocional.

Conclusão

A avaliação da Common Sense Media coloca o Google Gemini sob escrutínio quanto à segurança para usuários jovens, destacando a diferença entre aplicar filtros a um produto adulto e criar uma experiência de IA pensada para o público infantil. A resposta do Google mostra que há trabalho em curso, mas a discussão reforça a necessidade de transparência, metodologias de avaliação compartilhadas e prioridade ao design orientado para proteção de crianças e adolescentes. Para pais, escolas e reguladores, o diagnóstico serve como alerta: integrar IA à vida de jovens exige cautela, fiscalização e educação digital contínua.

Fonte: https://techcrunch.com/2025/09/05/google-gemini-dubbed-high-risk-for-kids-and-teens-in-new-safety-assessment/

Fale com a Clara

Olá 👋, para iniciarmos o atendimento nos informe seu nome e telefone

Ao clicar no botão iniciar conversa, você será direcionado para o nosso Whatsapp e um de nossos atendentes lhe atenderá  em seguida.