O que aconteceu
A Anker, dona da marca Eufy, conduziu uma campanha que pagava usuários de câmeras de segurança para enviar vídeos com o objetivo de treinar seus modelos de inteligência artificial, segundo reportagem do TechCrunch. A iniciativa oferecia US$ 2 por clipe e aceitava inclusive cenas encenadas de situações como furto de encomendas em portas de casa e pessoas testando maçanetas de carros. A campanha ocorreu entre 18 de dezembro de 2024 e 25 de fevereiro de 2025 e buscava coletar 20.000 vídeos para cada cenário de interesse. O envio era feito por meio de um formulário do Google, e o pagamento era realizado via PayPal.
Paralelamente, a Eufy mantém um “Programa de Doação de Vídeos” dentro do app, que concede distintivos e brindes ocasionais aos participantes. Um “Honor Wall” (mural de honra) classifica os maiores colaboradores; no topo, consta um perfil com 201.531 clipes doados. A empresa afirma que os vídeos doados são usados apenas para treinar e aprimorar sua IA e que não são compartilhados com terceiros.
Como funcionava a campanha paga
De acordo com o TechCrunch, a Eufy delineou categorias específicas de interesse para alimentar e refinar modelos de visão computacional (por exemplo, detecção de ações suspeitas, como puxar a maçaneta de um carro). Além de vídeos reais, a empresa aceitava cenas encenadas, desde que representassem fielmente os comportamentos-alvo. O uso de um formulário externo (Google Forms) para upload e a solicitação de dados de pagamento via PayPal apontam para um processo simplificado de captação e incentivo financeiro ao envio de dados.
Questionada pela reportagem, a Eufy não respondeu sobre quantas pessoas participaram, quantos vídeos foram coletados, detalhes consolidados de pagamentos ou práticas de exclusão de conteúdo. Esse silêncio deixa lacunas sobre governança de dados, prazos de retenção e mecanismos de opt-out.
Programa de Doação de Vídeos e “Honor Wall”
Fora da campanha remunerada, o programa contínuo de doação no app cria uma dinâmica de comunidade: usuários podem contribuir com clipes para melhorar a detecção de eventos, sendo reconhecidos por meio de distintivos e um ranking público. Segundo a empresa, o uso é restrito ao treinamento e melhoria dos algoritmos proprietários, sem compartilhamento externo. O destaque para um perfil com 201.531 vídeos doados ilustra a escala potencial de dados que podem alimentar os modelos, mesmo sem compensação financeira direta.
Por que isso importa para a privacidade
Treinamento de IA com vídeos de câmeras residenciais envolve dados sensíveis por natureza. Ainda que o proprietário da câmera consinta, há terceiros capturados nas imagens — vizinhos, entregadores, pedestres — que podem não ter ciência de que seus rostos e comportamentos serão usados para treinar algoritmos. Em países com leis de proteção de dados, como a LGPD no Brasil, o tratamento dessas imagens suscita discussões sobre bases legais, transparência, finalidade específica e minimização de dados.
Consentimento e pessoas ao redor
Mesmo em contextos privados, câmeras residenciais filmam áreas semipúblicas (calçadas, ruas). O consentimento de quem aparece pode ser impraticável, mas isso não elimina a necessidade de medidas de mitigação, como anonimização robusta (por exemplo, desfocar rostos e placas antes do uso em treinamento), políticas de retenção limitadas e documentação clara da finalidade do tratamento. A reportagem do TechCrunch não indica que a Eufy realize ofuscação prévia ou em que estágio a privacidade é aplicada; a ausência de detalhes reforça a importância da transparência.
Viés e qualidade dos dados (o papel de vídeos encenados)
Permitir vídeos encenados amplia e acelera a coleta, mas pode enviesar os modelos se as simulações não representarem a diversidade de cenários do mundo real. Atores, ângulos de câmera e contexto controlado podem levar a uma detecção que funciona bem em situações “perfeitas” e falha em ambientes complexos, com iluminação adversa, distâncias variadas e comportamentos ambíguos. Para minimizar vieses, seria essencial combinar dados encenados com ampla variedade de clipes reais e estabelecer validações rigorosas.
Retenção, exclusão e governança
O TechCrunch informa que a Eufy não respondeu sobre exclusão e volume total coletado. Boas práticas de governança exigem: políticas de retenção com prazos definidos, mecanismos de deleção quando solicitado, controles de acesso internos, trilhas de auditoria e relatórios de impacto (por exemplo, avaliações de risco de privacidade). Sem esses elementos públicos, cresce a incerteza para usuários e pessoas filmadas.
Contexto: histórico de segurança da Eufy
Em 2023, a Eufy foi alvo de escrutínio após reportagens apontarem que seu portal web poderia servir transmissões de câmeras sem criptografia adequada. Posteriormente, a Anker reconheceu problemas e disse ter implementado correções. Esse histórico torna o novo programa de coleta de vídeos ainda mais sensível: ao ampliar volumes de dados para IA, a empresa precisa demonstrar segurança técnica e governança no mesmo ritmo.
Entendendo os termos-chave
- Treinamento de IA: processo de alimentar modelos com exemplos rotulados para melhorar a detecção (por exemplo, distinguir “entregador” de “suspeita de furto de pacote”).
- Visão computacional: área da IA que interpreta imagens e vídeos para reconhecer objetos, ações e padrões.
- Anonimização/ofuscação: técnicas para reduzir risco de identificação de pessoas, como borrar rostos e placas.
- Base legal e finalidade: princípios de privacidade que definem por que e como os dados podem ser usados.
O que usuários podem fazer agora
- Revisar configurações de compartilhamento no app da Eufy e entender a diferença entre “doar vídeos” e uso local.
- Evitar enviar clipes que incluam terceiros sem necessidade ou em que haja dados sensíveis visíveis (rostos, placas).
- Se optar por participar, preferir cenas sem identificação direta de pessoas, quando possível, e verificar termos do programa.
- Ativar criptografia e autenticação forte nas contas, além de atualizar firmwares e o app.
- Consultar políticas de privacidade da Eufy sobre retenção, exclusão e finalidade de uso dos vídeos.
Boas práticas para empresas que coletam dados para IA
- Transparência: detalhar finalidades, categorias de dados, prazos de retenção e processos de exclusão.
- Segurança: criptografia ponta a ponta onde cabível, controles de acesso internos e auditorias independentes.
- Privacidade por design: desfocar rostos/placas e adotar minimização de dados antes do treinamento.
- Equidade: mitigar viés, evitar dependência excessiva de dados encenados e validar modelos em cenários diversos.
- Governança: documentação do ciclo de vida dos dados e respostas claras às perguntas de imprensa e usuários.
O cenário adiante
Treinar IA com vídeos do “mundo real” é uma tendência que deve crescer no setor de câmeras inteligentes. A Eufy aponta que não compartilha material com terceiros e que o uso é restrito à melhoria de seus modelos — uma declaração importante, mas que precisa ser acompanhada de informações operacionais, métricas e auditorias. Sem respostas sobre volume, exclusão e adesão, permanece uma zona cinzenta que afeta confiança e competitividade. Para consumidores, a decisão de participar deve considerar benefícios (melhor detecção, potencial recompensa) e riscos (exposição de terceiros, retenção de dados, vieses). Para o mercado, o caso reforça que privacidade e qualidade de dados são tão estratégicas quanto a acurácia da IA.


