ICO questiona a Meta após vídeos de óculos de IA irem ao Quênia
Relatório acusa revisão humana de vídeos captados por óculos inteligentes de IA da Meta por subcontratada no Quênia. O ICO cobra explicações e reacende o debate sobre privacidade e transparência.
Danilo Gato
Autor
Introdução
O órgão de proteção de dados do Reino Unido, o ICO, pediu explicações à Meta após reportagens indicarem que vídeos dos seus óculos inteligentes de IA podem ser enviados para revisão humana por uma subcontratada sediada no Quênia. A notícia coloca os óculos inteligentes de IA da Meta, incluindo as linhas Ray-Ban e modelos com display, no centro das discussões sobre transparência, base legal e controles dados ao usuário.
Para quem acompanha a evolução de wearables com câmera e assistente multimodal, o caso expõe um ponto crítico, como o processamento em nuvem pode envolver rotuladores humanos e fluxos transfronteiriços de dados. As matérias recentes citam investigações de jornais suecos que ouviram trabalhadores em Nairóbi descrevendo a anotação de clipes sensíveis, de números de cartões a cenas íntimas, alimentando a IA que dá poder aos óculos.
O que está acontecendo, fatos confirmados
Relatos publicados nesta semana consolidam um enredo comum. Trabalhadores de dados em Nairóbi, vinculados à Sama, afirmam revisar vídeos e áudios captados pelos óculos quando o usuário interage com a Meta AI, o que inclui perguntas do tipo o que estou vendo. A Meta, segundo os veículos, afirma em suas políticas que interações com a IA podem ser revisadas por processos automatizados ou humanos, algo que também foi destacado por sites de tecnologia que repercutiram as matérias suecas.
O ICO disse que escreveu à Meta para entender como a empresa está cumprindo a lei de proteção de dados no Reino Unido diante desses relatos. A linha do regulador, reproduzida em coberturas recentes, reforça que dispositivos que processam dados pessoais devem dar controle e transparência adequados às pessoas.
A própria trajetória recente dos óculos da Meta já vinha chamando atenção de especialistas. Em abril de 2025, mudanças de política ampliaram a coleta e o uso de dados para treinar a IA, o que motivou alertas a usuários sobre a revisão de configurações de privacidade. O ponto central era que, ao usar recursos de IA nos óculos, parte do conteúdo poderia ser processado nos servidores da empresa e, em certos casos, analisado por revisores humanos.
Como os óculos inteligentes de IA funcionam, onde entra a revisão humana
Óculos inteligentes de IA combinam câmera, microfones, conectividade e um assistente multimodal capaz de interpretar o que a câmera vê. Quando o usuário ativa a Meta AI nos óculos e faz perguntas contextuais, imagens e trechos de vídeo podem ser enviados para a nuvem para reconhecimento e geração de respostas. Foi justamente nesse fluxo que as reportagens situaram o envio de amostras a equipes humanas para rotulagem e melhoria de modelos.
- O assistente é acionado por comando de voz e, em países habilitados, pode responder com base na cena. Esse pipeline exige processamento remoto, o que, por desenho, cria a possibilidade de revisão manual prevista nos termos.
- Sites que cobriram a investigação destacam exemplos de conteúdos sensíveis que, segundo os trabalhadores, já passaram por revisão, de ambientes domésticos a dados financeiros visíveis na câmera.
Em termos de produto, a Meta promove a conveniência de captar momentos e obter respostas hands-free. Essa proposta se intensificou com modelos mais recentes e, segundo a cobertura da imprensa, a empresa explora recursos como tradução, legendas e navegação com apoio da IA, alguns deles ainda em expansão regional. Essa ambição técnica ajuda a explicar por que a empresa recorre a rotuladores para melhorar a acurácia visual e situacional da IA.
![Close-up de óculos com feixe de luz simulando varredura facial]
O que diz a lei e o que o ICO quer saber
O Reino Unido adota um regime alinhado ao GDPR europeu, com princípios de minimização, necessidade, transparência e direitos do titular. No caso de óculos inteligentes de IA, há duas camadas de risco. Primeiro, o usuário que grava e compartilha conteúdo que pode envolver terceiros, muitas vezes sem consentimento explícito. Segundo, o processamento em nuvem que pode incluir revisão humana e transferência internacional de dados. Ao escrever à Meta, o ICO busca evidências de que a empresa oferece base legal clara, mecanismos de controle e informações acessíveis sobre quando e por que ocorre revisão humana.
O caso também liga um alerta para varejistas e equipes de venda. A investigação sueca registrou respostas inconsistentes de funcionários de lojas quando questionados sobre para onde os dados vão e se há compartilhamento automático com a Meta, um sintoma de comunicação deficiente que pode ferir o princípio de transparência.
O que a Meta já declarou publicamente sobre dados dos óculos
Em coberturas anteriores, a Meta reconheceu que interações com a IA podem ser revisadas para melhorar a experiência, conforme suas políticas. Em 2025, veículos registraram que a empresa atualizou documentos de privacidade para os óculos, fortalecendo a possibilidade de usar dados para treinar modelos, ainda que com opções de controle para o usuário em certos contextos. Ao mesmo tempo, matérias especializadas ressaltaram a falta de clareza absoluta sobre o escopo de treinamento com imagens captadas, algo que foi questionado por jornalistas e que a empresa preferiu remeter aos termos.
Em síntese, a empresa admite a revisão humana em alguns casos, prática comum em sistemas de IA para calibrar qualidade. O ponto sensível está na granularidade, no tipo de material que pode chegar a revisores, na eficácia de filtros de anonimização e nas opções reais de opt-out para quem não quer contribuir com dados pessoais. É exatamente a transparência sobre isso que o regulador quer auditar.
Privacidade na prática, riscos e controles que fazem diferença
Da perspectiva do usuário, o maior risco não é apenas vazar, mas ser processado sem perceber. Alguns controles ajudam muito na prática:
- Desativar a ativação por voz da IA quando não estiver usando recursos contextuais, reduzindo o envio de frames para a nuvem. Em 2025, alertas de mídia especializada recomendaram revisar o wake word e outros toggles de privacidade nos óculos.
- Checar periodicamente permissões do app no smartphone e limpar histórico de interações com a IA quando for possível, minimizando persistência de dados nos servidores. Documentos e reportagens recentes reforçam que, por padrão, o processamento ocorre remotamente para certas funções.
- Evitar interações com a IA em contextos sensíveis, como sanitários, quartos e consultas médicas, uma orientação que a própria política de IA costuma impor aos usuários.
Para empresas, políticas internas devem contemplar óculos com câmera em ambientes de trabalho, especificando áreas restritas, uso de indicadores visuais de gravação e cartazes informativos, sobretudo onde haja dados pessoais de clientes ou colaboradores. No varejo e em eventos, mensagens simples sobre captura de imagem e uso de IA ajudam a sustentar a base legítima de processamento.

Por que o tema reacende, contexto de produto e mercado
O interesse por óculos inteligentes cresceu com a incorporação de IA multimodal e experiências mais naturais. Matérias recentes relatam forte procura por modelos com display e uma expansão de recursos baseada na capacidade de a IA ver o que o usuário vê, o que só funciona bem quando há treinamento com dados reais e anotações humanas. Esse é o motor do progresso, mas também o gatilho para questões regulatórias sobre proporcionalidade e necessidade.
A tensão aponta para um equilíbrio. De um lado, conveniência real, gravação em primeira pessoa, tradução e assistência contextual. De outro, uso justo e informado de dados. O pedido do ICO não significa condenação, é um lembrete de que, sem governança, o avanço técnico pode escorregar para a coleta excessiva e para práticas opacas.
![Óculos sobre mesa ao lado de smartphone com app de IA]
Casos e evidências, o que as investigações revelaram
- Investigação conjunta na Suécia ouviu mais de 30 trabalhadores da Sama em Nairóbi e descreveu a revisão de vídeos íntimos, inclusive de pessoas se despindo e usando o banheiro, além de visões de cartões bancários. A repercussão internacional detalhou que a prática acontece quando usuários ativam a IA dos óculos e fazem consultas contextuais.
- Coberturas no Reino Unido e em veículos de segurança da informação resumiram o achado e destacaram a reação do ICO, que solicitou esclarecimentos formais à Meta.
- Portais especializados lembraram ainda que, desde 2025, houve mudanças nas políticas de privacidade dos óculos, com recomendações para revisar as configurações se o usuário não deseja contribuir com dados para treinar a IA.
Esses pontos não invalidam o produto. Servem para demarcar limites, exigir filtros melhores de anonimização e reforçar que revisores humanos devem lidar com o mínimo necessário, sob padrões auditáveis e dentro das leis de transferência internacional de dados.
Boas práticas para equipes de produto e compliance
Três frentes aceleram a redução de risco sem travar inovação:
-
Privacidade by design visível ao usuário: indicadores claros de quando a câmera está ativa, bloqueios por geografia em ambientes sensíveis e prompts educacionais no onboarding explicando em linguagem simples quando há chance de revisão humana.
-
Minimização técnica: processamento local sempre que possível e, quando a nuvem for necessária, coleta de amostras estritamente proporcionais, com borramento robusto de rostos e números, e trilhas de auditoria sobre quem acessou o quê. Relatos dos trabalhadores citam falhas de anonimização, logo investir nessa camada tem impacto direto.
-
Transparência e governança de terceiros: contratos com subcontratadas como a Sama devem impor métricas de privacidade, segurança, bem estar do trabalhador e mecanismos de denúncia, com publicação de relatórios de auditoria independentes. A experiência de moderação terceirizada já mostrou riscos psicossociais importantes no Quênia, o que deve ser incorporado à due diligence.
O que usuários podem fazer agora
- Ajustar a palavra de ativação e o envio de dados para a IA, reduzindo capturas desnecessárias.
- Preferir o uso de captura manual em ambientes públicos e desativar a IA em contextos privados.
- Ler e salvar localmente as configurações de privacidade, políticas e termos, já que mudanças podem ocorrer com atualizações de firmware e app.
- Exigir informação em lojas sobre para onde vão os dados e em que circunstâncias há revisão humana, anotando o nome do vendedor e data da compra para referência futura.
Reflexões e insights
Produtos que registram o mundo a partir do rosto do usuário não são apenas mais uma câmera. São sensores sociais. Quanto mais úteis ficam, mais convivem com ambientes íntimos e cidadãos não informados. O pedido do ICO funciona como um freio de arrumação, alinhando interesse do consumidor, segurança jurídica e reputação da própria indústria.
Há uma oportunidade de diferenciação competitiva. Quem conseguir oferecer recursos de IA de alto valor com o máximo de processamento local, revisão humana mínima e comunicação radicalmente clara, cria confiança. Num mercado onde conveniência vende, confiança fideliza.
Conclusão
O caso dos óculos inteligentes de IA da Meta mostra que não existe atalho entre utilidade e governança. Investigações recentes detalharam a presença de revisão humana de vídeos sensíveis por subcontratada no Quênia, enquanto o ICO, em 4 e 5 de março de 2026, buscou respostas formais da Meta sobre base legal e transparência. As funções de IA são, de fato, o diferencial do produto, mas exigem salvaguardas técnicas e informacionais à altura.
Para quem projeta e para quem usa, o caminho está claro, controles visíveis, minimização de dados e termos compreensíveis. A discussão não é freio para inovação, é o combustível que torna a inovação sustentável.
