Meta Acusada de Coletar Dados Íntimos de Óculos Inteligentes para Treino de IA
A Meta está sendo processada na Califórnia e enfrenta a fúria de reguladores britânicos por supostamente coletar vídeos e áudios íntimos de usuários dos óculos Ray-Ban Meta e Oakley Meta. Relatos indicam que o conteúdo, incluindo momentos privados, é analisado por terceirizados para treinar algoritmos de Inteligência Artificial, levantando sérias questões sobre privacidade e "padrões sombrios" nas políticas da empresa.

Processos e Preocupações Regulatórias
Na Corte Distrital do Norte da Califórnia, um processo foi aberto contra a Meta e a Luxottica of America, subsidiária da EssilorLuxottica (proprietária da Ray-Ban). As companhias são acusadas de deturpar a privacidade dos óculos Ray-Ban Meta, que foram anunciados com o slogan "desenvolvido para privacidade, controlado por você", enquanto dificultam que os usuários impeçam a coleta de conteúdo íntimo. Do outro lado do Atlântico, o Escritório do Comissário de Informação do Reino Unido (ICO) manifestou grande preocupação com os planos da empresa de Mark Zuckerberg de adicionar reconhecimento facial aos seus acessórios vestíveis, além de cobrar transparência sobre a coleta e uso de dados, defendendo que os usuários devem ter total controle.
Relatos Perturbadores de Terceirizados
O epicentro das revelações é um relatório publicado em fevereiro de 2026, resultado de uma colaboração entre jornais suecos e uma jornalista queniana. Baseado em entrevistas com 30 funcionários da Sama, uma empresa queniana que fornece análise de dados para o Meta, o relatório detalha o processo de categorização de vídeos, fotos e áudios captados pelos óculos. Estes funcionários relataram ter visto conteúdos perturbadores, incluindo um homem que deixa os óculos ao lado da cama enquanto a esposa se troca, pessoas usando o banheiro, uma mulher saindo nua do lavabo e até vídeos de sexo, aparentemente gravados de forma não intencional ou inconsciente pelos usuários. "Você sabe que está vendo a vida privada de alguém, mas ao mesmo tempo, você tem que fazer o seu trabalho", descreveu um dos terceirizados.
A Resposta da Meta e a Política de Privacidade
Em contato com a rede BBC, a Meta confirmou que "eventualmente" solicita serviços de empresas terceirizadas para a anotação de dados, principalmente do chatbot Meta AI, para melhorar a experiência do usuário. A empresa argumentou que "todas as companhias de tecnologia fazem isso" e que os dados são "filtrados" para proteger a privacidade, como o embaçamento de rostos. No entanto, a política de privacidade da Meta indica que fotos e vídeos captados pelos óculos são enviados aos seus servidores quando os recursos de processamento por IA estão ativos, ao usar o Meta AI, ou ao hospedar conteúdo em plataformas como Facebook e Instagram. Em alguns casos, esses dados serão "analisados por humanos", ou seja, funcionários de terceirizadas como a Sama.
Padrões Sombrios e o Desafio Regulatório
O principal ponto de fricção reside na falta de compreensão dos usuários sobre as políticas de privacidade, muitas vezes redigidas em "juridiquês" e ocultando intenções. Legisladores chamam essa prática de "padrões sombrios" (dark patterns), que visam confundir e direcionar as ações dos usuários. Por exemplo, a integração da câmera com IA é ativada por padrão nos óculos, exigindo que o usuário faça um "opt-out" para desabilitá-la. Governos, incluindo o do Reino Unido, defendem a inversão dessa lógica, buscando a implementação do "opt-in" como norma, onde o consentimento explícito é necessário antes da coleta de dados. Funcionários da Sama também relataram ter analisado vídeos onde usuários gravaram, sem aparente conhecimento, números de cartões de crédito e atividades íntimas como o consumo de conteúdo adulto.