A Meta estaria se preparando para capturar o comportamento de funcionários baseados nos EUA — incluindo movimentos do mouse, cliques, teclas digitadas e capturas de tela — para ajudar a treinar seus sistemas de IA a navegar em softwares da mesma forma que os humanos fazem.
Apelidado de Model Capability Initiative (MCI), de acordo com a Reuters(nova janela), o programa faz parte do esforço mais amplo da Meta para construir agentes de IA que possam realizar tarefas baseadas em computador de forma autônoma, desde navegar em menus suspensos até usar atalhos de teclado.
A Meta afirmou que protegerá informações sensíveis, mas não esclareceu quais dados se qualificam como material sensível, como essa proteção funcionaria ou se ela se estenderia a informações de terceiros que os funcionários podem manusear no trabalho.
A medida ocorre enquanto a Meta se prepara para cortar 10% de sua força de trabalho a partir de 20 de maio, com mais demissões supostamente esperadas para o final deste ano.
A nova corrida do ouro da IA são os dados comportamentais
As empresas de IA já consumiram enormes quantidades de dados públicos da internet, e a MCI da Meta é um exemplo dessas empresas indo mais fundo em sua busca pelo mais recente combustível de treinamento de IA: dados comportamentais(nova janela).
Dados comportamentais referem-se aos rastros digitais que as pessoas deixam para trás à medida que navegam pelos sistemas: os cliques, as teclas digitadas, as pausas, as correções, os atalhos e os padrões de navegação que mostram como uma tarefa é realmente concluída. Isso é valioso para as empresas porque captura não apenas o resultado do trabalho, mas o processo por trás dele — algo que os sistemas de IA atualmente lutam para processar e replicar.
O Microsoft Recall segue a mesma lógica ao capturar capturas de tela do que uma pessoa faz em seu computador, com a Microsoft apresentando-o como uma forma de software de rastreamento de produtividade, e não como um fluxo de treinamento de IA. Mas isso ainda mostra como as Big Techs se sentem à vontade em transformar rastros comportamentais altamente detalhados em algo que os sistemas podem registrar e aprender. Em ambientes de trabalho, recursos apresentados como opcionais podem se tornar difíceis de recusar quando os empregadores controlam a política da empresa e moldam a dinâmica de poder em torno do consentimento.
No caso da Meta, o MCI parece ser outro elemento de construção em uma estratégia mais ampla para capturar formas mais íntimas e reveladoras de dados pessoais. A empresa já está usando todas as interações da IA da Meta no Facebook, Instagram, WhatsApp e no resto do seu ecossistema para melhoria de produtos, treinamento de IA e anúncios direcionados em locais que não possuem proteções de privacidade fortes, como o GDPR.
Rastrear funcionários pode piorar o trabalho
Outro problema com a Meta rastreando funcionários para treinamento de IA é que isso pode piorar o trabalho(nova janela). Assim como o software de rastreamento de cliques, ele trata as teclas pressionadas e os movimentos do mouse como sinais significativos. Mas, mesmo com a IA mais avançada por cima, esses ainda são substitutos ruins para o desempenho real, particularmente no trabalho intelectual onde o pensamento crítico, planejamento, conexão de ideias entre funções e resolução de problemas muitas vezes parecem invisíveis de fora.
Quando os trabalhadores sabem que esses sinais estão sendo capturados — especialmente se suspeitam que um dia poderão ser substituídos pelos agentes de IA que estão ajudando a refinar — isso cria um incentivo perverso para otimizar o visual de estar ocupado, ou até mesmo para distorcer deliberadamente seu comportamento em vez de realizar um trabalho significativo. A vigilância e a desconfiança tornam-se a norma no local de trabalho.
Uma infraestrutura focada na privacidade é fundamental
Plataformas construídas em torno da extração fazem com que cada interação comece a parecer dados esperando para serem monetizados, otimizados ou realimentados em outro sistema. Quando a IA está envolvida, esse sistema pode ser usado para estudar você, imitar você e, eventualmente, substituir você.
Serviços focados na privacidade são importantes porque quanto menos dados uma empresa puder acessar, menos espaço ela terá para esse tipo de desvio de finalidade. Proteções fortes, como a criptografia de ponta a ponta, ajudam a limitar o que uma plataforma pode ver em primeiro lugar, enquanto o código aberto adiciona transparência ao permitir o escrutínio independente de como esses sistemas realmente funcionam. Juntos, eles ajudam a proteger a confiança de funcionários e clientes.






