Meta se préparerait à capturer le comportement des employés basés aux États-Unis — y compris les mouvements de souris, les clics, les frappes au clavier et les captures d’écran — pour aider à entraîner ses systèmes d’IA à naviguer dans les logiciels comme le font les humains.
Surnommé « Model Capability Initiative » (MCI), selon Reuters(nouvelle fenêtre), le programme fait partie de l’effort plus large de Meta pour construire des agents d’IA capables d’exécuter de manière autonome des tâches informatiques, de la navigation dans les menus déroulants à l’utilisation des raccourcis clavier.
Meta a déclaré protéger les informations sensibles, mais n’a pas précisé quelles données sont considérées comme du matériel sensible, comment cette protection fonctionnerait, ni si elle s’étendrait aux informations de tiers que les employés pourraient traiter dans le cadre de leur travail.
Cette initiative intervient alors que Meta se prépare à supprimer 10 % de ses effectifs à partir du 20 mai, d’autres licenciements étant apparemment attendus plus tard cette année.
La nouvelle ruée vers l’or de l’IA est celle des données comportementales
Les entreprises d’IA ont déjà épuisé d’énormes quantités de données publiques sur internet, et la MCI de Meta est un exemple de ces entreprises qui s’aventurent plus loin dans leur quête du dernier support de formation pour l’IA : les données comportementales(nouvelle fenêtre).
Les données comportementales désignent les traces numériques que les personnes laissent derrière elles lorsqu’elles naviguent dans les systèmes : les clics, les frappes au clavier, les pauses, les corrections, les raccourcis et les modèles de navigation qui montrent comment une tâche est réellement accomplie. Elles sont précieuses pour les entreprises car elles capturent non seulement le résultat du travail, mais aussi le processus qui le sous-tend — ce que les systèmes d’IA ont actuellement du mal à traiter et à reproduire.
Microsoft Recall suit la même logique en prenant des captures de ce qu’une personne fait sur son ordinateur, Microsoft le présentant comme un logiciel de suivi de la productivité, et non comme un pipeline d’entraînement à l’IA. Cependant, cela montre à quel point les Big Tech n’hésitent plus à transformer des traces comportementales très détaillées en données que les systèmes peuvent enregistrer et utiliser pour apprendre. Dans le milieu professionnel, des fonctionnalités présentées comme optionnelles peuvent devenir difficiles à refuser lorsque les employeurs contrôlent la politique de l’entreprise et façonnent la dynamique de pouvoir autour du consentement.
Dans le cas de Meta, MCI semble être une pierre de plus à l’édifice d’une stratégie plus large visant à capturer des formes de données personnelles plus intimes et révélatrices. L’entreprise utilise déjà toutes les interactions de Meta AI sur Facebook, Instagram, WhatsApp et le reste de son écosystème pour l’amélioration des produits, l’entraînement de l’IA et les publicités ciblées dans les régions qui ne bénéficient pas d’une protection solide du respect de la vie privée comme le RGPD.
Le suivi des employés peut nuire à la qualité du travail
Un autre problème lié au suivi des employés par Meta pour l’entraînement de l’IA est que cela peut nuire à la qualité du travail(nouvelle fenêtre). À l’instar des logiciels de suivi des clics, il traite les frappes au clavier et les mouvements de la souris comme des signaux significatifs. Mais même avec une IA plus avancée, ces éléments restent de piètres indicateurs de la performance réelle, particulièrement dans les métiers intellectuels où la pensée critique, la planification (via votre abonnement), la mise en relation d’idées entre les fonctions et la résolution de problèmes sont souvent invisibles de l’extérieur.
Une fois que les travailleurs savent que ces signaux sont capturés — surtout s’ils soupçonnent qu’ils pourraient un jour être remplacés par les agents d’IA qu’ils aident à perfectionner — cela crée une incitation perverse à optimiser l’apparence d’activité, voire à fausser délibérément leur comportement au lieu de faire un travail constructif. La surveillance et la méfiance deviennent alors la norme sur le lieu de travail.
L’importance d’une infrastructure axée sur le respect de la vie privée
Les plateformes conçues autour de l’extraction font que chaque interaction ressemble à une donnée en attente d’être monétisée, optimisée ou réinjectée dans un autre système. Lorsque l’IA est impliquée, ce système peut être utilisé pour vous étudier, vous imiter et, à terme, vous remplacer.
Les services privilégiant le respect de la vie privée sont essentiels, car moins une entreprise peut accéder à des données, moins elle a de marge de manœuvre pour ce genre de dérive. Des protections solides comme le chiffrement de bout en bout aident à limiter ce qu’une plateforme peut voir dès le départ, tandis que le code open source apporte de la transparence en permettant un examen indépendant de la manière dont ces systèmes fonctionnent réellement. Ensemble, ils aident à protéger la confiance des employés et des clients.






