Meta bereitet Berichten zufolge die Erfassung des Verhaltens von in den USA ansässigen Mitarbeitern vor – einschließlich Mausbewegungen, Klicks, Tastenanschlägen und Bildschirm-Schnappschüssen –, um seine KI-Systeme darin zu trainieren, Software so zu bedienen, wie Menschen es tun.
Laut Reuters(neues Fenster) ist das Programm mit dem Namen „Model Capability Initiative“ (MCI) Teil von Metas umfassenderem Bestreben, KI-Agenten zu entwickeln, die computerbasierte Aufgaben autonom ausführen können, vom Navigieren in Dropdown-Menüs bis hin zur Verwendung von Tastaturkürzeln.
Meta gab an, sensible Informationen zu schützen, klärte jedoch nicht auf, welche Daten als sensibles Material gelten, wie dieser Schutz funktionieren würde oder ob er sich auf Informationen von Drittanbietern erstrecken würde, mit denen Mitarbeiter während der Arbeit umgehen.
Dieser Schritt erfolgt zu einem Zeitpunkt, an dem Meta sich darauf vorbereitet, ab dem 20. Mai 10 % seiner Belegschaft abzubauen, wobei Berichten zufolge später in diesem Jahr weitere Entlassungen erwartet werden.
Der neue KI-Goldrausch sind Verhaltensdaten
KI-Unternehmen haben bereits riesige Mengen an öffentlichen Internetdaten verbraucht, und Metas MCI ist ein Beispiel dafür, wie diese Unternehmen bei ihrer Suche nach neuem KI-Trainingsfutter noch tiefer gehen: Verhaltensdaten(neues Fenster).
Verhaltensdaten beziehen sich auf die digitalen Spuren, die Menschen hinterlassen, wenn sie sich durch Systeme bewegen: Klicks, Tastenanschläge, Pausen, Korrekturen, Tastaturkürzel und Navigationsmuster, die zeigen, wie eine Aufgabe tatsächlich erledigt wird. Sie sind für Unternehmen wertvoll, weil sie nicht nur das Ergebnis der Arbeit erfassen, sondern auch den Prozess dahinter – etwas, das KI-Systeme derzeit nur schwer verarbeiten und replizieren können.
Microsoft Recall folgt derselben Logik, indem es Schnappschüsse von dem macht, was eine Person an ihrem Computer tut. Microsoft präsentiert dies als eine Art Produktivitätsverfolgung-Software und nicht als KI-Trainingspipeline. Es zeigt jedoch trotzdem, wie gewohnt es für Big Tech geworden ist, hochdetaillierte Verhaltensspuren in etwas zu verwandeln, das Systeme aufzeichnen und aus dem sie lernen können. In Arbeitsumgebungen können Funktionen, die als optional eingestuft werden, schwer abzulehnen sein, wenn Arbeitgeber die Unternehmensrichtlinie kontrollieren und die Machtdynamik rund um die Einwilligung bestimmen.
Im Fall von Meta scheint MCI ein weiterer Baustein in einem umfassenderen Bestreben zu sein, intimere und aufschlussreichere Formen von personenbezogenen Daten zu erfassen. Das Unternehmen nutzt bereits alle Interaktionen mit Meta AI über Facebook, Instagram, WhatsApp und den Rest seines Ökosystems für Produktverbesserungen, KI-Training und gezielte Werbung an Orten, an denen es keinen starken Schutz der Privatsphäre wie die DSGVO gibt.
Die Überwachung von Mitarbeitern kann die Arbeit verschlechtern
Ein weiteres Problem dabei, dass Meta Mitarbeiter für das KI-Training überwacht, ist, dass es die Arbeit verschlechtern kann(neues Fenster). Wie Klick-Tracking-Software behandelt es Tastaturanschläge und Mausbewegungen als aussagekräftige Signale. Aber selbst mit fortschrittlicherer KI darüber sind dies immer noch schlechte Ersatzwerte für die tatsächliche Leistung, insbesondere bei Wissensarbeit, bei der kritisches Denken, Planung, das Verbinden von Ideen über Funktionen hinweg und das Lösen von Problemen von außen oft unsichtbar erscheinen.
Sobald die Mitarbeiter wissen, dass diese Signale erfasst werden – insbesondere wenn sie vermuten, dass sie eines Tages durch die KI-Agenten ersetzt werden könnten, an deren Verfeinerung sie gerade mitwirken –, entsteht ein falscher Anreiz, darauf zu optimieren, beschäftigt auszusehen, oder sogar ihr Verhalten bewusst zu verzerren, anstatt sinnvolle Arbeit zu leisten. Überwachung und Misstrauen werden zur Norm am Arbeitsplatz.
Eine auf Privatsphäre ausgerichtete Infrastruktur ist wichtig
Plattformen, die auf Datenextraktion basieren, lassen jede Interaktion wie Daten aussehen, die darauf warten, monetarisiert, optimiert oder in ein anderes System eingespeist zu werden. Wenn KI im Spiel ist, kann dieses System dazu verwendet werden, dich zu studieren, dich zu imitieren und dich schließlich zu verdrängen.
Auf Privatsphäre ausgerichtete Dienste sind wichtig, denn je weniger Daten ein Unternehmen abrufen kann, desto weniger Spielraum hat es für diese Art von Zweckentfremdung. Starke Schutzmaßnahmen wie Ende-zu-Ende-Verschlüsselung helfen dabei, das zu begrenzen, was eine Plattform überhaupt sehen kann, während Open-Source-Code für Transparenz sorgt, indem er eine unabhängige Prüfung der tatsächlichen Funktionsweise dieser Systeme ermöglicht. Zusammen tragen sie dazu bei, das Vertrauen von Mitarbeitern und Kunden zu schützen.






