Fast ein Jahrzehnt nach seiner Veröffentlichung beeinflusst Pokémon Go künstliche Intelligenz auf unerwartete Weise.

Laut einem Bericht der MIT Technology Review(neues Fenster) nutzt Niantic Spatial, ein KI-Unternehmen, das aus dem ursprünglichen Entwickler des Spiels hervorgegangen ist, mehr als 30 Milliarden Bilder(neues Fenster) von städtischen Wahrzeichen, die von Pokémon Go-Spielern aufgenommen wurden, um KI-Systeme zu trainieren, die Robotern helfen, ihren Standort in der realen Welt zu verstehen.

Als Pokémon Go 2016 auf den Markt kam, liefen Millionen von Spielern durch ihre Städte und richteten Telefone auf Gebäude, Parks und Wahrzeichen, während sie nach digitalen Kreaturen suchten. Dabei erstellten sie einen der größten Datensätze von realen Bildern, der je gesammelt wurde. Niantic Spatial trainierte sein Modell mit 30 Milliarden Bildern, die in städtischen Umgebungen aufgenommen wurden – viele davon an Orten gruppiert, die Spieler im Spiel häufig besuchten. Manchmal tauchten digitale Kreaturen in oder nahe privaten Räumen wie Wohnhäusern oder Innenhöfen auf, was bedeutet, dass diese Momente Teil von KI-Datensätzen geworden sein könnten.

Diese Daten werden jetzt genutzt, um das zu bauen, was Forscher ein „Weltmodell“ nennen – ein KI-System, das Maschinen dabei helfen soll, physische Umgebungen zu interpretieren und darin zu navigieren.

Das zeigt auch etwas auf, das man bei moderner Technologie leicht übersieht: Alltägliche App-Aktivitäten können Jahre später unbemerkt zu wertvollen Trainingsdaten für KI-Systeme werden – etwas, womit Pokémon Go-Spieler 2016 unmöglich rechnen, geschweige denn bedeutungsvoll zustimmen konnten.

Warum GPS in Städten zu kämpfen hat

GPS-Signale prallen in dichten städtischen Umgebungen oft an hohen Gebäuden ab, driften erheblich ab oder verschwinden ganz – ein Problem, das manchmal als „Urban Canyon“-Effekt bezeichnet wird. Wie die MIT Technology Review in ihrem Bericht über die Technologie erklärt, können selbst Standortanzeigen von Smartphones in Städten um Dutzende Meter abdriften und ein Gerät oft im falschen Block oder auf der falschen Straßenseite verorten.

Die Lösung von Niantic Spatial verlässt sich auf ein visuelles Positionierungssystem(neues Fenster), das den Standort bestimmt, indem es analysiert, was eine Kamera sieht. Durch den Vergleich von Schnappschüssen nahegelegener Gebäude und Wahrzeichen mit seinem massiven Datensatz kann das System Berichten zufolge einen Standort auf wenige Zentimeter genau lokalisieren.

Von Augmented Reality bis hin zu Lieferrobotern

Einer der ersten Tests in der realen Welt für die Technologie von Niantic Spatial findet durch eine Partnerschaft mit Coco Robotics statt, einem Start-up, das in mehreren Städten Gehweg-Lieferroboter betreibt.

Die Roboter des Unternehmens transportieren Lebensmittel- und Restaurantbestellungen an Orten wie Los Angeles, Chicago, Miami und Helsinki. Laut dem Bericht der MIT Technology Review haben die Roboter von Coco bereits mehr als eine halbe Million Lieferungen absolviert und dabei Millionen von Meilen zurückgelegt.

Die zuverlässige Navigation durch dichte Städte bleibt eine große Herausforderung für autonome Maschinen. Durch die Kombination von Kameras an den Robotern mit dem visuellen Positionierungssystem von Niantic Spatial können die Maschinen genauer bestimmen, wo sie sich befinden, was es ihnen ermöglicht, präzise an Abholorten oder vor der Tür eines Kunden anzuhalten.

Der Aufstieg der „Weltmodelle“

Das Projekt spiegelt einen breiteren Trend in der KI-Entwicklung wider.

Große Sprachmodelle (Large Language Models) werden mit Bildern und Texten aus dem Internet trainiert. Weltmodelle hingegen zielen darauf ab, Maschinen dabei zu helfen, zu verstehen, wie die physische Welt selbst strukturiert ist – wo sich Objekte befinden, wie Räume miteinander verbunden sind und wie man sich sicher durch sie bewegt.

Niantic Spatial gibt an, dass ihr langfristiges Ziel darin besteht, eine ständig aktualisierte „lebende Karte“ der Welt aufzubauen, die Roboter und andere KI-Systeme zur Navigation nutzen können.

Was das für die Privatsphäre bedeutet

Diese Geschichte illustriert auch eine umfassendere Verschiebung darin, wie Daten, die von ganz normalen Menschen bei der Nutzung alltäglicher Apps erstellt werden, wiederverwendet werden.

Millionen von Menschen luden Pokémon Go herunter, um ein Spiel zu spielen. Aber nebenbei generierten sie auch Milliarden von Bildern und präzise Standortsignale, die mit Orten der realen Welt verknüpft sind. Diese Daten helfen jetzt beim Trainieren von KI-Systemen, die darauf ausgelegt sind, die physische Welt zu kartografieren und zu navigieren. Das ist weit entfernt von der ursprünglichen Absicht des Spielers, das Spiel auf der Suche nach Pikachu zu starten.

Dies wird zu einem vertrauten Muster in der KI-Wirtschaft. Aktivitäten, die scheinbar nichts mit künstlicher Intelligenz zu tun haben – das Aufnehmen von Fotos, das Surfen im Web, die Nutzung von Apps – erzeugen oft letztendlich die Datensätze, die zum Trainieren mächtiger neuer Systeme verwendet werden. Moderne KI-Modelle werden häufig mit großen Datensammlungen aufgebaut, die aus dem Internet und anderen digitalen Quellen gescrapt wurden, von denen Forscher sagen, dass sie manchmal persönliche Informationen oder sensible Daten enthalten können.

Während Unternehmen im Wettlauf Weltmodelle und andere Formen der KI aufbauen, stellt sich die Frage, woher die Trainingsdaten stammen – und ob die Menschen, die sie generiert haben, jemals erkannt haben, wie diese Daten genutzt würden, oder ob sie diese Apps weiterhin nutzen würden, wenn sie die Konsequenzen gekannt hätten. Politische Entscheidungsträger und Forscher fordern zunehmend klarere Zustimmungsstandards(neues Fenster) für Daten, die im KI-Training verwendet werden, und argumentieren, dass Ersteller und Benutzer mehr Kontrolle darüber haben sollten, wie ihre Daten wiederverwendet werden.

Diese KI-Datenschutzbedenken werden bereits vor Gericht ausgetragen. Verlage, Autoren und Medienunternehmen haben Klagen eingereicht und behaupten, dass ihre Arbeit ohne Erlaubnis zum Trainieren von KI-Systemen verwendet wurde, darunter ein hochkarätiger Fall, in dem The New York Times OpenAI und Microsoft(neues Fenster) wegen der mutmaßlichen Nutzung ihres Journalismus in KI-Trainingsdatensätzen verklagte.

Für Unternehmen, die KI bauen, welche die physische Welt navigiert, werden Datensätze, die durch Spiele, Apps und digitale Plattformen erstellt wurden, schnell zu einigen der wertvollsten Assets in der Technologiebranche. Während dies geschieht, werden Fragen zu Transparenz, Zustimmung und der Wiederverwendung benutzergenerierter Daten immer schwerer zu ignorieren.

Nicht jeder verfolgt dieses datenhungrige Modell. Wir bei Proton glauben an private, transparente KI, die dir die Vorteile eines KI-Assistenten(neues Fenster) bietet, ohne Kosten bei der Privatsphäre. Lumo protokolliert niemals deine Daten, trainiert nicht mit deinen sensiblen Unterhaltungen und teilt deine Informationen mit niemandem. Das bedeutet, KI zu nutzen, ohne sich fragen zu müssen, ob die Interaktionen von heute still und heimlich zu den Datensätzen von morgen werden.