In einem aktuellen Support-Dokument berichtete Apple, dass gesammelt werden, um die Genauigkeit der Augmented Reality Standorte in den Karten der Apple Maps App zu verbessern.
Apple hatte mit der Einführung von iOS 17.2 die kartenbezogenen Daten genannt, die zur Optimierung der AR-Standortfunktion einbezogen werden.
Genauigkeit der AR-Standorte in Apple Maps verbessern
Wenn die Augmented Reality Funktion in den Karten der Apple Maps App inklusive immersiver Gehanweisungen oder die Option zur Verfeinerung des Standorts genutzt werden, sammelt Apple Informationen über die so genannten „Feature Punkte“, welche die Form und Design stationärer Objekte und Gebäude darstellt.
Die Daten beinhalten weder Bilder noch Fotos und die gesammelten Feature-Punkte können von einer Person nicht gelesen werden. Nach Apples Angaben setzt Maps auf maschinelles Lernen auf dem Gerät, um Feature-Punkte mit Apple Maps-Referenzdaten zu vergleichen, die an das iPhone übermittelt werden.
Mit der Kamera werden bewegliche Objekte wie Fahrzeuge oder Menschen herausgefiltert, da nur die Feature-Punkte fester Objekte für die Datensammlung relevant sind. Der Vergleich zwischen den Apple-Referenzdaten und Feature-Punkten erlaubt es Maps, einen Benutzerstandort zu lokalisieren und detailreiche Wegbeschreibungen mit AR-Kontext bereitzustellen. Die AR-Gehanweisungen oder Refine Location aktualisiert die Referenzdaten, was dazu dient die Genauigkeit der Augmented Reality zu verbessern.
Verschlüsselte Daten
Die gesammelten Daten sind verschlüsselt und können nicht einem einzelnen Anwender oder Apple-ID zugeordnet werden. Den Feature-Punkten wird „Rauschen“ hinzugefügt, womit ein Versuch verhindert werden soll, aus den Feature-Punkten ein Bild aus den Daten zu rekonstruieren.
Nach Apples Angaben könnte nur ein extrem anspruchsvoller Anwender ein Bild aus Feature-Punkten neu erstellen, wenn er Zugriff auf das konzerneigene Codierungssystem hat. Der Nutzer kann auf Wunsch die Verwendung von AR-Daten deaktivieren.