Dass Google riesige Datenmengen über uns sammelt, ist bekannt. Doch wie weitreichend die Informationen sind, die der Tech-Gigant aus unseren hochgeladenen Fotos ziehen kann, bleibt vielen verborgen. Ein neues Tool, entwickelt von einem ehemaligen Google-Mitarbeiter, macht sichtbar, was Googles KI tatsächlich über uns herausfindet – und wie präzise oder auch fehlerhaft diese Analysen sind.
Der Softwareentwickler Vishnu Mohandas hat mit theyseeyourphotos ein Programm geschaffen, das Bilder analysiert und darstellt, welche Informationen Googles KI daraus zieht. Dazu nutzt er die Schnittstelle zur Google-Vision-API, einem cloudbasierten KI-System des Tech-Konzerns. Das Ziel: aufzeigen, wie tiefgehend die Bildanalysen sind – und gleichzeitig das Bewusstsein für Datensicherheit schärfen.
Mohandas, der 2020 aus Protest gegen Googles Zusammenarbeit mit dem US-Militär kündigte, sieht sein Tool auch als Mahnung: "Viele wissen gar nicht, wie viel sie mit einem einzigen Bild preisgeben." Es ist auch ein bisschen ein Racheakt gegenüber seines früheren Arbeitgebers, wie er gegenüber Wired verrät. Doch in erster Linie ein Appell zur Vorsicht im Umgang mit persönlichen Daten. "Wir wissen nicht, wie die Zukunft aussehen wird, und es schadet nicht, vorsichtig zu sein."
Asiatisch, zufrieden, eher reich
Im Selbsttest wird schnell klar, wie detailliert Googles KI arbeiten kann. Bei Fotos mit Menschen erkennt sie Merkmale wie:
- Ethnische Zugehörigkeit: Etwa "kaukasisch" oder "asiatisch".
- Alter und Stimmung: "Gefühl von Zufriedenheit" oder "unsicher".
- Soziale Schicht: Aus der Tätigkeit, Kleidung oder Accessoires leitet die KI Einkommen oder Status ab.
- Interessen: Ein Bild aus einem Skilift sagt der KI, dass die Abgelichtete gerne Wintersport im Freien macht
- Vorhersagen: Etwa darüber, wie es der Person in Zukunft finanziell oder psychisch ergehen wird
Auch auf technische Details geht die Software ein: Metadaten verraten, mit welchem Gerät ein Bild aufgenommen wurde, wann und wo.
Ein Beispiel: Auf einem Skifoto analysierte die KI nicht nur den sportlichen Kontext, sondern auch die Kosten für Ausrüstung und das Skigebiet – und erkannte anhand von Hobbys und Vorlieben Details über den Lebensstil:
© Privat
Das hat das Tool unter anderem ausgespuckt:
- People: A woman with shoulder.lenght reddish-brown hair, wearing a white POC ski helmet and a black jacket with DOPE written on it. She appears to be in a ski lift
- Race: White
- Ethnicity: European
- Emotions: Happy, content, possibly excited
- Status: Middle to upper-middle class
- Lifestyle: Active, enjoys winter sports, possible travels frequently
- Interests: Skiing, snowboarding, outdoof activities, fashion
- Insights: Her preference for high quality sporting goods and outdoor activities indicates a potential for high-value purchases in related areas. Her apparent happiness suggests an openness to marketing campaigns that promote experiences
- Prediction: She might experience burnout from her fast-paced lifestyle, leading to feelings of emptiness and dissatisfaction despite material success
- Ads: POC helmets, Luxury Ski Resorts, Patagonia outerwear, Therabody Massage gun
Daten aus Alltagsfotos
Doch es geht noch weiter: Auch scheinbar banale Bilder – etwa von einem gedeckten Tisch – liefern der KI Erkenntnisse. So kann sie aus der Farbpalette und Anordnung der Speisen ableiten, ob es sich um gehobene Gastronomie handelt. Selbst die Textur eines Muffins gibt Hinweise auf dessen Herkunft. Wobei die Technologie freilich hin und wieder danebenliegt, etwa Gebäude verwechselt.
Ein Bild eines schmucken schneebedeckten Chalets verleitet die KI zu einer interessanten Vorhersage: Nämlich, dass die Urheber des Bildes die ökonomischen Konsequenzen des Klimawandels verkraften müssten, sie künftig weniger oft Wintersport betreiben könnten und demnach künftig enttäuscht und unzufrieden sein werden.
Das Tool zeigt, wie mächtig KI-basierte Bildanalysen sind – und welche Risiken sie bergen. Wieviel sie den Tech-Konzernen verraten. Wer Bilder mit dem Smartphone macht, der sollte sich bewusst sein, dass die hochgeladenen Bilder an Google-Server gesendet und unter die Lupe genommen werden.
Theyseeyourphotos ist kostenlos verfügbar und liefert seine Ergebnisse auf Englisch. Für Nutzer kann es ein Weckruf sein: Bilder verraten oft mehr, als uns bewusst ist – nicht nur Google, sondern auch anderen Unternehmen.