Google DeepMind
KI als Streitschlichter: Habermas-Maschine soll gesellschaftlicher Spaltung entgegenwirken

| Natalie Oberhollenzer 
| 07.11.2024

Ein neues KI-System von Google DeepMind soll helfen, Konflikte zu lösen und gesellschaftliche Gräben zu überbrücken – und schneidet dabei sogar besser ab als menschliche Mediatoren.

Geht es nun um Themen wie Einwanderung, Gesundheitspolitik, Identitätspolitik, Transgenderrechte oder ob die Ukraine Unterstützung erhalten sollte. Viele Menschen, nicht nur in Deutschland, empfinden gesellschaftliche Spaltungen aktuell so hoch wie nie.

Um diesem Trend entgegenzuwirken, hat Google DeepMind eine KI entwickelt, die Menschen bei der Konfliktlösung unterstützen soll. Sie wurde "Habermas-Maschine“ getauft – in Anlehnung an den deutschen Philosophen Jürgen Habermas, der daran glaubte, dass Menschen zu einer Einigung gelangen können, wenn sie als Gleiche in einer öffentlichen Diskussion auf Augenhöhe kommunizieren.

Doch stellt sich die Frage: Kann eine KI, die Probleme wie Schach und komplexe Computerspiele meistert, auch unsere politischen Konflikte lösen? Und ist sie das richtige Werkzeug dafür?

Ein "Philosoph in der Maschine“

Nach Habermas scheitern Konflikte oft nicht an den Inhalten, sondern an den Methoden der Diskussion. Die Idee: Ein ideales Kommunikationssystem könnte helfen, nahezu jedes Problem zu lösen.

Genau hier setzt das neue Tool an: Es basiert auf dem Prinzip der "Kausalen Mediation“ – einem Verfahren, bei dem eine Mediator-KI mit allen Beteiligten einzeln spricht, deren Standpunkte zusammenfasst und daraus eine gemeinsame Aussage formuliert, die möglichst alle akzeptieren. Technisch besteht das System aus zwei Modellen: Ein generatives Modell erstellt Vorschläge für Gruppenaussagen, und ein zweites Modell bewertet, wie gut diese Vorschläge von den Teilnehmern angenommen würden. Dieser Prozess wiederholt sich, bis eine Formulierung gefunden wird, die alle akzeptieren können.

Der Praxistest: Überzeugender als menschliche Mediatoren

In ersten Tests diskutierten über 5000 Menschen Themen wie "Soll das Wahlalter auf 16 Jahre gesenkt werden?“ oder "Soll der britische Gesundheitsdienst privatisiert werden?“. Hierbei erzielte die Habermas-Maschine eine Akzeptanzrate von 56 Prozent – menschliche Mediatoren kamen nur auf 44 Prozent. Zudem wurden die KI-Vorschläge oft als besser formuliert bewertet.

Um noch aussagekräftigere Ergebnisse zu erzielen, arbeitete DeepMind mit einer britischen Bürgerstiftung zusammen, die eine repräsentative Gruppe von 200 Personen für den Test auswählte. Bei Themen wie "Soll die Zahl der Gefangenen reduziert werden?“ stieg die Zustimmung nach der Diskussion mit der KI von 60 auf 75 Prozent. In fünf von neun Fragen konnte so ein Konsens erreicht werden – Themen wie der Brexit blieben jedoch weiterhin umstritten.

Kontroverse Themen und die Frage der Neutralität

Einige besonders polarisierende Fragen, etwa zu Transgenderrechten, wurden von den Forschern bewusst ausgeschlossen, um die Sicherheit der Teilnehmer zu gewährleisten. Auch der Klimawandel wurde nicht thematisiert, da die Faktenlage hier eine wichtige Rolle spielt.

In der Diskussion um Neutralität ist die Habermas-Maschine Teil einer größeren Debatte: Der Unternehmer Elon Musk warnte davor, dass KI-Systeme "woke“ (liberal gefärbte) Meinungen widerspiegeln könnten, und stellte seine eigene "Anti-Woke“-KI Grok als Alternative vor. Solche Überlegungen zeigen, wie leicht KI als politisches Werkzeug missbraucht werden kann.

Was die Habermas-Maschine erreichen könnte

Die Habermas-Maschine könnte helfen, gesellschaftliche Gräben zu überwinden und einen Konsens bei strittigen Themen zu fördern, schreibt die Fachseite Ars Technica. Zugleich könnte sie jedoch auch eingesetzt werden, um gezielte Botschaften zu formulieren und möglichst breite Zustimmung zu gewinnen. Dies würde in gewisser Weise auch zur Philosophie von Habermas passen: Konsens zu suchen, um eine bessere Gesellschaft zu gestalten.

Das Team von DeepMind wollte übrigens Habermas selbst in das Projekt einbeziehen, bekam jedoch keine Antwort – offenbar nutzt der Philosoph schlicht keine E-Mails.

Kommentar schreiben

* Pflichtfelder.

leadersnet.TV