14. August, 2025

Education

Wenn Algorithmen das Kreuz setzen

Künstliche Intelligenz könnte uns nicht nur beim Einkauf entlasten – sondern auch an der Wahlurne vertreten. Die Verlockung: rationalere Entscheidungen. Das Risiko: der Verlust der eigenen Stimme.

Wenn Algorithmen das Kreuz setzen
Filterblasen in Reinform – KI-Agenten verstärken oft bestehende Meinungen und setzen neue Themen, die nicht zwingend den tatsächlichen Präferenzen der Bürger entsprechen.

Zu viele Optionen, zu wenig Kopf

Im Schnitt treffen wir rund 35.000 Entscheidungen am Tag. Die meisten passieren automatisch, manche bestimmen unser Leben. Doch die Multioptionsgesellschaft macht uns mürbe. Für eine 14-tägige Italienreise gibt es, so rechnen Reiseexperten vor, rund 700 Millionen Varianten.

Kein Wunder, dass Psychologen längst von decision fatigue sprechen – Entscheidungsmüdigkeit, die uns zu bequemen, oft riskanten Lösungen treibt.

Genau hier setzen KI-Agenten an. Digitale Helfer, die uns den Kleinkram abnehmen: Stromtarife vergleichen, Reisen buchen, Steuererklärungen ausfüllen. Künftig, so die Vision, managen wir persönliche „digitale Angestellte“, die unermüdlich für uns arbeiten.

Vom Warenkorb zur Wahlkabine

Unproblematisch ist das, solange es ums günstigste Hotel oder den besten Stromtarif geht. Politisch heikel wird es, wenn Maschinen anfangen, auch unsere Stimmzettel auszufüllen.

Technisch wäre es schon bald möglich: Die KI analysiert unsere Chats, Likes und Suchanfragen, gleicht sie mit Parteiprogrammen ab und wählt die Partei, die am besten zu uns passt.

Rationalität statt Bauchgefühl – Befürworter sehen in KI-gestützten Wahlentscheidungen eine Chance, Fehlentscheidungen zu vermeiden. Doch damit droht der Verlust des menschlichen Faktors in der Demokratie.

Befürworter sprechen von „korrektem Wählen“ – nicht im Sinne politischer Korrektheit, sondern als passgenaue Übereinstimmung zwischen unseren Präferenzen und der Wahlentscheidung. Damit ließen sich Fehlentscheidungen reduzieren, bei denen Menschen aus Unwissenheit oder Emotion entgegen ihrer eigenen Interessen wählen.

Wenn der Algorithmus Meinung macht

Doch Algorithmen sind keine neutralen Spiegel. Sie verstärken, was sie erkennen. Wer sich für Mietrecht interessiert, könnte plötzlich in einer Filterblase linker Wohnungspolitik landen – auch wenn das eigene Profil weit komplexer ist.

Hinzu kommt: KI-Agenten könnten Themen setzen, die gar nicht auf unserer Prioritätenliste stehen. Ein paar Klicks in die falsche Richtung – und schon verschiebt sich das politische Koordinatensystem.

ETH-Experiment: Mensch vs. Maschine

Wie unterschiedlich Menschen und Maschinen entscheiden, zeigte ein Experiment der ETH Zürich. Forscher ließen große Sprachmodelle wie GPT-4 und Llama 2 über kommunalpolitische Projekte abstimmen – von autofreien Straßen bis zu Nachbarschaftsgärten. Ergebnis: Die Abweichungen waren erheblich.

Während Menschen eher zu kostspieligen Projekten neigten, wählten die KI-Systeme meist die günstigeren Optionen. GPT-4 favorisierte auffällig oft Verkehrsprojekte wie den Ausbau von Radwegen.

Die Forscher attestierten den Maschinen ein hohes Kostenbewusstsein – und stellten die Frage, ob das im politischen Alltag wirklich wünschenswert ist.

Mehr Rationalität, weniger Freiheit?

Die Idee, Wahlentscheidungen zu optimieren, klingt verlockend: keine Wahl aus dem Bauch heraus, keine Fehlentscheidung aus Unwissenheit. Doch Demokratie lebt nicht nur von Effizienz, sondern vom menschlichen Element – von Emotion, Debatte und Irrtum.

Eine KI mag rationaler wählen. Aber ist Rationalität allein ein Wert, der unsere Stimme ersetzen darf? Wenn der Mensch nur noch den Wahlknopf drückt, den der Algorithmus vorgibt, ist die Demokratie vielleicht effizienter – aber nicht mehr dieselbe.

Das könnte Sie auch interessieren:

GPT-5: Durchbruch oder letzter großer Sprung?
OpenAI-Chef Sam Altman preist das neue Modell als „Team von Doktoren in der Hosentasche“. Kritiker zweifeln, ob die ganz großen Innovationssprünge bei KI schon vorbei sind.