Ein eindrücklicher Artikel von Audrey Tang mit dem Ziel, den vielfältigen demokratischen Dialog zu erhalten: AI Alignment Cannot Be Top-Down.
Ausgangspunkt ist der Umstand, dass KI-Modelle unterschiedliche Wertvorstellungen und Charakter verkörpern. Der technische Schritt, um dies im Erstellungsprozess des Modells umzusetzen, heisst Alignment (oder auch Preference Training).
Alignment bedeutet, sicherzustellen, dass KI-Systeme im Einklang mit menschlichen Werten und Absichten handeln.
Weshalb ist also KI-Alignement wichtig?
Je tiefer die Nutzung von KI in unserer Gesellschaft eingreift (z.B. Gesetzesentwürfe verfassen, Prüfungen benoten, Anwälte beraten, Sozialhilfeanträge prüfen oder öffentliche Konsultationen zusammenfassen), desto stärker prägen deren Ausgabe, was die Gesellschaft als real und wahr erachten. Über diese bewusste Prägung entscheiden heute die wenigen Hersteller der Modelle, meist ohne öffentlichen Dialog dazu.
Welche Werten und Absichten?
Die Studie «Which Humans?» vom Department of Human Evolutionary Biology der Harvard University zeigt die Korrelation von KI-erzeugten Inhalten und Wertesystemen aus unterschiedlichen Kulturräumen. Der Nullpunkt der folgenden Abbildung – wen wundert es – bezeichnen sie als WEIRD (Western, Educated, Industrialized, Rich, and Democratic).

Department of Human Evolutionary Biology, Harvard University.
Doch was ist die Lösung?
Der Kernbegriff von Tangs Lösungsansatz ist: Attentiveness (Aufmerksamkeit).
Attentiveness: giving the people real, ongoing power to steer technology.
Sie erklärt dies an ein Beispiel aus ihrer Tätigkeit als Digitalministerin von Taiwan. Zur Bekämpfung von Online-Spam haben sie 200’000 Bürger:innen zur Mithilfe aufgerufen. In der Folge haben sie mit 447 Personen, welche einen Durchschnitt der Bevölkerung vertreten, in Zehnergruppen funktionierende Lösungen erarbeitet.
Dafür braucht es aber noch die folgenden drei Vorbedingungen:
Branchenstandards, Marktgestaltung und Gemeinschaftsassistenten
- Hersteller und Betreiber der Modelle müssen die Black Box öffnen, um eine Diskussion zu den von ihnen im Alignment angewandten Regelwerken (model constitutions und specifications ) und Prozessen (citations testing at inference time) zu erlauben.
- Märkte, welche über den Erfolg von Modellen entschieden, müssen als solche funktionieren. So muss beispielsweise die Datenportabilität zwischen Plattformen möglich sein, damit Nutzer:innen mit tiefen Kosten wechseln können. Und auch Beschaffungsprozesse müssen auditierbare Systeme bevorzugen, um prüfen zu können, ob die in ein genannten Regelwerke auch erfolgreich umgesetzt werden.
- Und Schlussendlich braucht es Menschen, welche als Vertreter der Regionen, basierend auf ihren spezifischen Herkünften, Dialekte und Normen als Vermittler zwischen globalen Technologien und lokalen Gegebenheiten bewerten. Diese Bewertungen werden wiederum Grundlage zur Anpassung der Modelle.
Abschluss
Skizziert wird das Abbild einer direkten Demokratie für eine Welt, in der KI-Systeme eine gewichtige Stimme erhalten. Zusammengefasst wird dies mit der Aussage: «Actually listening to people». Einer von sechs Punkten in dem auch sehr lesenswerten Framework: The 6-pack of digital democracy.

