Ein eindrücklicher Artikel von Audrey Tang mit dem Ziel, den vielfältigen demokratischen Dialog zu erhalten: AI Alignment Cannot Be Top-Down. Ausgangspunkt ist der Umstand, dass KI-Modelle unterschiedliche Wertvorstellungen und Charakter verkörpern. Der technische Schritt, um dies im Erstellungsprozess des Modells umzusetzen, heisst Alignment (oder auch Preference Training). Alignment bedeutet...
Immer wieder mal DNS als Achillesverse
Alle grundlegende Internet-Standards wurden in transparenten, kollaborativen und auf Vertrauen basierenden Prozesse mit Fokus auf Einfachheit/Funktion und auf die USA entwickeln: «RFC development process». Das Vorgehen hat extrem viele Vorteile und, wie im Leben so üblich, ein paar Herausforderungen: Eine davon ist Sicherheit. In diesem Post nehme ich mir DNS (domain name service) vor. Der Dienst...
Unterschiedliche Charakter und Wertvorstellungen von LLMs
Unterschiedliche Verhaltensrichtlinien und ethische Grundsätze von LLMs waren ein lang diskutiertes Thema in meinem Slot an der NZZ Academy. Auch wenn es intuitiv klar ist, dass Modelle wie Grok, ChatGPT oder Claude andere “Meinungen” haben, so ist der Prozess dorthin (und auch die Folgen davon) nicht allen bewusst. In dem Zusammenhang bin ich auf ein sehr interessantes, aktuelles Paper...
Swiss AI sovereignty – market opportunity or really complicated?
The AI systems we are about to deploy are not only produced in the US or China, but in most cases also using a cloud scenario where the second endpoint is neither in Switzerland nor under our control. Since hosting models locally with tools like Ollama, GPT4All or OpenLLM locally is an quite an easy fix, let’s talk about the elephant in the room: Building and tuning models under your control. To...
