Aus Sicherheitsüberelegungen oder aus ethischen Gründen generieren LLMs auf gewisse Prompts keine Antworten. Werden diese Prompts in Gedichte umgewandelt, sind die Sicherheitsmechanismen der Systeme und das Post-Training der Modelle in sehr vielen Fällen erfolgreich aushebelt. Willkommen bei der Studie: Adversarial Poetry as a Universal Single-Turn Jailbreak Mechanism in Large Language Models...
Modelle werden sicherer, wenn sie schummeln dürfen
…it almost feels like we’re entering a regime of research where it’s not like hard numerical science, but more like a philosophical conceptual thing… Benjamin Wright, Researcher Misalignment Science bei Anthorpic In einer faszinierenden Studie zeigen die Autoren von Anthropic ein Verhalten, bei welchem ein LLM im Post-Training lernt, die im Rahmen des reinforcement learnings zu...
Welche Menschen?
KI generiert nicht nur menschenähnlichen Output, sie wird auch mit menschlichen Wertvorstellungen und Charakterzügen trainiert respektive darauf “ausgerichtet”: Artificial intelligence (AI) alignment is the process of encoding human values and goals into AI models to make them as helpful, safe and reliable as possible. Eine Studie des Department of Human Evolutionary Biology der Harvard...
AI at Noon: Swiss AI Initiative und Apertus
Im Rahmen der Veranstaltung AI at Noon der OST – Ostschweizer Fachhochschule habe ich eine Übersicht über das Schweizer LLM Apertus und über dessen “Wiege”, die Swiss AI Initiative, erzählt. Im Kern ging es mir dabei um die Chancen von Open-Source-Modellen, wobei ich zuerst die Grenze zwischen open-weights und closed-weights ziehen und auch den Begriff Open Source AI erklären musste...
KI-Alignment kann nicht hierarchisch erfolgen
Ein eindrücklicher Artikel von Audrey Tang mit dem Ziel, den vielfältigen demokratischen Dialog zu erhalten: AI Alignment Cannot Be Top-Down. Ausgangspunkt ist der Umstand, dass KI-Modelle unterschiedliche Wertvorstellungen und Charakter verkörpern. Der technische Schritt, um dies im Erstellungsprozess des Modells umzusetzen, heisst Alignment (oder auch Preference Training). Alignment bedeutet...
Cyberspionage mit Claude Code – oder heisst es Vibe Hacking?
Anthropic beschreibt die Nutzung ihres Coding-Assistenten Claude Code als Grundlage für einen erfolgreichen Cyberangriff auf rund 30 Firmen: Disrupting the first reported AI-orchestrated cyber espionage campaign. Den Angreifern (wahrscheinlich die staatliche chinesische Gruppe GTG-1002) gelang es nicht nur die Arbeit von menschlichen Hackers massiv zu skalieren, aber auch die bestehenden...
Be yourself – Die Zeiten des KI-Modus und von Google Overviews
Danke Adrienne für den pointierten Beitrag am #SocialMediaGipfel, dazu wie man (mit seinen Inhalten) in Zeiten des KI-Modus und Google Overview (und wie sie alle heissen) relevant bleibt. Ihr zentrales Slide aus Optik des Journalismus war das folgende: Der Inhalt erinnerte mich an den Augenblick als meine interne Kommunikation, die ich zuvor immer selbst gebastelt hatte, (aufgrund der Grösse von...
Immer wieder mal DNS als Achillesverse
Alle grundlegende Internet-Standards wurden in transparenten, kollaborativen und auf Vertrauen basierenden Prozesse mit Fokus auf Einfachheit/Funktion und auf die USA entwickeln: «RFC development process». Das Vorgehen hat extrem viele Vorteile und, wie im Leben so üblich, ein paar Herausforderungen: Eine davon ist Sicherheit. In diesem Post nehme ich mir DNS (domain name service) vor. Der Dienst...
Unterschiedliche Charakter und Wertvorstellungen von LLMs
Unterschiedliche Verhaltensrichtlinien und ethische Grundsätze von LLMs waren ein lang diskutiertes Thema in meinem Slot an der NZZ Academy. Auch wenn es intuitiv klar ist, dass Modelle wie Grok, ChatGPT oder Claude andere “Meinungen” haben, so ist der Prozess dorthin (und auch die Folgen davon) nicht allen bewusst. In dem Zusammenhang bin ich auf ein sehr interessantes, aktuelles Paper...
Ohne Fundament wird es gefährlich ‒ auch bei KI
Meine Aufgabe war es, an der NZZ Academy über “the state of AI” zu sprechen. Einerseits habe ich beschlossen, nicht über den “Zustand” zu sprechen, aber über die Themen, welche mich beschäftigen. Andererseits haben mir Bedo Hamza, Walter Schärer und Andreas Göldi geholfen, eine Vorabversion zu verbessern. Also habe ich über die folgenden Themen gesprochen. KI Sicherheit KI...
