Was ist Harness Engineering? Die nächste Schlacht von KI ist nicht das Modell, sondern die Schicht der Architektur außerhalb des Modells

ChainNewsAbmedia

2026 年, es entsteht in der KI-Branche ein neuer Konsens: Nicht das Modell selbst entscheidet darüber, ob ein KI-Produkt gut oder schlecht ist, sondern die Schicht darum herum, die „Harness“ heißt. Wenn die zugrunde liegenden Modelle, die von Claude Code, Cursor und OpenClaw genutzt werden, einander immer ähnlicher werden, dann liegt der eigentliche Produktunterschied im Design der Harness. Der technische Blog von Martin Fowler, die Aussage von trq212, dem Produktverantwortlichen von Anthropic, sowie die jüngsten Äußerungen von Andrej Karpathy weisen alle in dieselbe Richtung: Das nächste Schlachtfeld für KI ist Harness Engineering.

Was ist ein Agent Harness

Ein KI-Agent lässt sich in zwei Teile zerlegen: das Modell (Model) und das Harness. Das Modell ist das Gehirn und dafür zuständig, Sprache zu verstehen und zu schließen. Das Harness ist alles außerhalb des Modells — Tool-Aufrufe, Speichermanagement, Kontextmontage, Zustands-Persistenz, Fehlerbehandlung, Sicherheitsleitplanken, Task-Planung und Lebenszyklusverwaltung.

Mit einer anschaulichen Analogie: LLM ist ein Pferd, und harness ist das Zaumzeug — Zaum- und Sattelzeug sowie die Verbindung zum Wagen. Ohne das Zaumzeug kann selbst ein noch so starkes Pferd den Wagen nicht ziehen. Genauso ist es bei einem KI-Agent: Selbst wenn das Modell noch so schlau ist, kann es ohne ein gutes Harness keine realen Aufgaben zuverlässig erledigen.

Akshay Pachaar brachte in einem vielbeachteten Tweet noch eine andere Analogie: „Ein nacktes LLM ist wie eine CPU ohne Betriebssystem — es kann rechnen, aber alleine macht es nichts Nützliches.“ Harness ist dieses Betriebssystem.

Warum Harness Engineering 2026 plötzlich so wichtig wird

Dafür gibt es drei Gründe:

Erstens: Die Modellfähigkeiten nähern sich an. GPT-5.4, Claude Opus 4.6 und Gemini 3.1 Pro haben in den meisten Benchmarks die Unterschiede inzwischen auf einstellig niedrige Prozentpunkte eingedampft. Wenn das Modell nicht mehr die Engstelle ist, verlagert sich die produktspezifische Differenzierung zwangsläufig in die Harness-Schicht.

Zweitens: Der Agent wechselt von Experimenten in die Produktion. 2025 waren die meisten Agents Demos; 2026 müssen Agents in Unternehmensumgebungen laufen — sie müssen Unterbrechungen wiederherstellen, lange laufen, mehrstufige Aufgaben erledigen und Zugriffssteuerung handhaben. All das ist Arbeit des Harness.

Drittens: LLMs sind von Natur aus zustandslos. Jede neue session beginnt bei Null, das Modell erinnert sich nicht an das vorherige Gespräch. Das Harness sorgt dafür, dass Gedächtnis, Kontext und Arbeitsfortschritt persistiert werden, damit der Agent dauerhaft wie ein echter „Kollege“ arbeiten kann.

Die Kernkomponenten eines Harness

Ein vollständiges Agent-Harness umfasst typischerweise mehrere Ebenen:

Komponente Funktion Analogie Orchestration Loop Steuert die „Denken → Handeln → Beobachten“-Schleife des Agents Hauptschleife eines Betriebssystems Tool Management Verwaltet die Tools, die der Agent verwenden kann (Datei-Lesen/Schreiben, API-Aufrufe, Browser-Operationen usw.) Treiber Context Engineering Entscheidet, welche Informationen jedes Mal an das Modell gesendet werden, und welche Informationen gekürzt werden Speichermanagement Memory Management State Persistence Speichert den Arbeitsfortschritt, den Verlauf des Gesprächs und Zwischenergebnisse in der Festplatte Harddisk Error Recovery Erkennt fehlgeschlagene Läufe und führt automatisch einen erneuten Versuch oder ein Zurücksetzen durch Fehlerbehandlung Exception Handling Beschränkt den Aktionsradius des Agents, um gefährliche Operationen zu verhindern Sicherheitsleitplanken Firewall Verification Loops Ermöglicht dem Agenten eine Selbstprüfung der Ausgabequalität, Unit Tests zu erstellen Unittests

Dreischichtiges Engineering: Prompt, Context und Harness

Rund um die Engineering-Praxis mit LLMs lassen sich drei konzentrische Schichten unterscheiden:

Die innerste Schicht ist Prompt Engineering — das Design der Instruktionen, die an das Modell gesendet werden, und damit die Frage, „wie“ das Modell denkt. Das war 2023 die gängige Hauptkompetenz.

Die mittlere Schicht ist Context Engineering — das Management dessen, „was“ das Modell sieht. Es entscheidet, welche Informationen zu welchem Zeitpunkt in das context window gesendet werden und was herausgeschnitten werden sollte. Mit dem Ausbau des context window auf Millionen Tokens tritt die Bedeutung dieser Schicht ab 2025 deutlich hervor.

Die äußerste Schicht ist Harness Engineering — sie umfasst die beiden vorherigen, plus die gesamte Anwendungsinfrastruktur: Tool-Orchestrierung, Zustands-Persistenz, Fehlerwiederherstellung, Verifikationszyklen, Sicherheitsmechanismen und Lebenszyklusverwaltung. Das ist das zentrale Schlachtfeld von 2026.

Beispiel: Warum dasselbe Modell in unterschiedlichen Produkten so völlig anders abschneidet

Claude Opus 4.6 kann in Claude Code innerhalb einer Stunde das gesamte Code-Repository umstrukturieren. Aber wenn man dasselbe Modell per API an ein schlampiges Harness anschließt, kann es sein, dass es nicht einmal Bugfixes über Dateien hinweg sauber hinbekommt. Der Unterschied liegt nicht im Modell, sondern im Harness.

Was macht das Harness von Claude Code?

Automatisches Durchsuchen des gesamten Code-Repository nach relevanten Dateien, statt den Nutzer zu zwingen, alles einzeln anzugeben

Lesen des Dateiinhalts vor der Änderung, Ausführen von Tests zur Verifikation nach der Änderung

Wenn Tests fehlschlagen, automatische Analyse des Fehlers und erneuter Versuch

Über MCP Anbindung externer Tools (GitHub, Datenbanken usw.)

Speichersystem speichert über sessions hinweg Nutzerpräferenzen und Projektkontext

Advisor-Strategie lässt Modelle mit unterschiedlichen Fähigkeiten in Aufgaben aufgeteilt kooperieren

Das alles ist Verdienst des Harness.

Feedforward und Feedback: Die zwei Steuerungsmodi des Harness

Laut der Analyse im technischen Blog von Martin Fowler lassen sich die Steuerungsmechanismen eines Harness in zwei Kategorien einteilen:

Feedforward (Vorwärtssteuerung) — legt Regeln fest, bevor der Agent handelt, um unerwünschte Ausgaben zu verhindern. Zum Beispiel: Verhaltensregeln im system prompt, Tool-Whitelist, Dateizugriffsrechte.

Feedback (Rückkopplungssteuerung) — prüft die Ergebnisse, nachdem der Agent gehandelt hat, und erlaubt Selbstkorrekturen. Zum Beispiel: Tests ausführen, um zu bestätigen, dass der Code korrekt ist; Ausgaben mit dem erwarteten Format abgleichen; Halluzinationen erkennen und neu generieren.

Ein gutes Harness nutzt gleichzeitig beide Arten von Kontrolle: Es schränkt den Handlungsspielraum ein und bewahrt zugleich Flexibilität.

Produktisierung von Harness Engineering: Wie macht es Anthropic

Die von Anthropic im April 2026 intensiv veröffentlichten Produkt-Updates sind nahezu ausschließlich Produktisierungen von harness engineering:

Managed Agents — macht die Basisinfrastruktur des Harness (Sandbox, Scheduling, State-Management) zu einem gehosteten Service; Entwickler müssen nur das Verhalten des Agents definieren

Advisor-Strategie — ein Modell-Mix-Ansatz auf Harness-Ebene, der automatisch entscheidet, wann es sinnvoll ist, ein stärkeres Modell zu konsultieren

Cowork Enterprise Edition — bietet Nicht-Technikern ein vollständiges Harness (Zugriffssteuerung, Ausgabenmanagement, Nutzungsanalysen), damit sie die zugrunde liegende Technik nicht verstehen müssen

Die Formulierung von trq212, dem Produktverantwortlichen von Anthropic, ist am treffendsten: „Prompting ist die Fähigkeit, mit einem Agent zu sprechen, aber es wird durch das Harness vermittelt. Mein Kernziel ist es, die Bandbreite zwischen Mensch und Agent zu vergrößern.“

Bedeutung für Entwickler: Neue Berufe und neue Fähigkeiten

Harness Engineering wird zu einem eigenständigen Ingenieursbereich. Die dafür benötigte Kompetenzkombination unterscheidet sich von klassischer Backend- oder ML-Engineering:

Die Grenzen der Fähigkeiten von LLMs und ihre Failure-Modes verstehen

Zuverlässige Tool-Aufrufe und Fehlerbehandlungsabläufe entwerfen

context window managen — wann welche Informationen eingespeist werden

Observability aufbauen — die Entscheidungswege und Tool-Nutzung des Agents nachverfolgen

Sicherheitsdesign — den Handlungsspielraum des Agents begrenzen, ohne seine Fähigkeiten abzuwürgen

Für alle, die gerade Vibe Coding lernen oder KI-Tools zur Entwicklung nutzen, hilft es, das Konzept von Harness zu verstehen, um effektiver mit KI-Agenten zusammenzuarbeiten — denn du wirst wissen, ob das Problem am Modell liegt oder am Harness und wie du die Ergebnisse verbesserst, indem du Harness-Einstellungen anpasst (statt ständig den prompt zu ändern).

Fazit: Der Wettstreit um die Infrastruktur des nächsten Jahrzehnts

Der Wettbewerb bei KI-Modellen wird nicht aufhören, aber die Grenzerträge nehmen ab. Der Wettbewerb auf der Harness-Ebene hat gerade erst begonnen: Wer das zuverlässigste, flexibelste und sicherste Harness aufbauen kann, der kann die gleichen Modellfähigkeiten in ein besseres Produkterlebnis umwandeln.

Das erklärt auch, warum Anthropic, OpenAI und Google von „Modellfirmen“ zu „Plattformfirmen“ wechseln — sie verkaufen nicht mehr nur Modell-APIs, sondern eine vollständige Harness-Infrastruktur. Für Entwickler ist es kein optionales Thema, harness engineering zu verstehen, sondern eine Kernkompetenz, um Produkte im KI-Zeitalter zu bauen.

Dieser Artikel: Was ist Harness Engineering? Das nächste Schlachtfeld für KI ist nicht das Modell, sondern die Architektursschicht außerhalb des Modells Erstmals erschienen in: 鏈新聞 ABMedia.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Ethereum-Mitbegründer Lubin: KI wird der entscheidende Wendepunkt für Krypto sein, aber das Monopol großer Tech-Konzerne birgt ein systemisches Risiko

Der Ethereum-Mitbegründer Joseph Lubin betonte das transformative Potenzial von KI für die Kryptowährungsbranche und warnte zugleich vor den Risiken der Zentralisierung unter Technologieriesen. Er sieht KI-gesteuerte autonome Transaktionen auf der Blockchain vor und hebt die Annäherung des traditionellen Finanzwesens an DeFi hervor.

GateNews3Std her

Luffa arbeitet mit einer Plattform für digitale Assets zusammen, um KI-gestütztes Krypto-Trading zu integrieren

Luffa, ein Web3-Social-Ökosystem, ist eine Partnerschaft mit einer Plattform für den digitalen Asset-Handel eingegangen, um KI-gestützte Handelsfunktionen zu integrieren und so eine sichere Kommunikation sowie den Handel in einer einheitlichen Oberfläche zu verbessern, während Dezentralisierung und Risikominderung beibehalten werden.

GateNews10Std her

Der KI-Vending-Agent „Valerie“ betreibt mit OpenClaw die San-Francisco-Vending-Maschine

Der KI-Agent „Valerie“ betreibt jetzt eine Verkaufsautomat in San Francisco auf OpenClaw und testet, wie weit Menschen Code mit Preisgestaltung, Marketing und echtem Bargeld vertrauen. Zusammenfassung Der KI-Agent „Valerie“ betreibt in San Francisco mithilfe des OpenClaw-Frameworks einen physischen Verkaufsautomaten, legt Preise fest, nennt

Cryptonews04-17 15:06

Mastercard ermöglicht KI-Agenten-Zahlungen durch Partnerschaft mit Lobstercash und Crossmint

Mastercard hat sich mit Lobstercash und Crossmint zusammengetan, um KI-Agenten-Zahlungen über bestehende Kredit- und Debitkarten zu ermöglichen, indem sie in die aktuellen Finanzsysteme integriert werden, ohne dass neue Wallets erforderlich sind. Diese Partnerschaft erlaubt es KI, Transaktionen zu automatisieren und so Effizienz und Sicherheit zu verbessern.

GateNews04-17 10:11

Das China-Team EvoMap ist wütend wegen angeblicher Urheberrechtsverletzung: Der Hermes-Agent ist viral explodiert – im Self-Evolving-System gibt es eine hohe Ähnlichkeit

Das chinesische Team EvoMap wirft Nous Research vor, dass der Hermes Agent deren Evolver/GEP-Architektur kopiert habe. EvoMap ist der Ansicht, dass es zwischen beiden in mehreren wichtigen Modulen eine hohe Ähnlichkeit gebe. EvoMap führt aus, dass das Design von Hermes seine zuvor veröffentlichten Inhalte weder zitiert noch würdigt. Die Kontroverse hat eine breite Aufmerksamkeit in der Community ausgelöst; einige chinesische Internetnutzer unterstützen EvoMap und kritisieren das Kopierverhalten von Hermes. Obwohl das Forschungsteam von Nous die Anschuldigungen bislang nicht einzeln widerlegt hat, hat sich das Ereignis bereits schnell in der KI-öffentlichen Meinung verbreitet.

ChainNewsAbmedia04-17 09:54

OpenAI aktualisiert Codex zu einem KI-Agenten, der den Desktop steuert und Entwicklungs-Workflows automatisiert

OpenAIs aktualisiertes Codex entwickelt sich von einem Coding-Assistenten zu einem autonomen Agenten für Desktop-Umgebungen: Er kann Anwendungen verwalten, Workflows automatisieren und sich mit über 100 Apps integrieren. Dieser Wandel verbessert die Kontinuität von Aufgaben und die Automatisierung von Workflows und spiegelt eine wettbewerbsintensive Landschaft bei KI-Tools zum Programmieren wider.

GateNews04-17 09:21
Kommentieren
0/400
Keine Kommentare