Monkey-Audit

Standards & Prozesse  2026  conceptMonkey
Agent Experience Tooling  Status: MVP 
Monkey-Audit

SCOPE

Problemstellung

  • Websites optimiert für Menschen, noisy für KI-Agenten
  • SEO-Metriken versagen in der Welt von RAG und Agentic Reasoning
  • Fehlender maschinenlesbarer Kontext führt zu Problemen
  • Standardmetrik für Agent Experience (AX) fehlt
  • Systematik bei der Informationsarchitektur fehlt in diesem Bereich

Lösungsansatz

  • AX Score Metrik: Metadata (25%) + Signal (30%) + Struktur (25%) + Agent Sim (20%)
  • CLI-Tool für systematisches AX-Auditing aus Agent-Perspektive
  • Lokale LLM-Integration (Ollama) für Agenten-Simulationen
  • Terminal UI mit visuellen Score-Gauges und Exporten (JSON, Markdown, HTML)
  • Ergebnis: Monkey-Audit CLI

Im Einsatz

  • Node.js
  • TypeScript
  • Ollama
  • Jina Reader API
  • @clack/prompts

Ergebnisse

  • v0.5 Prototyp in < 3h Vibe Coding Session entwickelt
  • AX Score 84/100 für conceptmonkey.de gemessen
  • 76% Noise Tax durch Framework-Boilerplate identifiziert
  • Metadaten-Strategie (inkl. llms.txt) validiert
  • Diagnostische Basis für Systemische Orchestrierung geschaffen

Monkey-Audit: Diagnostic Engine für die Agentic Era

Wir befinden uns in einem Paradigmenwechsel. Die “Age of Discovery” verlagert sich von klassischen blauen Links hin zu Agentic Reasoning. Während Websites bisher für menschliche Augen und Legacy-Crawler optimiert wurden, bleiben sie für KI-Agenten wie Perplexity, SearchGPT oder Developer-Tools (Cursor/Windsurf) oft “opak”.

Mit Monkey-Audit haben wir im Monkey Lab ein Werkzeug geschaffen, das diesen Semantic Gap messbar macht.

Das Problem: Der blinde Fleck der Webentwicklung

Herkömmliche SEO-Metriken versagen in der Welt von RAG (Retrieval-Augmented Generation). Ein hoher PageSpeed-Score sagt nichts darüber aus, ob ein LLM den Kernwert eines Unternehmens zwischen Tausenden von Zeilen Boilerplate-Code findet. UI-Bloat und fehlender maschinenlesbarer Kontext führen zu Halluzinationen oder – noch schlimmer – zur völligen Unsichtbarkeit in agentischen Workflows.

Die Lösung: AX (Agent Experience) als Standard

Monkey-Audit ist ein Node.js-basiertes CLI-Tool, das eine Website aus der Sicht eines Agenten auditiert. Es berechnet den AX Score (Agent Experience) – eine gewichtete Metrik aus:

  • Metadata (25%): Vorhandensein von llms.txt, Schema.org und präzisen Meta-Signalen.
  • Signal (30%): Das Verhältnis von echtem Content zu technischem Rauschen (Noise-to-Signal Ratio).
  • Structure (25%): Die semantische Hierarchie für optimales Chunking.
  • Agent Sim (20%): Eine Live-Simulation via lokaler LLMs (Ollama), die testet, ob die KI das Value Prop und die CTAs tatsächlich extrahieren kann.
Monkey-Audit CLI Tool

Monkey-Audit CLI Tool

Tech Stack & Vibe Coding

Das Tool wurde in einer intensiven Vibe Coding Session innerhalb von weniger als drei Stunden von der Idee zum funktionalen v0.5-Prototyp entwickelt.

  • Runtime: Node.js / TypeScript 5.7
  • Scraping: Jina Reader API Integration für sauberes Markdown-Parsing.
  • Intelligence: Ollama Integration (Llama 3.2) für lokale, souveräne Agent-Simulationen.
  • UI: Brutalist Terminal UI mit @clack/prompts und Manga-inspirierten Score-Gauges.
Monkey-Audit scoring

Monkey-Audit scoring

Das Ergebnis

Natürlich habe ich Monkey-Audit direkt auf conceptmonkey.de losgelassen. Das Ergebnis: Ein AX Score von 84/100 (abhängig von den untersuchten Seiten, im Schnitt > 80). Während unsere Metadaten-Strategie und sonstige Maßnahmen bislang Bestnoten erzielt, offenbarte das Tool starke Störgeräusche, also ein “Noise Tax” von ~ 76% durch CSS und JS, durch die sich auch ein KI-Modell graben muss, bis die wesentlichen Informationen gefunden werden.

Nutzen im Monkeystack

Monkey-Audit ist eine gute Ergänzung im souveränen Monkeystack – die CLI ist eine diagnostische Grundlage für die Systemische Orchestrierung digitaler Assets und hilft bei der Entwicklung von digitalen Inhalten. Die Systematik im Ansatz hat die analytischen Vorgänge extrem geboostet. Der persönliche Bias, der bei Gestaltungsthemen immer mitschwingt, wird durch die Systematik neutralisiert. Insofern ist Monkey-Audit ein Instrument, das direkt nützlich ist und Schwachstellen aufdeckt.

Funktionalität

Core Audit

  • 🐒 Wizard Mode: Geführter interaktiver Modus mit Session-State (start command)
  • AX Score: Single 0-100 Metrik für AI-Readiness der Website
  • Detailed Breakdown: Metadata, Signal, Structure, Agent Sim Subscores
  • ☠️ Critical Failure: Wenn robots.txt AI-Bots blockt → Score sinkt auf 15%

Content Analysis

  • Noise Analysis: Analysiert kommunikative Störgeräusche (Scripts, Styles, SVGs)
  • Heading Tree: Visualisierung der Content-Struktur
  • Q&A Detection: Findet FAQ-Patterns und fehlende FAQPage Schema
  • Scannability Score: Listen, Tabellen, Paragraph-Längen-Analyse
  • Indexability Check: Canonical Tags, noindex/nofollow Detection
  • Page Type Detection: Auto-Detect für Blog, Service, Portfolio, etc.
  • Schema Suggestions: Ready-to-use JSON-LD Code für Page Types

Semantic Analysis

  • Token Tax: Cost-per-Page Metrik zeigt “Noise Tax” in Dollar
  • Metadata Mitigation: Wie gut llms.txt + Schema den Noise offsetten
  • Taxonomy Analysis: Kategorie-definierende Terms, Narrative Coherence
  • Entity Trust: Brand-Konsistenz, Contact-Info Qualität
  • Semantic Utility: Bewertet, ob extrahierte Daten für AI-Recommendations actionable sind

AI Testing

  • Agent Simulation: Testet AI-Verständnis mit lokalem LLM (Ollama)
  • Live Agent Sim: Real-time LLM-Queries mit --live Flag

Commands & Output

  • ⚡ Quick Score: Schneller Score-Check ohne Prompts (score command)
  • 📊 Full Report: Kombiniert alle Tests in einem Report (report command)
  • 🏥 HTML Executive Report: Visuelles Dashboard als HTML-File (html command)
  • ⚔️ Competitor Shadowing: Side-by-side Vergleich (vs command)
  • 🔧 llms.txt Generator: Auto-generiert llms.txt (fix command)
  • 📖 Explain: Erklärt AX-Score Methodik (explain command)
  • Sitemap Deep Audit: Multi-Page Scan aus Sitemap (--deep / --pages N)
  • JSON Export: Machine-readable Reports inkl. raw_markdown für RAG (--json --raw)

Ausblick

Mit Monkey-Audit bin ich noch nicht fertig ;) Für die lokale Entwicklung steht noch eine direkt-Integration in den Coding-Stack an, z.B. via MCP. Auf diese Weise kann schon während der Entwicklung von Inhalten auf deren AI-Readiness und die Informationsarchitektur geachtet werden. Evtl. wird das Projekt auf github unter MIT veröffentlicht, aber das ist aktuell noch nicht final entschieden.

Weitere Screenshots

Monkey-Audit: Lokale Agenten Simulation

Monkey-Audit: Lokale Agenten Simulation

Monkey-Audit: Semantic Gap Analysis

Monkey-Audit: Semantic Gap Analysis

Monkey-Audit: Export Options

Monkey-Audit: Export Options