OpenAI Codex Workflow Cheatsheet

CLI · API · Agents · Safety · Policies · Tasks · Integrations · 2026 Edition

1

Getting Started

npm install -g @openai/codex
export OPENAI_API_KEY=sk-...
codex
Minimale Config
model: o4-mini
provider: openai
approvalMode: suggest
2

Core Concepts

Was ist Codex?
  • CLI-KI-Agent für Code
  • Liest, schreibt, führt aus
  • Multi-Step-Reasoning
  • Tool-Use integriert
Unterschied zu ChatGPT
  • Zugriff auf Filesystem
  • Shell-Ausführung
  • Kein Browser benötigt
  • Offline-fähig (lokal)

Unterstützte Modelle
o4-mini o3 gpt-4.1 gpt-4.1-mini
3

Approval Modes

suggestJede Aktion muss manuell bestätigt werden ⚡ Standard
auto-editDateien ändern OK, Shell-Befehle manuell
full-autoAlles automatisch – nur in Sandboxes!

CLI-Flag
codex --approval-mode auto-edit "Refactor auth.py"
codex --approval-mode full-auto --sandbox
4

Sandbox & Safety

Docker Sandbox
docker run --rm -it \
  -v $(pwd):/workspace \
  openai/codex:latest
Filesystem isoliert Netz abgeschnitten
5

CLI — Wichtige Befehle & Flags

Interaktiver Modus
codex
codex --model o3
codex --quiet "Erkläre app.py"
Direktauftrag
codex "Füge Tests für utils.js hinzu"
codex "Baue eine REST-API in Python"
codex "Migriere auf TypeScript"
Kontext übergeben
codex --context @README.md "..."
codex --context @src/ "Refactor"
cat error.log | codex "Analysiere"
Nützliche Flags
--modelModell wählen
--provideropenai / azure / ollama
--quiet / -qKein Fortschritt-Output
--jsonOutput als JSON
--dangerously-auto-approve-everything⚠️ alle Aktionen auto
6

AGENTS.md (Memory)

Typischer Inhalt
# Project: MyApp
Stack: FastAPI + React + Postgres

## Commands
npm run dev | pytest | ruff check

## Conventions
- Snake_case für Python
- PEP8 + Black formatter
- Tests in /tests/**
Hierarchie
7

Provider & Lokale Modelle

config.yaml
provider: openai      # Standard
provider: azure
provider: ollama      # Lokal!
provider: gemini
baseURL: http://localhost:11434/v1
model: qwen2.5-coder:32b
Ollama Setup
ollama pull qwen2.5-coder:32b
codex --provider ollama \
      --model qwen2.5-coder:32b
Kein API-Key nötig Daten lokal
8

Tool Use — Was Codex kann

Filesystem
Lesen, Schreiben, Erstellen, Löschen von Dateien
Shell
Beliebige Befehle: Tests, Builds, Git, npm…
Code Analysis
AST-Parsing, Linting, statische Analyse
Browser (Beta)
Web-Scraping, Playwright, Screenshot
Aktion ablehnen
# Im suggest-Modus: einfach "n" drücken
# Codex erklärt und schlägt Alternative vor
9

Daily Workflow Pattern

01cd mein-projekt && codex — Codex startet, liest AGENTS.md
02Aufgabe beschreiben: "Erstelle einen /health-Endpunkt mit pytest-Test"
03Aktionen reviewen → y bestätigen / n ablehnen / e editieren
04Codex führt Tests aus, fixiert Fehler automatisch
05git diff reviewen → commit & push
06Nächste Feature-Iteration starten — neue Session pro Feature
10

Codex API (Responses API)

from openai import OpenAI
client = OpenAI()

resp = client.responses.create(
  model="codex-mini-latest",
  input="Erkläre Quicksort",
  tools=[{"type": "code_interpreter",
          "container": {"type": "auto"}}]
)
print(resp.output_text)
Codex-Modelle (API)
codex-mini-latestSchnell, günstig, Coding
o3 / o4-miniReasoning + Code
11

Best Practices

Commit früh & oft Review vor Push
12

Quick Reference

Tastenkürzel (interaktiv)
yAktion bestätigen
nAblehnen, Alternative
aAlle verbleibenden OK
eAktion editieren
Ctrl+CSession abbrechen
?Hilfe anzeigen
Typische Tasks
codex "Schreibe Tests"pytest / jest auto-generieren
codex "Erkläre @src/"Codebase-Analyse
codex "Fix Lint-Fehler"Auto-Format + Fix
codex "Migriere auf TS"JS → TypeScript
codex "SQL optimieren"Query-Analyse
codex "Dockerfile"Container-Setup
13

Policies & Limits

Rate Limits (API)
Tier 160 req/min, 40k TPM
Tier 33.500 req/min, 2M TPM
SOC2 konform EU Dataresidency Beta
14

Integrationen

CI/CD
- name: Codex Code Review
  run: |
    codex --quiet --json \
      "Review PR-Diff" \
      --context @${{ github.event.pull_request.diff_url }}
n8n / Automatisierung
VS Code
DATA ANALYST EXTENSION Redshift · SQL · Codex CLI + Codex App · Mid-Level
A1

AGENTS.md — Redshift Analyst Template

Basis-Template (~/.codex/AGENTS.md oder Projekt-Root)
# Analyst: DKB Data Platform
Stack: AWS Redshift (RA3), SQL, Python 3.12

## Konventionen
- Schema-Präfix IMMER angeben: cdp.<tabelle>
- Keine SELECT * in finalen Queries
- CTEs statt Subqueries (Lesbarkeit)
- Kommentare auf Deutsch
- EXPLAIN ANALYZE vor finaler Ausführung

## Wichtige Schemata
- cdp.raw_*   → Rohdaten (read-only)
- cdp.stg_*   → Staging / transformiert
- cdp.dm_*    → Data Marts (Reporting)

## Commands
\analyze   → EXPLAIN ANALYZE letztes Statement
\ddl       → DDL einer Tabelle ausgeben
Redshift-spezifische Gotchas
  • Kein FULL OUTER JOIN auf dist-key-Spalten
  • DISTKEY/SORTKEY in DDL angeben lassen
  • LISTAGG statt GROUP_CONCAT
  • DATEADD / DATEDIFF statt Intervall-Syntax
  • NVL() = COALESCE() — beide funktionieren
  • WLM-Queues beachten bei langen Queries
Kontext immer mitgeben
codex --context @schema_cdp.sql \
      "Analysiere die Ladezeiten"
DDL als @context EXPLAIN-Output nutzen
A2

Prompt-Patterns für SQL-Analysten

🔍 Explorative Analyse
Beschreibe die Tabelle cdp.stg_transactions:
Spalten, Datentypen, Nulls, Wertebereich
der letzten 30 Tage. Nutze INFORMATION_SCHEMA.
⚡ Query optimieren
Diese Query läuft 45 Sekunden auf Redshift RA3.
Analysiere den EXPLAIN-Plan und schlage
Optimierungen vor (DISTKEY, SORTKEY, CTE):
[Query einfügen]
🔄 Transformation bauen
Erstelle eine Staging-View cdp.stg_payments
aus cdp.raw_payment_events. Regeln:
- Deduplizieren via ROW_NUMBER()
- Beträge in EUR normalisieren (Spalte currency)
- Timestamps nach Europe/Berlin konvertieren
🐛 Fehler debuggen
Diese Redshift-Fehlermeldung:
"[Error] Spectrum scan: S3 object not found"
Erkläre die Ursache und gib 3 Lösungsansätze.
📊 Kennzahl definieren
Schreibe eine SQL-Query für KPI "Aktivierungsrate":
Anteil Kunden mit mind. 1 Transaktion
in den ersten 30 Tagen nach Kontoanlage.
Quelle: cdp.dm_customers, cdp.dm_transactions.
✅ Data Quality Check
Erstelle DQ-Checks für cdp.stg_accounts:
- Primärschlüssel eindeutig (account_id)
- Keine Nulls in Pflichtfeldern
- Referenzielle Integrität zu cdp.dm_customers
Ausgabe als ausführbarer SQL-Report.
A3

Typische Analyst-Workflows mit Codex

Workflow 1 — Neue Datenpipeline verstehen
1DDL-Skripte als Kontext laden: --context @ddl/
2"Erkläre die Abhängigkeiten zwischen den Tabellen als Mermaid-Diagramm"
3"Welche Spalten sind Join-Keys zwischen stg_* und dm_*?"
4Output in AGENTS.md dokumentieren lassen
Workflow 2 — Ad-hoc Query → Wiederverwendbarer CTE
1Schnell-Query formulieren (auch unpräzise)
2"Refaktoriere zu lesbaren CTEs mit Kommentaren"
3"Füge EXPLAIN ANALYZE hinzu und erkläre den Plan"
4Als dm_<name>_v.sql speichern lassen
Workflow 3 — Data Quality Incident
1Fehlermeldung / Anomalie in Codex einfügen
2"Root-Cause-Analyse: Welche Upstream-Tabellen betroffen?"
3"Schreibe einen DQ-Check der das künftig erkennt"
4Fix reviewen → commit → ins DQ-Framework integrieren
Codex App vs. CLI — wann was?
Codex App Exploration, Erklärungen, schnelle Queries, kein lokales Repo
Codex CLI Dateien schreiben, Repos bearbeiten, DDL-Skripte, Git-Workflow
Beide EXPLAIN-Analyse, DQ-Checks, KPI-Definition, Doku
Kein direkter DB-Zugriff via Codex! SQL-Files als Kontext nutzen