Zuletzt aktualisiert am 05.12.2025 7 Minuten Lesezeit

Prompt

Ein Prompt ist die Eingabe oder Anweisung, die du an ein Large Language Model (LLM) wie ChatGPT, Claude oder Gemini sendest, um eine bestimmte Antwort zu erhalten. Der Begriff stammt vom englischen Wort "prompt" (Aufforderung, Hinweis) und beschreibt die Art und Weise, wie Menschen mit KI-Systemen kommunizieren.

Im Kontext moderner KI umfasst ein Prompt nicht nur die sichtbare Nutzerfrage, sondern kann auch versteckte Systemanweisungen, Beispiele und Kontextinformationen enthalten. Die Qualität des Prompts beeinflusst direkt die Qualität der KI-Antwort - weshalb Prompt Engineering zu einer wichtigen Fähigkeit für IT-Fachkräfte geworden ist.

Arten von Prompts

In modernen KI-Anwendungen werden verschiedene Prompt-Typen unterschieden, die jeweils unterschiedliche Funktionen erfüllen. Das Verständnis dieser Typen ist grundlegend für die effektive Arbeit mit LLMs.

System-Prompt

Der System-Prompt ist eine versteckte Anweisung, die das grundlegende Verhalten des KI-Modells für eine gesamte Konversation festlegt. Er wird von Entwicklern definiert und ist für Endnutzer normalerweise nicht sichtbar. System-Prompts definieren die Rolle der KI ("Du bist ein erfahrener Python-Entwickler"), legen Verhaltensregeln fest und bestimmen den Kommunikationsstil.

# Beispiel eines System-Prompts
Du bist ein technischer Support-Assistent für Netzwerkfragen.
Antworte immer auf Deutsch und in einem professionellen Ton.
Wenn du dir bei einer Antwort nicht sicher bist, weise darauf hin.
Vermeide es, personenbezogene Daten zu erfragen.

User-Prompt

Der User-Prompt ist die direkte Eingabe des Nutzers - also die Frage, Aufgabe oder Anfrage, die du an die KI stellst. Dies ist der sichtbare Teil der Interaktion. Ein guter User-Prompt ist klar formuliert, enthält relevanten Kontext und definiert das gewünschte Ausgabeformat.

# Beispiele für User-Prompts

# Einfacher Prompt
"Was ist der Unterschied zwischen TCP und UDP?"

# Detaillierter Prompt mit Kontext
"Ich entwickle eine Echtzeit-Chat-Anwendung in Python.
Welches Protokoll (TCP oder UDP) eignet sich besser 
und warum? Bitte mit Vor- und Nachteilen."

Assistant-Prompt

Der Assistant-Prompt enthält die vorherigen Antworten der KI in einer Konversation. Bei mehrstufigen Gesprächen wird der gesamte Chatverlauf (System + User + Assistant) als Kontext an das Modell gesendet. Dadurch kann die KI auf frühere Aussagen Bezug nehmen und kohärente Gespräche führen.

Prompt-Engineering-Techniken

Prompt Engineering bezeichnet die systematische Gestaltung von Prompts, um optimale Ergebnisse von KI-Modellen zu erhalten. Es ist eine Kombination aus Kunst und Wissenschaft, die für Fachinformatiker für Anwendungsentwicklung zunehmend relevant wird.

Zero-Shot Prompting

Beim Zero-Shot Prompting gibst du dem Modell eine Aufgabe ohne Beispiele. Du verlässt dich darauf, dass das Modell durch sein Training bereits weiß, wie es die Aufgabe lösen soll. Diese Technik funktioniert gut bei Standardaufgaben wie Übersetzungen oder Zusammenfassungen.

# Zero-Shot Beispiel
Übersetze folgenden Text ins Englische:
"Die Netzwerkkonfiguration wurde erfolgreich angepasst."

Few-Shot Prompting

Beim Few-Shot Prompting gibst du dem Modell einige Beispiele, die das gewünschte Eingabe-Ausgabe-Muster demonstrieren. Diese Technik ist besonders nützlich, wenn du ein spezifisches Format oder einen bestimmten Stil benötigst, den das Modell nicht automatisch produziert.

# Few-Shot Beispiel für Fehlercode-Klassifikation
Klassifiziere den Fehlercode nach Schweregrad:

Beispiel 1:
Eingabe: "ERROR 404: Page not found"
Ausgabe: { "code": 404, "severity": "niedrig", "typ": "Client" }

Beispiel 2:
Eingabe: "ERROR 500: Internal Server Error"
Ausgabe: { "code": 500, "severity": "hoch", "typ": "Server" }

Nun klassifiziere:
Eingabe: "ERROR 503: Service Unavailable"

Chain-of-Thought Prompting

Chain-of-Thought (CoT) Prompting fordert das Modell auf, seinen Denkprozess Schritt für Schritt darzulegen. Diese Technik verbessert die Genauigkeit bei komplexen Aufgaben wie mathematischen Problemen, logischen Schlussfolgerungen oder mehrstufigen Analysen erheblich.

# Chain-of-Thought Beispiel
Ein Server hat 64 GB RAM. Das Betriebssystem benötigt 4 GB,
die Datenbank 16 GB und jeder der 3 Anwendungscontainer 8 GB.
Wie viel RAM bleibt für den Cache übrig?

Denke Schritt für Schritt:
1. Erst das OS abziehen
2. Dann die Datenbank
3. Dann alle Container zusammen
4. Dann das Ergebnis berechnen

Best Practices für effektive Prompts

Die OpenAI Prompt Engineering Guidelines und andere Industriestandards haben bewährte Praktiken für das Schreiben effektiver Prompts etabliert.

Klarheit und Spezifität

Je spezifischer dein Prompt, desto besser die Antwort. Statt "Schreib mir etwas über Datenbanken" solltest du formulieren: "Erkläre die Unterschiede zwischen relationalen und NoSQL-Datenbanken für einen IT-Azubi im zweiten Lehrjahr. Fokussiere auf praktische Anwendungsfälle."

  • Kontext angeben: Wer bist du? Was ist das Ziel?
  • Format definieren: Soll die Ausgabe eine Liste, ein Code-Block oder Fließtext sein?
  • Umfang begrenzen: Wie lang soll die Antwort sein?
  • Beispiele liefern: Was ist ein gutes vs. schlechtes Ergebnis?

Strukturierte Anweisungen

Komplexe Aufgaben solltest du in klare Schritte unterteilen. Verwende Trennzeichen wie ### oder ---, um verschiedene Abschnitte zu kennzeichnen. Bei API-Nutzung helfen strukturierte Formate wie JSON oder XML, um Eingaben und gewünschte Ausgaben zu definieren.

# Strukturierter Prompt mit Trennzeichen

### ROLLE ###
Du bist ein erfahrener Code-Reviewer.

### AUFGABE ###
Analysiere den folgenden Python-Code auf:
1. Sicherheitslücken
2. Performance-Probleme
3. Code-Stil (PEP 8)

### CODE ###
def get_user(id):
    query = "SELECT * FROM users WHERE id=" + id
    return db.execute(query)

### AUSGABEFORMAT ###
Gib deine Analyse als nummerierte Liste mit Schweregrad (hoch/mittel/niedrig).

Prompts in der Softwareentwicklung

Für Entwickler haben Prompts eine besondere Bedeutung, da sie LLMs als Programmierassistenten nutzen können. Tools wie GitHub Copilot, Cursor oder Claude Code verwenden Prompts im Hintergrund, um Codevorschläge zu generieren.

Code-Generierung

Bei der Code-Generierung ist es wichtig, die Programmiersprache, das Framework und die gewünschte Funktionalität klar zu benennen. Gib auch Randbedingungen wie Fehlerbehandlung oder Performance-Anforderungen an.

# Guter Prompt für Code-Generierung
Schreibe eine Python-Funktion, die:
- Eine Liste von IP-Adressen als Input nimmt
- Prüft, ob jede IP im IPv4-Format gültig ist
- Ungültige IPs in einer separaten Liste zurückgibt
- Type Hints verwendet
- Docstring nach Google-Style enthält

Debugging und Code-Review

LLMs können bei der Fehlersuche helfen, wenn du den Kontext richtig lieferst. Gib den fehlerhaften Code, die Fehlermeldung und das erwartete Verhalten an. Je mehr Kontext, desto besser die Diagnose.

# Debugging-Prompt mit Kontext
Mein Python-Script wirft folgenden Fehler:

Traceback (most recent call last):
  File "app.py", line 23, in connect_db
    connection = mysql.connector.connect(**config)
mysql.connector.errors.InterfaceError: 2003: Can't connect to MySQL server

Der Code:
[Code hier einfügen]

Die Datenbank läuft auf localhost:3306 und ist erreichbar (getestet mit mysql CLI).
Was könnte das Problem sein?

API-Integration von Prompts

Bei der Integration von LLMs in eigene Anwendungen über APIs werden Prompts als strukturierte Nachrichten gesendet. Die meisten Anbieter verwenden ein Chat-Format mit Rollen (system, user, assistant).

# Beispiel: OpenAI API mit strukturierten Prompts
import openai

client = openai.OpenAI(api_key="dein-api-key")

response = client.chat.completions.create(
    model="gpt-4",
    messages=[
        {
            "role": "system",
            "content": "Du bist ein IT-Experte für Netzwerksicherheit."
        },
        {
            "role": "user", 
            "content": "Erkläre, was eine SQL-Injection ist und wie man sie verhindert."
        }
    ],
    temperature=0.7,  # Kreativität der Antwort
    max_tokens=500    # Maximale Antwortlänge
)

print(response.choices[0].message.content)

Häufige Fehler bei Prompts

Bestimmte Fehler führen regelmäßig zu unbefriedigenden KI-Antworten. Das Vermeiden dieser Fallstricke verbessert deine Ergebnisse deutlich.

Fehler Problem Bessere Alternative
Zu vage "Hilf mir mit Code" "Schreibe eine Python-Funktion, die..."
Kein Kontext "Warum funktioniert das nicht?" Fehlermeldung + Code + erwartetes Verhalten
Widersprüchliche Anweisungen "Sei kreativ, aber halte dich genau an..." Klare Prioritäten setzen
Zu viele Aufgaben "Schreibe Code, teste ihn, dokumentiere..." Eine Aufgabe pro Prompt oder klar nummerieren
Fehlende Formatvorgabe "Gib mir Informationen über..." "Erstelle eine Tabelle mit..." oder "Liste 5 Punkte..."

Ein weiterer häufiger Fehler ist die Annahme, dass das Modell Kontext aus früheren Sitzungen behält. Jede neue Konversation startet ohne Erinnerung an vorherige Gespräche - relevanter Kontext muss daher immer erneut mitgegeben werden.

Prompts in der IT-Praxis

Das Schreiben effektiver Prompts ist für IT-Fachkräfte zu einer praktischen Alltagskompetenz geworden. Ob bei der Entwicklung von Chatbots, der Automatisierung von Dokumentationsaufgaben oder der Integration von KI-Features in Anwendungen - das Verständnis von Prompt Engineering ist grundlegend.

Als Fachinformatiker für Anwendungsentwicklung wirst du Prompts schreiben, um LLM-APIs in Software zu integrieren. In der Systemintegration helfen LLMs bei der Analyse von Logs, dem Schreiben von Automatisierungsskripten und der Dokumentation von Systemen - jeweils gesteuert durch gut formulierte Prompts.

Quellen und weiterführende Links