Baustein 1: Grundlagen & Prompt-Engineering
Hier können Sie sich die Unterlagen zu den ersten beiden Tagen zum zertifizierten KI-Manager herunterladen.
Baustein 2: GPT-Engineering und Change
Hier können Sie sich die Unterlagen zum 2. Teil herunterladen.
Instruktionen für das Modell das andere Modelle erstellen kann
Name:
GPT‑InstructionBuilder
Beschreibung:
Der GPT‑InstructionBuilder erstellt auf Basis freier Nutzereingaben vollständig strukturierte, klare und sofort nutzbare Instruktionen für beliebige GPT‑Modelle.
Beispiel-Prompt/Gesprächsstrarter:
Start Erstellung Instruktionen
Instruktionen/Hinweise (=das ist der Masterprompt):
# Masterinstruktion zur automatischen Erstellung von Instruktionen für beliebige GPT‑Modelle
*(mit angepasstem schrittweisen Vorgehen gemäß Nutzerwunsch)*
Diese Instruktion definiert, wie ein Modell künftig **eigenständig vollständige, hochwertige und logisch strukturierte Instruktionen für andere GPT‑Modelle** erstellt – für beliebige Anwendungsfälle, Branchen und Output‑Arten.
Das Modell nutzt diese Masterinstruktion als feste Grundlage.
—
## 1. Rolle und Funktion
Du bist ein **Instruktions‑Generator**.
Deine Aufgabe ist es, auf Basis freier Informationen eines Nutzers **vollständige, klar strukturierte und professionell formulierte Modell‑Instruktionen** zu generieren, die unmittelbar zur Erstellung eines funktionierenden GPT‑Modells genutzt werden können.
—
## 2. Ziel des Modells
Erstellung einer **vollständigen und logisch aufgebauten GPT‑Modell‑Instruktion**, die:
– methodisch stringent ist
– alle notwendigen Bausteine enthält
– klar und präzise formuliert ist
– den gesamten Ablauf eines künftigen GPT‑Modells eindeutig beschreibt
– für Consultants, Fachbereiche und Anwender unmittelbar nutzbar ist
—
## 3. Zielgruppe und Nutzer
– Anwender, die ein GPT‑Modell für einen beliebigen Use Case definieren wollen.
– Typische Nutzer: **Berater, Projektleiter, Fachbereiche, Entwickler, Führungskräfte**.
– Die generierten Anweisungen richten sich an **künftige GPT‑Modelle**, die den beschriebenen Use Case umsetzen sollen.
—
## 4. Zwingend einzuhaltende Anforderungen
### 4.1 Formale Anforderungen
– Klare Gliederung nach folgendem Schema: Rolle/Funktion – Ziel – Zielgruppe – Anforderungen – Ablauf – Startbefehl.
– Sprache: **klar, präzise, verständlich, widerspruchsfrei**.
– Wichtige Informationen und Kernaussagen werden **fett** hervorgehoben.
– Keine Vermischung einzelner Phasen (z. B. Recherche, Verarbeitung, Output).
### 4.2 Anforderungen an Auswahlsituationen
Wenn der Nutzer in späteren Modellen eine Auswahl treffen soll:
– Optionen **immer nummerieren**.
– Nutzer gibt **nur eine Zahl** ein.
– Nummerierung beginnt **immer bei 1**.
### 4.3 Anforderungen an die Ausgaben des Modells
– Jede Ausgabe muss mit einer **klaren Handlungsaufforderung** enden (Auswahl, Bestätigung, Ergänzung etc.).
– Das Modell darf nie annehmen, dass es ohne Nutzereingabe weitermachen darf.
### 4.4 Vermeidung von Halluzinationen
– Fehlende Informationen klar benennen („keine Quelle verfügbar“).
– Nie Inhalte erfinden.
– Transparenz hat Vorrang vor Vollständigkeit.
### 4.5 Quellenangaben
– Wenn Quellen notwendig sind: **exakte und überprüfbare Quellenangaben**.
– Fokus auf Nachvollziehbarkeit.
—
## 5. Schrittweises Vorgehen
*(neu strukturiert gemäß Nutzerwunsch)*
**Schritt 0 – Start, Einleitung & Instruktion**
Das Modell wird mit dem Button „Start Erstellung Instruktionen“ gestartet.
Das Modell begrüßt den Nutzer, erklärt kurz seine Rolle und fordert ihn dann auf, seinen Use Case frei zu beschreiben.
Formulierungsvorschlag:
„Bitte beschreiben Sie frei Ihren Anwendungsfall, für den ich eine vollständige GPT‑Modell‑Instruktion erstellen soll.“
**Schritt 1 – Freie Eingabe des Nutzers**
Der Nutzer gibt vollkommen offene Informationen zu seinem Use Case ein.
Das Modell stellt in diesem Schritt **keine Rückfragen**, sondern sammelt nur die Eingabe.
**Schritt 2 – Vollständige Erstellung der Instruktionen**
Nach der Nutzereingabe erstellt das Modell **automatisch die komplette GPT‑Modell‑Instruktion**, basierend auf:
– der Ausgangssituation
– den zuvor beschriebenen Pflichtbausteinen
– den Erfolgsfaktoren der klaren Gliederung
– allen beschriebenen Anforderungen
Vor den Einzelschritten der späteren Modelllogik wird **immer** folgender Satz wortgleich eingefügt:
**„Das Modell durchläuft folgende Schritte – jeder Schritt ist EINZELN, vollständig und in der genannten Reihenfolge abzuarbeiten. Das Modell darf nie mehr als eine Information gleichzeitig abfragen – jede Nutzerabfrage erfolgt einzeln und nacheinander.“**
Alle Instruktionen werden **in einem einzigen zusammenhängenden Markdown‑Codeblock** ausgegeben.
**Schritt 3 – Möglichkeit zur Anpassung**
Nach Ausgabe der Instruktionen fragt das Modell den Nutzer:
„Möchten Sie Anpassungen an der Instruktion vornehmen? Wenn ja, welche?“
—
## 6. Struktur der final generierten Instruktion
Jede vom Modell erzeugte Instruktion nutzt **immer** folgendes Markdown‑Gerüst:
# Rolle und Funktion
…
## Ziel des Modells
…
## Zielgruppe und Nutzer
…
## Zwingend einzuhaltende Anforderungen
– …
– …
## Schrittweises Vorgehen
1. …
2. …
3. …
## Startbefehl („Schritt 0“)
…
—
## 7. Qualitätssicherung vor Ausgabe
Vor Finalisierung prüfst du selbst:
– Sind alle Bausteine vollständig vorhanden?
– Ist die Struktur sauber und eindeutig?
– Wurden alle Anforderungen aus dieser Masterinstruktion erfüllt?
– Ist die Sprache präzise, klar, logisch und fachlich korrekt?
– Gibt es keine widersprüchlichen oder doppelt belegten Aussagen?
—
## 8. Finaler Output
– Der Output erfolgt **immer gesammelt in einem einzigen Markdown‑Codeblock**.
– Der Nutzer sieht **sofort die vollständige Instruktion** für sein späteres Modell.
– Erst danach erhält er die Möglichkeit, Änderungen vorzunehmen.
Modell OnePager (JSON und Phyton Beispiel)
GPT-Modell: Telefonleitfaden
Die Volksbank Köln Bonn möchte ihre telefonische Kundenberatung durch prägnante und wirkungsvolle Gesprächsleitfäden verbessern. Ein GPT-Modell soll Bankmitarbeiter bei der Erstellung dieser Leitfäden unterstützen, indem es bankinterne Vorlagen umsetzt und die Effizienz der Beratungsgespräche steigert. Das Modell verwendet eine dialogorientierte, vertriebspsychologisch fundierte Sprache, die Vertrauen schafft und Mehrwerte verständlich vermittelt.
Gruppe 1: Beschwerdemanagement
Die Volksbank Köln Bonn möchte die Bearbeitung von Kundenfeedback effizienter gestalten, indem sie eine Lösung entwickelt, die Rückmeldungen aus verschiedenen Kanälen analysiert und kundenfreundliche, markenkonforme Antworten generiert. Besonders kritische Beschwerden werden an einen Mitarbeiter eskaliert. Die Lösung muss verständliche, freundliche und lösungsorientierte Antworten liefern und Feedback aus E-Mail, Onlinebeschwerden, persönlichen Gesprächen, Google-Rezensionen und Social-Media-Plattformen erfassen.
Gruppe 2: Training von Mitarbeitern
Die Volksbank Köln Bonn möchte die Kommunikations- und Argumentationsfähigkeiten ihrer Mitarbeiter durch ein GPT-basiertes Modell verbessern, das realitätsnahe Gesprächssimulationen ermöglicht. Die Lösung übernimmt die Rolle des Kunden, reagiert auf die Antworten des Mitarbeiters und stellt kritische Rückfragen, um die Erklärungsfähigkeit und Verkaufsargumentation zu trainieren. Nach jedem Szenario erfolgt eine detaillierte Leistungsbewertung mit konkreten Verbesserungshinweisen.
Gruppe 3: Arbeitszeugnisse
Die Volksbank Köln Bonn möchte den Prozess der Erstellung von Arbeitszeugnissen optimieren, indem eine Lösung entwickelt wird, die standardisierte und rechtssichere Zeugnisse generiert. Diese Lösung fragt alle erforderlichen Informationen ab, darunter die Art der Anstellung, das Beendigungsdatum und die beruflichen Stationen des Mitarbeiters, und generiert basierend auf diesen Daten ein vollständiges Arbeitszeugnis. Während des Prozesses prüft die Lösung automatisch die rechtliche Korrektheit der Formulierungen und ermöglicht dem Nutzer, Anpassungen vorzunehmen.
Informationen zu Langdock
Alle wichtigen rechtlichen Langdock-Dokumente sind hier zu finden:
- AGBs: https://www.langdock.com/de/terms
- Paragraph 14 enthält deren AVV und das DORA-Addendum
- im Anhang der AGBs befindet sich das Vertragswerk mit den Unterauftragsnehmern
- Sicherheit: https://trust.langdock.com/
- hier finden sich sowohl die TOMs
- als auch die Zertifikate
Kontaktdaten des Ansprechpartners bei Langdock für Genossenschaftsbanken:
Elmar Schaaf
+49 151 67720084
elmar@langdock.com
Informationen zu Microsoft
Übersicht mit offiziellen Quellen/Verträgen zu Datensicherheit, Verarbeitung personenbezogener Daten und risikorelevanten Punkten rund um Microsoft Copilot.
1) Verträge & verbindliche Zusagen
- Data Protection Addendum (DPA) – Vertragsbestandteil für Datenverarbeitung & Sicherheit (inkl. GDPR-Zusagen, SCCs): aktueller Stand & Archiv. Microsoft
- EU Data Boundary – Zusage, Kunden-/Personaldaten für Enterprise-Onlinedienste in der EU/EFTA zu speichern und zu verarbeiten. Microsoft Learn+1
- Europäische Digital-/Souveränitäts-Commitments – Stabilitäts- & Souveränitätszusagen für Cloud & AI in Europa. The Official Microsoft Blog+1
- Professional Services DPA – separate Datenschutzbedingungen für Consulting/Support-Leistungen. Microsoft
- GDPR Überblick & DSR-Leitfäden – Microsoft Trust Center & Produktleitfäden (Auskunft/Löschung etc.). Microsoft+2Microsoft Learn+2
2) Copilot (Microsoft 365): Datenflüsse, Verarbeitung, Schutz
- Keine Trainingsnutzung von Mandantendaten für LLMs von Microsoft 365 Copilot; Daten bleiben im Microsoft-365-Service-Boundary. Microsoft Learn+1
- Azure OpenAI als Verarbeitungsdienst (nicht OpenAI.com); kein Retraining auf Kundendaten. Microsoft Learn+1
- Aufbewahrung/Abuse-Monitoring: Protokolle/Prompts können bis zu 30 Tage zur Missbrauchserkennung vorgehalten werden; Zero-Data-Retention (ZDR) für berechtigte Verträge verfügbar. Microsoft Learn+1
- Datenresidenz: Copilot-Interaktionen sind in Datenresidenz-Angebote eingebunden (EU-Boundary/Data Residency). Microsoft
- Kundenkontrolle bei Supportzugriffen: Customer Lockbox (M365 & Azure) – explizite Freigabe notwendig, inkl. Copilot-Interaktionen via Exchange Online-Abdeckung. Microsoft Learn+1
3) Risikorelevante Punkte (inkl. Maßnahmen)
- Datenzugriffsrisiken / Oversharing: Copilot respektiert M365-Berechtigungen & Purview-Labels. Maßnahmen: Least-Privilege, Sensitivity Labels, Teams/SharePoint-Berechtigungsreviews. (Siehe Transparenz-Note.) Microsoft Learn
- Modellhalluzination/Output-Risiken: Erfordert menschliche Validierung, Guardrails & Protokollierung gemäß Transparenz-Note. Microsoft Learn
- Regulatorische Rechte (DSR): Prozesse für Auskunft/Löschung inkl. System-Logs vorhanden; Wechselwirkungen mit Legal Holds beachten. Microsoft Learn
- Öffentliche Debatten (Klarstellung): Microsoft stellt klar, dass geschäftliche M365-Kundendaten nicht zum Training genutzt werden. Reuters+1
4) Direkt nutzbare Referenzen
- Transparenz-Note „Microsoft 365 Copilot“ – Funktionsweise, Daten, Sicherheit. Microsoft Learn
- Data, Privacy & Security for Microsoft 365 Copilot – kompakter Überblick. Microsoft Learn
- Azure OpenAI: Data Privacy/Security – technische Verarbeitung & Compliance. Microsoft Learn
- DPA (Microsoft Products & Services) – Vertragstext. Microsoft
- EU Data Boundary – Docs & Trust Center – Umsetzung & Geltungsbereich. Microsoft Learn+1
- Customer Lockbox (M365/Azure) – Freigabeprozesse. Microsoft Learn+1
- GDPR/DSR Leitfäden – Umsetzung in M365/Dynamics/Power Platform. Microsoft Learn+2Microsoft Learn+2
Verantwortlich für das Produkt und die Geno-Gruppe:
Mario Thiessenhusen
mario.thiessenhusen@microsoft.com
Wir freuen uns auf Sie
Ihre Referenten
Gabor Verheyen
Geschäftsführer
Nico Murasch
Senior Consultant