LLM-Entwicklung und Deployment - Kompaktkurs

  • In diesem fünftägigen Kurs lernen Sie, wie moderne LLM-Anwendungen aufgebaut, erweitert und produktiv eingesetzt werden. Sie entwickeln eigene RAG-Pipelines, arbeiten mit Tools wie LangChain, FAISS und Docker und setzen professionelle Deployment- und Monitoring-Strategien um.

  • Dieser Kompaktkurs vermittelt Ihnen praxisnahes Wissen zur Entwicklung und zum Betrieb moderner Large Language Model-Anwendungen. Sie lernen die grundlegenden Bausteine aktueller LLM-Architekturen kennen und entwickeln systematisch eigene Prompts und RAG-Pipelines. Ein besonderer Fokus liegt auf der Integration externer Wissensquellen mithilfe von LangChain oder LlamaIndex sowie dem Aufbau produktionsreifer Query-Antwort-Systeme mit Logging, API-Anbindung und semantischer Suche.

    Abschließend beschäftigen Sie sich mit Infrastruktur, Sicherheit und Governance. Sie lernen, wie Sie LLM-Anwendungen mit Docker containerisieren, via FastAPI bereitstellen, überwachen und skalieren – inklusive Guardrails, Token-Tracking und Prompt-Management.

    Angesprochener Teilnehmerkreis:
    Technisch orientierte Fachkräfte, Entwickler, ML Engineers, AI-Produktmanager und alle, die LLMs systematisch entwickeln, erweitern und produktiv einsetzen möchten.

    Kursziel:
    Teilnehmende sind in der Lage, LLM-gestützte Anwendungen zu entwickeln, externe Datenquellen einzubinden, produktionsreife Systeme mit RAG zu betreiben und diese sicher, skalierbar und nachvollziehbar zu verwalten.

    • Grundlagen & Architektur moderner LLMs
      • Überblick Transformer, Kontext, Tokenisierung
      • Prompt Design (Zero-/Few-Shot, System Prompts)
      • Unterschiede zu klassischen NLP-Verfahren
      • Hands-on: effektive Prompts entwickeln
    • Retrieval-Augmented Generation (RAG) Essentials
      • Rolle von Embeddings und Vektorsuche
      • Praktische Arbeit mit FAISS, ChromaDB
      • Integration externer Quellen über LangChain / LlamaIndex
      • Aufbau einer einfachen RAG-Pipeline
    • Erweiterte RAG-Pipelines in der Praxis
      • Datenvorbereitung & semantische Abfragen
      • Tool-Ketten in LangChain
      • Query-Antwort-System mit API-Anbindung
      • Best Practices: Trennung von Modell- und Wissenskomponente
    • LLMOps – Deployment & Infrastruktur
      • Deployment-Strategien: Hosted vs. On-Premise
      • Containerisierung (Docker), Frameworks (FastAPI, BentoML)
      • Monitoring & Logging (LangSmith, Weights & Biases, OpenTelemetry)
      • Prompt- & Model-Management
    • LLMOps – Governance, Security & Skalierung
      • Sicherheit (Prompt Injection, Datenschutz, Auditierbarkeit)
      • Kostenkontrolle: Token-Tracking, Caching, Request-Management
      • CI/CD für LLM-Anwendungen
    • Abschlussprojekt: Bau einer produktionsreifen Anwendung mit RAG, Logging, Monitoring & Guardrails
  • Solide Kenntnisse in Python und Grundverständnis von API-Nutzung, Machine Learning oder Cloud-Infrastruktur sind erforderlich. Erfahrung mit Tools wie Jupyter, VS Code oder Docker ist hilfreich.

  • Dieses Seminar können Sie als Präsenzseminar oder als Live-Online-Training (virtuelles Präsenzseminar) buchen. Die technischen Voraussetzungen für Live-Online-Schulungen (Virtual Classrooms) finden sie hier. Sie können Ihre Auswahl bei der Anmeldung treffen.
Alle Kursinformationen als PDF

Anmeldung

 
↳ Garantietermin

Zeitrahmen: 5 Tageskurs | 09:00 bis 16:00 Uhr

Preise

Die Teilnahmegebühr beträgt

2.590,00 €
(3.082,10 € inkl. 19% MwSt.)

Durchführung ab 1 Teilnehmenden (mehr lesen ...)

Im Preis enthalten sind PC-COLLEGE - Zertifikat, Pausenverpflegung, Getränke und Kursmaterial.


  • Von 27 Kunden gebucht. 27 Kunden haben bereits die Schulung:
    LLM-Entwicklung und Deployment - Kompaktkurs gebucht.
    (innerhalb der letzten 24 Monate als offenes Seminar, Firmenschulung oder Workshop)
    • Durchführung ab 1 Teilnehmenden

      Unser Ziel ist es, Ihnen schnellstmöglich den gewünschten Kurs anzubieten. Aus diesem Grund führen wir einen Großteil unserer Seminare ab einer Person durch. Das bietet Ihnen Planungssicherheit und bringt Sie schnell an Ihr Ziel.

    • Bildungsanbieterauszeichnung

      Wir wurden im Internationalen Bildungsanbieter-Elite-Ranking (IBER) der performNET AG mit der Höchstwertung von fünf Sternen ausgezeichnet. PC-COLLEGE schreibt Kundenorientierung groß und hält Qualitätsstandards dauerhaft auf einem sehr hohem Niveau.

    • Qualitätsgarantie

      Wir möchten Sie mit unseren Seminaren begeistern. Sollten Sie mit einer PC-COLLEGE- Schulung nicht zufrieden sein und uns dies innerhalb von 14 Tagen schriftlich mitteilen, können Sie das Seminar am selben Standort kostenfrei wiederholen.

    • ... alle Vorteile auf einen Blick
  • SeNr. Seminar Termin Dauer Standorte
    LMK
    260413
    13.04. - 17.04.2026 5 Tage
    LMK
    260601
    01.06. - 05.06.2026 5 Tage Live-Online-Training
    LMK
    260608
    08.06. - 12.06.2026 5 Tage Wien
    LMK
    260727
    27.07. - 31.07.2026 5 Tage
    LMK
    260921
    21.09. - 25.09.2026 5 Tage
    LMK
    261116
    16.11. - 20.11.2026 5 Tage

Verwandte Seminare/Schulungen

Ihre gewünschte Kursart wählen Sie bei der Anmeldung:

  • Präsenzseminar:
    Ein Schulungserlebnis vor Ort
    mit persönlichen Kontakten und Hygieneregeln
  • Online-Seminar:
    Modernes und interaktives
    Live-Online-Training in
    Echtzeit
Erfolgreich
im Job!
Ekomi Gold Status

Exzellent 4,8 / 5

basierend auf 622 Bewertungen (Alle Kurs-Bewertungen der letzten 12 Monate)

Hier individuelles Firmenseminar anfragen

Thema:

LLM-Entwicklung und Deployment - Kompaktkurs

Ihr Wunschtermin


PC-COLLEGE ist autorisiertes Training Center

  • Autodesk Schulungs Anbieter
  • Lpi Schulungs Anbieter
  • Cobra Schulungs Anbieter
  • Corel Schulungs Anbieter
  • Pearson Schulungs Anbieter
  • Kryterion Schulungs Anbieter
  • Certiport Schulungs Anbieter
  • Learnquest Schulungs Anbieter
  • Google Schulungs Anbieter