Agenda

  1. Was machen wir?

    • Fachlichkeit

    • Architekturbild

  2. SKaiNET als LLM Inference Engine einbinden + Modell lokal laden

  3. Prompt-Engineering

    • manuell vs. KI verbesserte Prompts generieren lassen

  4. Git Historie mit JGit auslesen und durch lokales LLM zusammenfassen lassen

  5. Tool-Call anstatt JGit

  6. LLM nutzt MCP-Server für das Auslesen der Git Historie

Voraussetzungen