Agenda
-
Was machen wir?
-
Fachlichkeit
-
Architekturbild
-
-
SKaiNET als LLM Inference Engine einbinden + Modell lokal laden
-
Prompt-Engineering
-
manuell vs. KI verbesserte Prompts generieren lassen
-
-
Git Historie mit JGit auslesen und durch lokales LLM zusammenfassen lassen
-
Tool-Call anstatt JGit
-
LLM nutzt MCP-Server für das Auslesen der Git Historie
Voraussetzungen
-
Java 21 + 25 vorinstallieren
-
Claude Code oder Codex installieren
-
MacOS: unbedingt JDK im ARM-Modus (AArch64) laufen lassen, ggf. Shell/Homebrew neu einrichten
-
für lokale LLMs ggf. LM-Studio installieren, alternativ können Modelle auch einfach über https://huggingface.co/models heruntergeladen werden
-
Bootstrap Workspace clonen: https://github.com/sippsack/Daily-StandApp-javaland-2026/