DailyStandApp Documentation
Home
Products
Product A Product B Product C
Services
Service A Service B Service C
Download

Dialy-StandAPP

  • Intro
    • Wer wir sind
  • JavaLand 2026
    • Agenda
    • 1. Was machen wir?
    • 2. Modell lokal laden
    • 3. Prompt-Engineering
    • 4. Git Historie mit JGit auslesen
  • See Also
    • Architecture Documentation
Dialy-StandAPP
  • Architecture Documentation
  • Dialy-StandAPP
  • Dialy-StandAPP
  • JavaLand 2026
  • 2. Modell lokal laden
Edit this Page

SKaiNET als LLM Inference Engine einbinden + Modell lokal laden

Im Bootstrap-Projekt ist bereits die Dependency zu SKaiNET enthalten. Clont das Projekt.

https://github.com/sippsack/Daily-StandApp-javaland-2026/

Ladet ein Modell herunter, z. B. https://huggingface.co/TheBloke/TinyLlama-1.1B-Chat-v1.0-GGUF/blob/main/tinyllama-1.1b-chat-v1.0.Q8_0.gguf

Lest das Modell ein und spielt damit herum.

1. Was machen wir? 3. Prompt-Engineering

This page was built using the Antora default UI.

The source code for this UI is licensed under the terms of the MPL-2.0 license.