Set up an environment

Install the required software

Entwicklungsumgebung

  • Recommended: Current version of Intellij IDEA

  • Current version of Android Studio

LLM Modelle

🤔 JLama in der Kommandozeile

Integriere LLM-Inferenz direkt in deine Java-Anwendung.

🔬 Schnellstart

🕵️‍♀️ Nutzung als lokaler Client (mit jbang!)

JLama enthält ein Kommandozeilen-Tool, das die Nutzung sehr einfach macht.

Die CLI kann mit jbang ausgeführt werden.

# jbang installieren (oder https://www.jbang.dev/download/)
curl -Ls https://sh.jbang.dev | bash -s - app setup

# Jlama CLI installieren (fragt ggf., ob du der Quelle vertraust)
jbang app install --force jlama@tjake
Wenn du Probleme hast, den Befehl jlama im Terminal auszuführen, stelle sicher, dass Jlama in $HOME/.jbang/bin installiert ist. Gegebenenfalls musst du die PATH-Variable ergänzen, damit sie auf den Ordner von Jbang verweist:
export PATH="$PATH:$HOME/.jbang/bin"

Nachdem du Jlama installiert hast, kannst du ein Modell von Huggingface herunterladen und damit chatten. Vorgefertigte quantisierte Modelle findest du unter hf.co/tjake.

# Starte die OpenAI Chat API und die UI mit einem Modell
jlama restapi tjake/TinyLlama-1.1B-Chat-v1.0-Jlama-Q4 --auto-download

Öffne anschließend deinen Browser unter localhost:8080/

Wenn due ein Rechner mit Apple Silicon nutzt (z.B. Macbook Pro M1) stelle sicher, dass deine JVM nicht über Rosseta läuft, aber direkt als ARM (z.B: ARM64 JDK). Siehe Jlama issue für Details

Sample Repository