Windows
- Auf Windows-Logo unten links und cmd eingeben -> Windows-Eingabeaufforderung öffnen
- folgenden Befehl ohne Anführungszeichen eingeben und mit Enter bestätigen: „wsl –install“
- abwarten und nach Installation den PC neustarten & aktualisieren
- Die Installation schließt automatisch ab und am Ende seid ihr im Linux eingeloggt. Danach bitte einmal die Eingabeaufforderung schließen. Danach wieder mit „cmd“ die Windows-Eingabeaufforderung öffnen und „wsl“ eingeben und mit Enter bestätigen -> jetzt befinden wir uns im Windows Subsystem Linux in eurem Nutzerverzeichnis
- Befehl ohne Anführungszeichen und bestätigen mit Enter: „git clone https://github.com/ggerganov/llama.cpp.git“
- „cd llama.cpp“ und mit Enter bestätigen -> Wechsel in das neue Verzeichnis [cd = change directory]
- „sudo apt update && sudo apt install make g++ -y“ und mit Enter bestätigen
- „make“ und mit Enter bestätigen -> Die ausführbare Datei wird für euren jeweiligen PC erstellt
- Datei runterladen mit folgendem Befehl: “ wget https://huggingface.co/TheBloke/orca_mini_v3_7B-GGUF/resolve/main/orca_mini_v3_7b.Q3_K_L.gguf „
- Weiterhin im Verzeichnis llama.cpp folgenden Befehl starten: „./main -m orca_mini_v3_7b.Q3_K_L.gguf -p „###
User: Hello! ### Assistant: “ -n 100″
Wenn das geklappt hat, dann eigenen Chatbot mit folgendem Befehl starten:
./main -m orca_mini_v3_7b.Q3_K_L.gguf --interactive-first --in-suffix "### Assistant: " --in-prefix "### User: " -p "### System: You are an AI assistant that follows instruction extremely well. Help as much as you can. \ ### User: Hello! ### Assistant: Hi, how can I help you? ### User: " -r "### User:" --color
Linux
Befehle im Terminal [Strg + Alt + T zum Öffnen] eingeben und jeweils mit Enter bestätigen:
- sudo apt install git -y
- git clone https://github.com/ggerganov/llama.cpp.git
- Wechsel in das neue Verzeichnis: cd llama.cpp
- Ausführbare Datei für euren PC bauen mit dem Befehl: make
- Modell runterladen: wget https://huggingface.co/TheBloke/orca_mini_v3_7B-GGUF/resolve/main/orca_mini_v3_7b.Q3_K_L.gguf
- erster Test im Verzeichnis llama.cpp ausführen: ./main -m orca_mini_v3_7b.Q3_K_L.gguf -p „###
User: Hello! ### Assistant: “ -n 100 - Chatbot im Verzeichnis llama.cpp ausführen mit dem nachfolgenden Befehl: ./main -m orca_mini_v3_7b.Q3_K_L.gguf -i -p „### User: Hello! ### Assistant: “ –color
- Tipp: Das Einfügen von Befehlen im Terminal geht am einfachsten über die Tastenkombination „Strg + Shift + V“
Wenn das geklappt hat, dann eigenen Chatbot mit folgendem Befehl starten:
./main -m /home/nils/excluded_from_backup/llm_models/orca_mini_v3_7b.Q3_K_L.gguf --interactive-first --in-suffix "### Assistant: " --in-prefix "### User: " -p "### System:
You are an AI assistant that follows instruction extremely well. Help as much as you can. \
### User: Hello! ### Assistant: Hi, how can I help you? ### User: " -r "### User:" --color
MacOS
Befehle im Programm „Terminal“ eingeben und jeweils mit Enter bestätigen:
- git clone https://github.com/ggerganov/llama.cpp.git
- ihr werdet gefragt, ob die Developer Tools installiert werden sollen -> bestätigen
- Wechsel in das neue Verzeichnis: cd llama.cpp
- Ausführbare Datei für euren PC bauen mit dem Befehl: make
- Modell runterladen: wget https://huggingface.co/TheBloke/orca_mini_v3_7B-GGUF/resolve/main/orca_mini_v3_7b.Q3_K_L.gguf
- erster Test im Verzeichnis llama.cpp ausführen: ./main -m orca_mini_v3_7b.Q3_K_L.gguf -p „###
User: Hello! ### Assistant: “ -n 100 - Chatbot im Verzeichnis llama.cpp ausführen mit dem nachfolgenden Befehl: ./main -m orca_mini_v3_7b.Q3_K_L.gguf -i -p „### User: Hello! ### Assistant: “ –color
- Tipp: Das Einfügen von Befehlen im Terminal geht am einfachsten über die Tastenkombination „Strg + Shift + V“
Deutscher Chatbot
Funktioniert einigermaßen gut mit folgender Prompt:
### System:\nDu bist ein hilfreicher KI-Assistent, der Anweisungen sehr gut befolgt. Hilf so viel du kannst.\n### User: Hallo.\n### Assistant: Hallo, wie kann ich dir helfen?\n### User: