playground:howto:ki-tools
Inhaltsverzeichnis
KI Tools im Sternenlabor
KI Laptop - NVIDIA GPU
Windows
- Text: Tools für local LLMs
- Ollama auf Windows und dem WSL Ubuntu
- AnythingLM Docker - localhost:3001 - RAG
- Visual Studio Code Extension:
- Continue (CoPilot der auch für lokale LLMs genutzt werden kann)
- Agenten
- Stable Diffusion
- Audio
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate audiocraft → C:\Users\Sternenlabor\audiocraft\
- MusicGen: python -m demos.musicgen_app –share –> http://127.0.0.1:7860/
-
Polarstern - AMD GPU
* Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichern, um von allen Programmen aus Windows und Linux heraus genutzt zu werden.
Windows
* Large Language Models (LLMs)
-
- starte LM Studio
- GPU support via ROCm, LLMs werden auf D:\llm gespeichert
- in LM Studio lassen sich system prompts pflegen, um die Eigenschaften des Bots zu beeinflussen. Beispiele, mehr Beispiele.
-
- change model location to D:\llm
-
- starte Docker Desktop → starte AnythingLM container → Öffne localhost:3001 im Browser
- Zugriff auf LLMs von LM Studio Server
-
- starte Anything LLM
- Agenten
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate autogenstudio → autogenstudio ui → Öffne http://localhost:8081/ im Browser
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate crewai → schreib deinen eigenen .py code
- Visual Studio Code Extension:
- starte Ollama Server mit „ollama serve“ –> 127.0.0.1:11434 und dann VisualStudioCode
* Stable Diffusion
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate comfyui → C:\Users\Sternenlabor\comfyui\ –> python main.py –directml
- GPU support via DirectML (langsamer als ROCm)
- ToDo: Konfig anpassen, dass die Modelle aus D:\stable-diffusion genutzt werden
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate fooocus → C:\Users\Sternenlabor\fooocus\ –> python -s entry_with_update.py –directml
- GPU support via DirectML
- ToDo: Konfig anpassen, dass die Modelle aus D:\stable-diffusion genutzt werden
* Audio
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate audiocraft → C:\Users\Sternenlabor\audiocraft\
- MusicGen: python -m demos.musicgen_app –share –> http://127.0.0.1:7860/
LinuxMint
* Stable Diffusion
- starte den ComfyUI Server im Terminal via: python ~/ComfyUI/main.py
- öffne das ComfyUI im Browser via: http://127.0.0.1:8188
* Large Language Models
playground/howto/ki-tools.txt · Zuletzt geändert: 2024/09/28 13:56 von ralf