playground:howto:ki-tools
Dies ist eine alte Version des Dokuments!
Inhaltsverzeichnis
KI Tools im Sternenlabor
KI Laptop - NVIDIA GPU
Windows
- Text: Tools für local LLMs
- Ollama auf dem WSL Ubuntu
- AnythingLM Docker - localhost:3001 - RAG
- Visual Studio Code Extension:
- Continue (CoPilot der auch für lokale LLMs genutzt werden kann)
- Agenten
- Stable Diffusion
Polarstern - AMD GPU
* Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichern um von allen Programmen aus Windows und Linux heraus genutzt zu werden.
Windows
* Text: Tools für local LLMs
-
- starte LM Studio
- GPU support via ROCm
- LLMs auf D:\llm
-
- starte Docker Desktop → starte AnythingLM container → Öffne localhost:3001 im Browser
- Zugriff auf LLMs von LM Studio Server
- Agenten
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate autogenstudio → autogenstudio ui → Öffne http://localhost:8081/ im Browser
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate crewai → schreib deinen eigenen .py code
- Stable Diffusion
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate comfyui → C:\Users\Sternenlabor\comfyui\ –> python main.py –directml
- GPU support via DirectML (langsamer als ROCm)
- ToDo: Konfig anpassen, dass die Modelle aus D:\stable-diffusion genutzt werden
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate fooocus → C:\Users\Sternenlabor\fooocus\ –> python -s entry_with_update.py –directml
- GPU support via DirectML
- ToDo: Konfig anpassen, dass die Modelle aus D:\stable-diffusion genutzt werden
LinuxMint
playground/howto/ki-tools.1714025182.txt.gz · Zuletzt geändert: 2024/04/25 08:06 von ralf