playground:howto:ki-tools
Dies ist eine alte Version des Dokuments!
Inhaltsverzeichnis
KI Tools im Sternenlabor
KI Laptop - NVIDIA GPU
Windows
- Text: Tools für local LLMs
- Ollama auf dem WSL Ubuntu
- AnythingLM Docker - localhost:3001 - RAG
- Visual Studio Code Extension:
- Continue (CoPilot der auch für lokale LLMs genutzt werden kann)
- Agenten
- Stable Diffusion
Polarstern - AMD GPU
* Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichern, um von allen Programmen aus Windows und Linux heraus genutzt zu werden.
Windows
* Large Language Models (LLMs)
-
- starte LM Studio
- GPU support via ROCm
- LLMs auf D:\llm
-
- change model location to D:\llm
-
- starte Docker Desktop → starte AnythingLM container → Öffne localhost:3001 im Browser
- Zugriff auf LLMs von LM Studio Server
- Agenten
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate autogenstudio → autogenstudio ui → Öffne http://localhost:8081/ im Browser
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate crewai → schreib deinen eigenen .py code
- Visual Studio Code Extension:
- Guide → config path: C:\Users\Sternenlabor\.continue\config.json
- starte Ollama Server mit „ollama serve“ –> 127.0.0.1:11434 und dann VisualStudioCode
* Stable Diffusion
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate comfyui → C:\Users\Sternenlabor\comfyui\ –> python main.py –directml
- GPU support via DirectML (langsamer als ROCm)
- ToDo: Konfig anpassen, dass die Modelle aus D:\stable-diffusion genutzt werden
-
- starte Anaconda Powershell Prompt (miniconda3) → conda activate fooocus → C:\Users\Sternenlabor\fooocus\ –> python -s entry_with_update.py –directml
- GPU support via DirectML
- ToDo: Konfig anpassen, dass die Modelle aus D:\stable-diffusion genutzt werden
LinuxMint
playground/howto/ki-tools.1714112872.txt.gz · Zuletzt geändert: 2024/04/26 08:27 von ralf