STERNENLABOR

Wiki und Dokuspace

Benutzer-Werkzeuge

Webseiten-Werkzeuge


playground:howto:ki-tools

KI Tools im Sternenlabor

KI Laptop - NVIDIA GPU

Windows

Polarstern - AMD GPU

* Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichern, um von allen Programmen aus Windows und Linux heraus genutzt zu werden.

Windows

* Large Language Models (LLMs)

    • starte LM Studio
    • GPU support via ROCm, LLMs werden auf D:\llm gespeichert
    • in LM Studio lassen sich system prompts pflegen, um die Eigenschaften des Bots zu beeinflussen. Beispiele, mehr Beispiele.
    • starte Docker Desktop → starte AnythingLM container → Öffne localhost:3001 im Browser
    • Zugriff auf LLMs von LM Studio Server
    • starte Anything LLM
  • Agenten
    • starte Anaconda Powershell Prompt (miniconda3) → conda activate autogenstudio → autogenstudio ui → Öffne http://localhost:8081/ im Browser
    • starte Anaconda Powershell Prompt (miniconda3) → conda activate crewai → schreib deinen eigenen .py code
  • Visual Studio Code Extension:
    • Continue (CoPilot der auch für lokale LLMs genutzt werden kann) Docs; Guide
    • starte Ollama Server mit „ollama serve“ –> 127.0.0.1:11434 und dann VisualStudioCode

* Stable Diffusion

    • starte Anaconda Powershell Prompt (miniconda3) → conda activate comfyui → C:\Users\Sternenlabor\comfyui\ –> python main.py –directml
    • GPU support via DirectML (langsamer als ROCm)
    • ToDo: Konfig anpassen, dass die Modelle aus D:\stable-diffusion genutzt werden
    • starte Anaconda Powershell Prompt (miniconda3) → conda activate fooocus → C:\Users\Sternenlabor\fooocus\ –> python -s entry_with_update.py –directml
    • GPU support via DirectML
    • ToDo: Konfig anpassen, dass die Modelle aus D:\stable-diffusion genutzt werden

LinuxMint

playground/howto/ki-tools.txt · Zuletzt geändert: 2024/04/26 10:18 von ralf

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki