playground:howto:ki-tools
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
playground:howto:ki-tools [2024/06/15 11:14] – ralf | playground:howto:ki-tools [2025/03/24 10:46] (aktuell) – ralf | ||
---|---|---|---|
Zeile 6: | Zeile 6: | ||
* Text: Tools für local LLMs | * Text: Tools für local LLMs | ||
* [[https:// | * [[https:// | ||
- | * [[https:// | + | * [[https:// |
* [[https:// | * [[https:// | ||
* [[https:// | * [[https:// | ||
Zeile 23: | Zeile 23: | ||
* MusicGen: | * MusicGen: | ||
- | ===== Polarstern - AMD GPU ===== | ||
- | * Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichern, um von allen Programmen aus Windows und Linux heraus genutzt zu werden. | ||
- | ==== Windows ==== | ||
- | |||
- | * Large Language Models (LLMs) | ||
- | * [[https:// | ||
- | * starte LM Studio | ||
- | * GPU support via ROCm, LLMs werden auf D:\llm gespeichert | ||
- | * in LM Studio lassen sich system prompts pflegen, um die Eigenschaften des Bots zu beeinflussen. [[https:// | ||
- | * [[https:// | ||
- | * [[https:// | ||
- | * [[https:// | ||
- | * starte Docker Desktop -> starte AnythingLM container -> Öffne localhost: | ||
- | * Zugriff auf LLMs von LM Studio Server | ||
- | * [[https:// | ||
- | * starte Anything LLM | ||
- | * Agenten | ||
- | * [[https:// | ||
- | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate autogenstudio -> autogenstudio ui -> Öffne http:// | ||
- | * [[https:// | ||
- | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate crewai -> schreib deinen eigenen .py code | ||
- | * Visual Studio Code Extension: | ||
- | * [[https:// | ||
- | * starte Ollama Server mit " | ||
- | * Stable Diffusion | ||
- | * [[https:// | ||
- | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate comfyui -> C: | ||
- | * GPU support via DirectML (langsamer als ROCm) | ||
- | * ToDo: Konfig anpassen, dass die Modelle aus D: | ||
- | * [[https:// | ||
- | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate fooocus -> C: | ||
- | * GPU support via DirectML | ||
- | * ToDo: Konfig anpassen, dass die Modelle aus D: | ||
- | * Audio | ||
- | * [[https:// | ||
- | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate audiocraft -> C: | ||
- | * MusicGen: | ||
- | |||
- | ==== LinuxMint ==== | ||
- | |||
- | * Stable Diffusion | ||
- | * [[https:// | ||
- | * starte den ComfyUI Server im Terminal via: python ~/ | ||
- | * öffne das ComfyUI im Browser via: http:// | ||
- | * Large Language Models | ||
- | * [[https:// |
playground/howto/ki-tools.1718442866.txt.gz · Zuletzt geändert: 2024/06/15 11:14 von ralf