playground:howto:ki-tools
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
playground:howto:ki-tools [2024/04/25 08:16] – [Polarstern - AMD GPU] ralf | playground:howto:ki-tools [2024/06/15 11:14] (aktuell) – ralf | ||
---|---|---|---|
Zeile 18: | Zeile 18: | ||
* [[https:// | * [[https:// | ||
* [[https:// | * [[https:// | ||
+ | * Audio | ||
+ | * [[https:// | ||
+ | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate audiocraft -> C: | ||
+ | * MusicGen: | ||
===== Polarstern - AMD GPU ===== | ===== Polarstern - AMD GPU ===== | ||
Zeile 27: | Zeile 31: | ||
* [[https:// | * [[https:// | ||
* starte LM Studio | * starte LM Studio | ||
- | * GPU support via ROCm | + | * GPU support via ROCm, LLMs werden auf D:\llm gespeichert |
- | * LLMs auf D: | + | * in LM Studio lassen sich system prompts pflegen, um die Eigenschaften des Bots zu beeinflussen. [[https:// |
+ | * [[https:// | ||
+ | * [[https:// | ||
* [[https:// | * [[https:// | ||
* starte Docker Desktop -> starte AnythingLM container -> Öffne localhost: | * starte Docker Desktop -> starte AnythingLM container -> Öffne localhost: | ||
* Zugriff auf LLMs von LM Studio Server | * Zugriff auf LLMs von LM Studio Server | ||
+ | * [[https:// | ||
+ | * starte Anything LLM | ||
* Agenten | * Agenten | ||
* [[https:// | * [[https:// | ||
* starte Anaconda Powershell Prompt (miniconda3) -> conda activate autogenstudio -> autogenstudio ui -> Öffne http:// | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate autogenstudio -> autogenstudio ui -> Öffne http:// | ||
- | * [[https:// | + | * [[https:// |
* starte Anaconda Powershell Prompt (miniconda3) -> conda activate crewai -> schreib deinen eigenen .py code | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate crewai -> schreib deinen eigenen .py code | ||
- | * Stable Diffusion | + | * Visual Studio Code Extension: |
+ | * [[https:// | ||
+ | * starte Ollama Server mit " | ||
+ | * Stable Diffusion | ||
* [[https:// | * [[https:// | ||
* starte Anaconda Powershell Prompt (miniconda3) -> conda activate comfyui -> C: | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate comfyui -> C: | ||
Zeile 46: | Zeile 57: | ||
* GPU support via DirectML | * GPU support via DirectML | ||
* ToDo: Konfig anpassen, dass die Modelle aus D: | * ToDo: Konfig anpassen, dass die Modelle aus D: | ||
+ | * Audio | ||
+ | * [[https:// | ||
+ | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate audiocraft -> C: | ||
+ | * MusicGen: | ||
==== LinuxMint ==== | ==== LinuxMint ==== | ||
- | + | * Stable Diffusion | |
+ | * [[https:// | ||
+ | * starte den ComfyUI Server im Terminal via: python ~/ | ||
+ | * öffne das ComfyUI im Browser via: http:// | ||
+ | * Large Language Models | ||
+ | * [[https:// |
playground/howto/ki-tools.1714025810.txt.gz · Zuletzt geändert: 2024/04/25 08:16 von ralf