playground:howto:ki-tools
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
playground:howto:ki-tools [2024/02/10 12:07] – [KI Laptop Windows] ralf | playground:howto:ki-tools [2024/06/15 11:14] (aktuell) – ralf | ||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
====== KI Tools im Sternenlabor ====== | ====== KI Tools im Sternenlabor ====== | ||
- | ===== KI Laptop | + | ===== KI Laptop |
+ | ==== Windows | ||
* Text: Tools für local LLMs | * Text: Tools für local LLMs | ||
Zeile 17: | Zeile 18: | ||
* [[https:// | * [[https:// | ||
* [[https:// | * [[https:// | ||
+ | * Audio | ||
+ | * [[https:// | ||
+ | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate audiocraft -> C: | ||
+ | * MusicGen: | ||
+ | ===== Polarstern - AMD GPU ===== | ||
+ | * Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichern, um von allen Programmen aus Windows und Linux heraus genutzt zu werden. | ||
+ | ==== Windows ==== | ||
+ | * Large Language Models (LLMs) | ||
+ | * [[https:// | ||
+ | * starte LM Studio | ||
+ | * GPU support via ROCm, LLMs werden auf D:\llm gespeichert | ||
+ | * in LM Studio lassen sich system prompts pflegen, um die Eigenschaften des Bots zu beeinflussen. [[https:// | ||
+ | * [[https:// | ||
+ | * [[https:// | ||
+ | * [[https:// | ||
+ | * starte Docker Desktop -> starte AnythingLM container -> Öffne localhost: | ||
+ | * Zugriff auf LLMs von LM Studio Server | ||
+ | * [[https:// | ||
+ | * starte Anything LLM | ||
+ | * Agenten | ||
+ | * [[https:// | ||
+ | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate autogenstudio -> autogenstudio ui -> Öffne http:// | ||
+ | * [[https:// | ||
+ | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate crewai -> schreib deinen eigenen .py code | ||
+ | * Visual Studio Code Extension: | ||
+ | * [[https:// | ||
+ | * starte Ollama Server mit " | ||
+ | * Stable Diffusion | ||
+ | * [[https:// | ||
+ | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate comfyui -> C: | ||
+ | * GPU support via DirectML (langsamer als ROCm) | ||
+ | * ToDo: Konfig anpassen, dass die Modelle aus D: | ||
+ | * [[https:// | ||
+ | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate fooocus -> C: | ||
+ | * GPU support via DirectML | ||
+ | * ToDo: Konfig anpassen, dass die Modelle aus D: | ||
+ | * Audio | ||
+ | * [[https:// | ||
+ | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate audiocraft -> C: | ||
+ | * MusicGen: | ||
+ | |||
+ | ==== LinuxMint ==== | ||
+ | |||
+ | * Stable Diffusion | ||
+ | * [[https:// | ||
+ | * starte den ComfyUI Server im Terminal via: python ~/ | ||
+ | * öffne das ComfyUI im Browser via: http:// | ||
+ | * Large Language Models | ||
+ | * [[https:// |
playground/howto/ki-tools.txt · Zuletzt geändert: 2024/06/15 11:14 von ralf