playground:howto:ki-tools
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende ÜberarbeitungNächste ÜberarbeitungBeide Seiten der Revision | ||
playground:howto:ki-tools [2024/04/25 08:16] – [Windows] ralf | playground:howto:ki-tools [2024/05/02 17:47] – [Windows] ralf | ||
---|---|---|---|
Zeile 21: | Zeile 21: | ||
===== Polarstern - AMD GPU ===== | ===== Polarstern - AMD GPU ===== | ||
- | * Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichern um von allen Programmen aus Windows und Linux heraus genutzt zu werden. | + | * Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichern, um von allen Programmen aus Windows und Linux heraus genutzt zu werden. |
==== Windows ==== | ==== Windows ==== | ||
Zeile 27: | Zeile 27: | ||
* [[https:// | * [[https:// | ||
* starte LM Studio | * starte LM Studio | ||
- | * GPU support via ROCm | + | * GPU support via ROCm, LLMs werden auf D:\llm gespeichert |
- | * LLMs auf D: | + | * in LM Studio lassen sich system prompts pflegen, um die Eigenschaften des Bots zu beeinflussen. [[https:// |
+ | * [[https:// | ||
+ | * [[https:// | ||
* [[https:// | * [[https:// | ||
* starte Docker Desktop -> starte AnythingLM container -> Öffne localhost: | * starte Docker Desktop -> starte AnythingLM container -> Öffne localhost: | ||
* Zugriff auf LLMs von LM Studio Server | * Zugriff auf LLMs von LM Studio Server | ||
+ | * [[https:// | ||
+ | * starte Anything LLM | ||
* Agenten | * Agenten | ||
* [[https:// | * [[https:// | ||
Zeile 37: | Zeile 41: | ||
* [[https:// | * [[https:// | ||
* starte Anaconda Powershell Prompt (miniconda3) -> conda activate crewai -> schreib deinen eigenen .py code | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate crewai -> schreib deinen eigenen .py code | ||
- | * Stable Diffusion | + | * Visual Studio Code Extension: |
+ | * [[https:// | ||
+ | * starte Ollama Server mit " | ||
+ | * Stable Diffusion | ||
* [[https:// | * [[https:// | ||
* starte Anaconda Powershell Prompt (miniconda3) -> conda activate comfyui -> C: | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate comfyui -> C: | ||
Zeile 46: | Zeile 53: | ||
* GPU support via DirectML | * GPU support via DirectML | ||
* ToDo: Konfig anpassen, dass die Modelle aus D: | * ToDo: Konfig anpassen, dass die Modelle aus D: | ||
+ | * Audio | ||
+ | * [[https:// | ||
+ | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate audiocraft -> C: | ||
+ | * MusicGen: | ||
==== LinuxMint ==== | ==== LinuxMint ==== |
playground/howto/ki-tools.txt · Zuletzt geändert: 2024/06/15 11:14 von ralf