playground:howto:ki-tools
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
| Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
| playground:howto:ki-tools [2024/05/02 17:57] – ralf.baumann | playground:howto:ki-tools [2025/03/24 10:46] (aktuell) – ralf.baumann | ||
|---|---|---|---|
| Zeile 6: | Zeile 6: | ||
| * Text: Tools für local LLMs | * Text: Tools für local LLMs | ||
| * [[https:// | * [[https:// | ||
| - | * [[https:// | + | * [[https:// |
| * [[https:// | * [[https:// | ||
| * [[https:// | * [[https:// | ||
| Zeile 22: | Zeile 22: | ||
| * starte Anaconda Powershell Prompt (miniconda3) -> conda activate audiocraft -> C: | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate audiocraft -> C: | ||
| * MusicGen: | * MusicGen: | ||
| - | |||
| - | ===== Polarstern - AMD GPU ===== | ||
| - | |||
| - | * Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichern, um von allen Programmen aus Windows und Linux heraus genutzt zu werden. | ||
| - | ==== Windows ==== | ||
| - | |||
| - | * Large Language Models (LLMs) | ||
| - | * [[https:// | ||
| - | * starte LM Studio | ||
| - | * GPU support via ROCm, LLMs werden auf D:\llm gespeichert | ||
| - | * in LM Studio lassen sich system prompts pflegen, um die Eigenschaften des Bots zu beeinflussen. [[https:// | ||
| - | * [[https:// | ||
| - | * [[https:// | ||
| - | * [[https:// | ||
| - | * starte Docker Desktop -> starte AnythingLM container -> Öffne localhost: | ||
| - | * Zugriff auf LLMs von LM Studio Server | ||
| - | * [[https:// | ||
| - | * starte Anything LLM | ||
| - | * Agenten | ||
| - | * [[https:// | ||
| - | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate autogenstudio -> autogenstudio ui -> Öffne http:// | ||
| - | * [[https:// | ||
| - | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate crewai -> schreib deinen eigenen .py code | ||
| - | * Visual Studio Code Extension: | ||
| - | * [[https:// | ||
| - | * starte Ollama Server mit " | ||
| - | * Stable Diffusion | ||
| - | * [[https:// | ||
| - | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate comfyui -> C: | ||
| - | * GPU support via DirectML (langsamer als ROCm) | ||
| - | * ToDo: Konfig anpassen, dass die Modelle aus D: | ||
| - | * [[https:// | ||
| - | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate fooocus -> C: | ||
| - | * GPU support via DirectML | ||
| - | * ToDo: Konfig anpassen, dass die Modelle aus D: | ||
| - | * Audio | ||
| - | * [[https:// | ||
| - | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate audiocraft -> C: | ||
| - | * MusicGen: | ||
| - | |||
| - | ==== LinuxMint ==== | ||
| - | |||
playground/howto/ki-tools.1714665434.txt.gz · Zuletzt geändert: von ralf.baumann
