playground:howto:ki-tools
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
| Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
| playground:howto:ki-tools [2024/05/02 19:22] – [Windows] Ralf Baumann | playground:howto:ki-tools [2026/04/26 17:25] (aktuell) – Holger Weber | ||
|---|---|---|---|
| Zeile 2: | Zeile 2: | ||
| ===== KI Laptop - NVIDIA GPU ===== | ===== KI Laptop - NVIDIA GPU ===== | ||
| + | |||
| ==== Windows ==== | ==== Windows ==== | ||
| * Text: Tools für local LLMs | * Text: Tools für local LLMs | ||
| * [[https:// | * [[https:// | ||
| - | * [[https:// | + | * [[https:// |
| * [[https:// | * [[https:// | ||
| * [[https:// | * [[https:// | ||
| Zeile 17: | Zeile 18: | ||
| * [[https:// | * [[https:// | ||
| * [[https:// | * [[https:// | ||
| - | * [[https:// | + | * [[https:// |
| * Audio | * Audio | ||
| * [[https:// | * [[https:// | ||
| * starte Anaconda Powershell Prompt (miniconda3) -> conda activate audiocraft -> C: | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate audiocraft -> C: | ||
| - | * MusicGen: | + | * MusicGen: |
| - | + | ||
| - | ===== Polarstern - AMD GPU ===== | + | |
| - | + | ||
| - | * Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichern, um von allen Programmen aus Windows und Linux heraus genutzt zu werden. | + | |
| - | ==== Windows ==== | + | |
| - | + | ||
| - | * Large Language Models (LLMs) | + | |
| - | * [[https:// | + | |
| - | * starte LM Studio | + | |
| - | * GPU support via ROCm, LLMs werden auf D:\llm gespeichert | + | |
| - | * in LM Studio lassen sich system prompts pflegen, um die Eigenschaften des Bots zu beeinflussen. [[https:// | + | |
| - | * [[https:// | + | |
| - | * [[https:// | + | |
| - | * [[https:// | + | |
| - | * starte Docker Desktop -> starte AnythingLM container -> Öffne localhost: | + | |
| - | * Zugriff auf LLMs von LM Studio Server | + | |
| - | * [[https:// | + | |
| - | * starte Anything LLM | + | |
| - | * Agenten | + | |
| - | * [[https:// | + | |
| - | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate autogenstudio -> autogenstudio ui -> Öffne | + | |
| - | * [[https:// | + | |
| - | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate crewai -> schreib deinen eigenen .py code | + | |
| - | * Visual Studio Code Extension: | + | |
| - | * [[https:// | + | |
| - | * starte Ollama Server mit " | + | |
| - | * Stable Diffusion | + | |
| - | * [[https:// | + | |
| - | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate comfyui -> C: | + | |
| - | * GPU support via DirectML (langsamer als ROCm) | + | |
| - | * ToDo: Konfig anpassen, dass die Modelle aus D: | + | |
| - | * [[https:// | + | |
| - | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate fooocus -> C: | + | |
| - | * GPU support via DirectML | + | |
| - | * ToDo: Konfig anpassen, dass die Modelle aus D: | + | |
| - | * Audio | + | |
| - | * [[https:// | + | |
| - | * starte Anaconda Powershell Prompt (miniconda3) -> conda activate audiocraft -> C: | + | |
| - | * MusicGen: | + | |
| - | ==== LinuxMint | + | ==== KI - Rechner Polaris |
| + | * Host: Polaris | ||
| + | * IP: 192.168.201.58 | ||
| + | * MAC: 9c: | ||
| + | * System: Ollama | ||
playground/howto/ki-tools.1714670567.txt.gz · Zuletzt geändert: von Ralf Baumann
