STERNENLABOR

Wiki und Dokuspace

Benutzer-Werkzeuge

Webseiten-Werkzeuge


playground:howto:ki-tools

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
playground:howto:ki-tools [2024/04/26 07:53] – [Windows] Ralf Baumannplayground:howto:ki-tools [2026/04/26 17:25] (aktuell) Holger Weber
Zeile 2: Zeile 2:
  
 ===== KI Laptop - NVIDIA GPU ===== ===== KI Laptop - NVIDIA GPU =====
 +
 ==== Windows ==== ==== Windows ====
  
   * Text: Tools für local LLMs    * Text: Tools für local LLMs 
     * [[https://lmstudio.ai/|LM Studio]]     * [[https://lmstudio.ai/|LM Studio]]
-    * [[https://ollama.ai/|Ollama]] auf dem WSL Ubuntu+    * [[https://ollama.ai/|Ollama]] auf Windows und dem WSL Ubuntu
     * [[https://github.com/oobabooga/text-generation-webui|Text Generation WebUI]]     * [[https://github.com/oobabooga/text-generation-webui|Text Generation WebUI]]
     * [[https://github.com/Mintplex-Labs/anything-llm|AnythingLM]] Docker - localhost:3001 - RAG     * [[https://github.com/Mintplex-Labs/anything-llm|AnythingLM]] Docker - localhost:3001 - RAG
Zeile 17: Zeile 18:
     * [[https://github.com/comfyanonymous/ComfyUI|ComfyUI]]     * [[https://github.com/comfyanonymous/ComfyUI|ComfyUI]]
     * [[https://github.com/AUTOMATIC1111/stable-diffusion-webui|Automatic1111]]     * [[https://github.com/AUTOMATIC1111/stable-diffusion-webui|Automatic1111]]
-    * [[https://github.com/lllyasviel/Fooocus|Fooocus]]  
- 
-===== Polarstern - AMD GPU ===== 
- 
- * Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichern, um von allen Programmen aus Windows und Linux heraus genutzt zu werden. 
-==== Windows ==== 
- 
- * Large Language Models (LLMs)  
-    * [[https://lmstudio.ai/|LM Studio - ROCm Preview]] 
-      * starte LM Studio  
-      * GPU support via ROCm 
-      * LLMs auf D:\llm   
-    * [[https://ollama.com/|Ollama]] 
-      * [[https://github.com/ollama/ollama/issues/2551|change model location]] to D:\llm  
-    * [[https://github.com/Mintplex-Labs/anything-llm|AnythingLM für RAG Test]]  
-      * starte Docker Desktop -> starte AnythingLM container -> Öffne localhost:3001 im Browser 
-      * Zugriff auf LLMs von LM Studio Server  
-  * Agenten 
-    * [[https://autogen-studio.com/|AutoGen Studio]]  
-      * starte Anaconda Powershell Prompt (miniconda3) -> conda activate autogenstudio -> autogenstudio ui -> Öffne http://localhost:8081/ im Browser 
-    * [[https://github.com/joaomdmoura/CrewAI|CrewAI]] 
-      * starte Anaconda Powershell Prompt (miniconda3) ->  conda activate crewai -> schreib deinen eigenen .py code 
-   * Visual Studio Code Extension:  
-      * [[https://marketplace.visualstudio.com/items?itemName=Continue.continue|Continue]] (CoPilot der auch für lokale LLMs genutzt werden kann)  
-      * ToDO: LLM konfigurieren 
-* Stable Diffusion 
-    * [[https://github.com/comfyanonymous/ComfyUI|ComfyUI]] 
-      * starte Anaconda Powershell Prompt (miniconda3) ->  conda activate comfyui ->  C:\Users\Sternenlabor\comfyui\ --> python main.py --directml 
-      * GPU support via DirectML (langsamer als ROCm) 
-      * ToDo: Konfig anpassen, dass die Modelle aus D:\stable-diffusion genutzt werden  
     * [[https://github.com/lllyasviel/Fooocus|Fooocus]]     * [[https://github.com/lllyasviel/Fooocus|Fooocus]]
-      * starte Anaconda Powershell Prompt (miniconda3) ->  conda activate fooocus ->  C:\Users\Sternenlabor\fooocus--> python -s entry_with_update.py --directml +  * Audio 
-      * GPU support via DirectML  +    * [[https://github.com/facebookresearch/audiocraft|AudiCraft]] 
-      * ToDoKonfig anpassen, dass die Modelle aus D:\stable-diffusion genutzt werden +      * starte Anaconda Powershell Prompt (miniconda3) ->  conda activate audiocraft -> C:\Users\Sternenlabor\audiocraft\ 
 +        * MusicGen:  python -m demos.musicgen_app --share  --> [[http://127.0.0.1:7860/]]
  
-==== LinuxMint ====+==== KI - Rechner Polaris ====
  
 +  * Host: Polaris 
 +  * IP: 192.168.201.58
 +  * MAC: 9c:6b:00:25:9e:9d
 +  * System: Ollama
  
  
playground/howto/ki-tools.1714110789.txt.gz · Zuletzt geändert: von Ralf Baumann

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki