STERNENLABOR

Wiki und Dokuspace

Benutzer-Werkzeuge

Webseiten-Werkzeuge


playground:howto:ki-tools

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
playground:howto:ki-tools [2024/04/25 08:16] – [Windows] ralfplayground:howto:ki-tools [2024/06/15 11:14] (aktuell) ralf
Zeile 18: Zeile 18:
     * [[https://github.com/AUTOMATIC1111/stable-diffusion-webui|Automatic1111]]     * [[https://github.com/AUTOMATIC1111/stable-diffusion-webui|Automatic1111]]
     * [[https://github.com/lllyasviel/Fooocus|Fooocus]]      * [[https://github.com/lllyasviel/Fooocus|Fooocus]] 
 +  * Audio
 +    * [[https://github.com/facebookresearch/audiocraft|AudiCraft]]
 +      * starte Anaconda Powershell Prompt (miniconda3) ->  conda activate audiocraft -> C:\Users\Sternenlabor\audiocraft\
 +        * MusicGen:  python -m demos.musicgen_app --share  --> http://127.0.0.1:7860/
  
 ===== Polarstern - AMD GPU ===== ===== Polarstern - AMD GPU =====
  
- * Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichern um von allen Programmen aus Windows und Linux heraus genutzt zu werden.+ * Ziel ist es die KI-Modelle auf einer eigenen Partition zu speichernum von allen Programmen aus Windows und Linux heraus genutzt zu werden.
 ==== Windows ==== ==== Windows ====
  
Zeile 27: Zeile 31:
     * [[https://lmstudio.ai/|LM Studio - ROCm Preview]]     * [[https://lmstudio.ai/|LM Studio - ROCm Preview]]
       * starte LM Studio        * starte LM Studio 
-      * GPU support via ROCm +      * GPU support via ROCm, LLMs werden auf D:\llm gespeichert 
-      * LLMs auf D:\llm  +      * in LM Studio lassen sich system prompts pflegen, um die Eigenschaften des Bots zu beeinflussen. [[https://github.com/mustvlad/ChatGPT-System-Prompts/tree/main|Beispiele]], [[https://www.promptgaia.com/chatgpt-prompts/|mehr Beispiele]]. 
 +    * [[https://ollama.com/|Ollama]] 
 +      * [[https://github.com/ollama/ollama/issues/2551|change model location]] to D:\llm 
     * [[https://github.com/Mintplex-Labs/anything-llm|AnythingLM für RAG Test]]      * [[https://github.com/Mintplex-Labs/anything-llm|AnythingLM für RAG Test]] 
       * starte Docker Desktop -> starte AnythingLM container -> Öffne localhost:3001 im Browser       * starte Docker Desktop -> starte AnythingLM container -> Öffne localhost:3001 im Browser
       * Zugriff auf LLMs von LM Studio Server        * Zugriff auf LLMs von LM Studio Server 
 +    * [[https://useanything.com/download|anythingLM Desktop]]
 +      * starte Anything LLM 
   * Agenten   * Agenten
     * [[https://autogen-studio.com/|AutoGen Studio]]      * [[https://autogen-studio.com/|AutoGen Studio]] 
       * starte Anaconda Powershell Prompt (miniconda3) -> conda activate autogenstudio -> autogenstudio ui -> Öffne http://localhost:8081/ im Browser       * starte Anaconda Powershell Prompt (miniconda3) -> conda activate autogenstudio -> autogenstudio ui -> Öffne http://localhost:8081/ im Browser
-    * [[https://github.com/joaomdmoura/CrewAI|CrewAI]]+    * [[https://github.com/joaomdmoura/CrewAI|CrewAI]], [[https://python.langchain.com/docs/get_started/introduction|LangChain]]
       * starte Anaconda Powershell Prompt (miniconda3) ->  conda activate crewai -> schreib deinen eigenen .py code       * starte Anaconda Powershell Prompt (miniconda3) ->  conda activate crewai -> schreib deinen eigenen .py code
- * Stable Diffusion+   * Visual Studio Code Extension:  
 +      * [[https://marketplace.visualstudio.com/items?itemName=Continue.continue|Continue]] (CoPilot der auch für lokale LLMs genutzt werden kann) [[https://docs.continue.dev/intro|Docs]]; [[https://medium.com/@smfraser/how-to-use-a-local-llm-as-a-free-coding-copilot-in-vs-code-6dffc053369d|Guide]] 
 +      * starte Ollama Server mit "ollama serve" --> 127.0.0.1:11434  und dann VisualStudioCode 
 +* Stable Diffusion
     * [[https://github.com/comfyanonymous/ComfyUI|ComfyUI]]     * [[https://github.com/comfyanonymous/ComfyUI|ComfyUI]]
       * starte Anaconda Powershell Prompt (miniconda3) ->  conda activate comfyui ->  C:\Users\Sternenlabor\comfyui\ --> python main.py --directml       * starte Anaconda Powershell Prompt (miniconda3) ->  conda activate comfyui ->  C:\Users\Sternenlabor\comfyui\ --> python main.py --directml
Zeile 46: Zeile 57:
       * GPU support via DirectML        * GPU support via DirectML 
       * ToDo: Konfig anpassen, dass die Modelle aus D:\stable-diffusion genutzt werden        * ToDo: Konfig anpassen, dass die Modelle aus D:\stable-diffusion genutzt werden 
 +* Audio
 +  * [[https://github.com/facebookresearch/audiocraft|AudiCraft]]
 +    * starte Anaconda Powershell Prompt (miniconda3) ->  conda activate audiocraft -> C:\Users\Sternenlabor\audiocraft\
 +      * MusicGen:  python -m demos.musicgen_app --share  --> http://127.0.0.1:7860/
  
 ==== LinuxMint ==== ==== LinuxMint ====
  
- +* Stable Diffusion 
 +    * [[https://github.com/comfyanonymous/ComfyUI|ComfyUI]] 
 +    * starte den ComfyUI Server im Terminal via: python ~/ComfyUI/main.py 
 +    * öffne das ComfyUI im Browser via: http://127.0.0.1:8188 
 +* Large Language Models 
 +    * [[https://ollama.com/|Ollama]]
playground/howto/ki-tools.1714025796.txt.gz · Zuletzt geändert: 2024/04/25 08:16 von ralf

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki