Um Linux Mint mit Syslinux zu starten, musst du zuerst Syslinux auf einen bootfähigen USB-Stick oder eine CD/DVD installieren. Anschließend musst du deinen Computer so konfigurieren, dass er vom USB-Stick oder der CD/DVD bootet. Nach dem Booten von Syslinux kannst du Linux Mint starten, indem du die entsprechende Option im Syslinux-Menü wählst, z.B. "Start Linux Mint Live".
'''
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
'''
--gpus=all
'''
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
'''
librechat-vs-openwebui
LibreChat vs Open WebUI: Wählen Sie die richtige ChatGPT-Benutzeroberfläche für Ihre Organisation
Möchten Sie KI nutzen und Ihre Daten im eigenen Haus halten? Tauchen Sie ein in unseren umfassenden Vergleich von LibreChat und Open WebUI – zwei leistungsstarke Open-Source-Plattformen, mit denen Sie sichere ChatGPT-ähnliche Systeme bauen können.
portkey
Portkey AI ist eine umfassende Plattform, die die KI-Integration für Entwickler und Organisationen optimieren und verbessern soll. Es dient als einheitliches Interface für die Interaktion mit über 250 KI-Modellen und bietet erweiterte Tools für Steuerung, Sichtbarkeit und Sicherheit in Ihren Generative KI-Apps.
Login
RobertP Your Portkey API key is ready to use
robi_portkey@robisys.de
Use this to authenticate all your requests to Portkey
hYIbJ6EEY392b94YJQMlmISN0dEy
what-is-portkey
Open Source
Wir haben unser kampferprobtes KI-Gateway offen zur Community bezogen - es verbindet sich mit mehr als 250 LLMs mit einer einheitlichen Schnittstelle und einem einzigen Endpunkt und ermöglicht es Ihnen mühelos, Fallbacks, Lastausgleich, Wiederholungen und mehr.
github.com: Portkey-AI/gateway
LibreChat ist die ultimative Open-Source-App für alle Ihre KI-Gespräche, vollständig anpassbar und kompatibel mit jedem KI-Anbieter - alles in einer schlanken Schnittstelle
LibreChat local docker
github: Discussions
about LibreChat ist eine kostenlose Open-Source-KI-Chat-Plattform, die es Ihnen ermöglicht, die Fähigkeiten von hochmodernen Sprachmodellen mehrerer Anbieter in einer einheitlichen Schnittstelle zu nutzen. Mit seinen umfangreichen Anpassungsoptionen, innovativen Verbesserungen und der nahtlosen Integration von KI-Diensten bietet LibreChat ein unvergleichliches Gesprächserlebnis.
LibreChat ist ein erweiterter, offener ChatGPT-Klon, der die neuesten Fortschritte in der KI-Technologie zusammenbringt. Es dient als zentraler Knotenpunkt für alle Ihre KI-Gespräche und bietet eine vertraute, benutzerfreundliche Benutzeroberfläche, die mit erweiterten Funktionen und Anpassungsfunktionen angereichert ist.
demo robi_librechat@robisys.de Kein API-Key gefunden
Benutzerauthentifizierung authentication
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
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
api-key
OpenAPI Specification (früher Swagger Specification) ist ein API-Beschreibungsformat für REST APIs. Eine OpenAPI-Datei ermöglicht es Ihnen, Ihre gesamte API zu beschreiben, einschließlich:
API-Spezifikationen können in YAML oder JSON geschrieben werden. Das Format ist für Mensch und Maschine leicht zu erlernen und lesbar. Die komplette OpenAPI-Spezifikation finden Sie auf GitHub: OpenAPI 3.0 Spezifikation
youtube und mehr Robi2.md
opensuse docker
Ein KI-Modell ist ein Programm, das anhand eines Datensatzes trainiert wurde, um ohne menschliches Eingreifen bestimmte Muster zu erkennen oder bestimmte Entscheidungen zu treffen . Künstliche Intelligenzmodelle wenden verschiedene Algorithmen auf relevante Dateneingaben an, um die Aufgaben bzw. Ergebnisse zu erzielen, für die sie programmiert wurden.
Um das Potenzial von KI zu kategorisieren und zu verstehen, wird sie im Allgemeinen in vier verschiedene Typen eingeteilt: reaktive KI, KI mit begrenzter Speicherkapazität, Theory of Mind und KI mit Selbsterkenntnis.
https://blog.viadee.de/open-webui-litellm
gi.de/veranstaltung/die-eigene-ki-lokale-llms-und-rag-fuer-ki-loesungen-2
https://www.aibase.com/de/tool/28288
Verbessern Sie die Leistung mit speziellen Taskmodellen
https://docs.openwebui.com/tutorials/tips/
improve-performance-local
docs.openwebui.com faq
Wir verstehen, dass Docker möglicherweise nicht jedermanns Präferenz ist, aber dieser Ansatz ist von zentraler Bedeutung für die Design- und Betriebseffizienz unseres Projekts. Wir betrachten das Engagement des Projekts für Docker als einen grundlegenden Aspekt und ermutigen diejenigen, die nach verschiedenen Einsatzmethoden suchen, gemeinschaftsgesteuerte Alternativen zu erkunden.
github.com phaserjs
https://github.com/phaserjs/phaser
Phaser ist ein schnelles, kostenloses und unterhaltsames Open-Source-HTML5-Spielframe-Framework, das WebGL- und Canvas-Rendering über Desktop- und mobile Webbrowser bietet und seit über 10 Jahren aktiv entwickelt wird.
lmde LMDE (Linux Mint Debian Edition) ist eine freie Linux-Distribution, welche auf Debian basiert und mit dem für Linux Mint entwickelten Desktop Cinnamon ausgestattet ist. LMDE ist ein offizieller Ableger von Linux Mint.
Mit dem Debian-Unterbau möchten die Entwickler Mints Abhängigkeit von Ubuntu verringern. LMDE ist dadurch auch auf alten PCs ohne 64-Bit-Architektur und ohne PAE lauffähig.
Lin mintLinux Mint anpassen optimieren und Tuning wie bei Windows
von win auf li Umstieg von Windows auf Linux - Gewohnte Apps installieren und Alternativen finden
Laptop mit LinuxAlte Laptops mit Linux wieder flott machen 🙂️ Es funktioniert 👍️
Mint für EinsteigerLinux Mint für Einsteiger in 15 Minuten - Download Installieren Updates Einrichten Anwendungen
Linux MintBesser als Windows? | Linux Mint im Test
Basiswissen für EinsteigerLinux Basiswissen für Einsteiger
Linux GamingLinux Gaming für Einsteiger
Linux als Gaming-SystemLinux wird gerade zum BESTEN Gaming-System!
Linux Befehle Linux Tutorial | 10 Linux Befehle die jeder Programmierer kennen sollte
Frag den Staat Beraterberichte
Wir kämpfen für Informationsfreiheit!
FragDenStaat ist die zentrale Anlaufstelle für Informationsfreiheit in Deutschland. Wir bringen Informationen an die Öffentlichkeit, die bisher in Aktenschränken verstaubten. Egal ob Lobbyisten-Mail, Umweltgutachten, Sitzungsprotokoll oder Kalendereintrag: FragDenStaat hilft dabei, sie mithilfe der Informationsfreiheitsgesetze (IFG) zu befreien und zu veröffentlichen.
Das Projekt besteht aus vier Säulen: der Anfrage-Plattform, Mitmach-Kampagnen, strategischen Klagen und investigativen Recherchen. Dabei setzen wir auf enge Partnerschaften mit Journalist:innen, Aktivist:innen und zivilgesellschaftlichen Initiativen. Reschke Fernsehen
https://ki-campus.org/front Der KI-Campus ist eine Gemeinschaftsinitiative, die einzigartige Strukturen für Bildungsinnovationen auf regionaler, nationaler und europäischer Ebene schafft. Unsere Arbeit gliedert sich in mehrere Projekte, die KI- und Datenkompetenzen durch innovative, digitale Lernangebote stärken. Laufende wie auch bereits abgeschlossene Projekte, die durch die Geschäftsstelle des KI-Campus beim Stifterverband koordiniert werden, sind auf dieser Seite aufgeführt.
Kurs: CMS-Schulung Egotec | E-Learning OvGU
https://wwwred.ovgu.de/admin.php?site=cmsschulung
ollama
https://code.ovgu.de/usc/von-github/ollama
Anakin.ai
Ollama CheatSheet: Einstieg in das lokale Ausführen von LLM mit Ollama
ollama network
To configure the Ollama server for network access, you need to adjust the environment variables that dictate how the server binds to network interfaces.
ollama-webui https://github.com/oslook/ollama-webui
ollama-webui
https://code.ovgu.de/usc/von-github/ollama-webui
open webui
Einen KI-Server mit Ollama und Open WebUI einrichten
open webui
Was ist Open WebUI?
Open WebUI, ehemals Ollama Webui, ist ein erweiterbares, funktionsreiches und benutzerfreundliches selbsthostendes WebUI, das vollständig offline funktioniert. Es unterstützt verschiedene LLM-Läufer, darunter Ollama- und OpenAI-kompatible APIs. Es ist ein revolutionäres lokales LLM-Bereitstellungs-Framework mit ChatGPT-ähnlicher Web-Schnittstelle.
https://docs.openwebui.com/ Open WebUI ist eine erweiterbare, funktionsreiche und benutzerfreundliche, selbst gehostete KI-Plattform, die vollständig offline funktioniert. Es unterstützt verschiedene LLM-Läufer wie Ollama und OpenAI-kompatible APIs mit eingebauter Inferenz-Engine für RAG, was sie zu einer leistungsstarken KI-Bereitstellungslösung macht.
https://docs.openwebui.com/#quick-start-with-docker-
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
https://docs.openwebui.com/tutorials/tips/rag-tutorial
In diesem Tutorial lernen Sie, wie Sie die Retrieval-Augmented Generation (RAG) mit Open WebUI nutzen können, um die reale Dokumentation als Wissensdatenbank zu laden. Wir werden durchgehen, wie man die neueste Open WebUI Documentation als Beispiel für dieses Setup verwendet.
localhost:3000/ open-webui local
lsof
Lsof findet, zeigt und untersucht Datenströme
# Sehen, ob cURL installiert ist
curl --version
lscpu
Informationen zur Prozessorarchitektur anzeigen
Modelle Ollama-Bibliothek
Mit Open WebUI können Sie Modelle direkt von der Weboberfläche hochladen, wobei Sie nur den Namen im Format model:size angeben müssen. Navigieren Sie dazu zu http://192.168.88.20:8080/admin/settings und klicken Sie auf Connections. Klicken Sie dann auf das Schraubenschlüssel-Symbol gegenüber der Zeichenfolge http://localhost:11434. Nachdem Sie sich die Namen der Modelle in der Bibliothek angesehen haben, geben Sie den Namen ein und klicken auf das Symbol zum Hochladen.