Syslinux

Um Linux Mint mit Syslinux zu starten, musst du zuerst Syslinux auf einen bootfähigen USB-Stick oder eine CD/DVD installieren. Anschließend musst du deinen Computer so konfigurieren, dass er vom USB-Stick oder der CD/DVD bootet. Nach dem Booten von Syslinux kannst du Linux Mint starten, indem du die entsprechende Option im Syslinux-Menü wählst, z.B. "Start Linux Mint Live".

open-webui

'''

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

'''

 --gpus=all

'''

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

'''

AI Platform

AI platforms free

ScreenApp

librechat-vs-openwebui
LibreChat vs Open WebUI: Wählen Sie die richtige ChatGPT-Benutzeroberfläche für Ihre Organisation

Möchten Sie KI nutzen und Ihre Daten im eigenen Haus halten? Tauchen Sie ein in unseren umfassenden Vergleich von LibreChat und Open WebUI – zwei leistungsstarke Open-Source-Plattformen, mit denen Sie sichere ChatGPT-ähnliche Systeme bauen können.

portkey
Portkey AI ist eine umfassende Plattform, die die KI-Integration für Entwickler und Organisationen optimieren und verbessern soll. Es dient als einheitliches Interface für die Interaktion mit über 250 KI-Modellen und bietet erweiterte Tools für Steuerung, Sichtbarkeit und Sicherheit in Ihren Generative KI-Apps.

first-request

Login
RobertP Your Portkey API key is ready to use
robi_portkey@robisys.de
Use this to authenticate all your requests to Portkey
hYIbJ6EEY392b94YJQMlmISN0dEy

what-is-portkey
Open Source
Wir haben unser kampferprobtes KI-Gateway offen zur Community bezogen - es verbindet sich mit mehr als 250 LLMs mit einer einheitlichen Schnittstelle und einem einzigen Endpunkt und ermöglicht es Ihnen mühelos, Fallbacks, Lastausgleich, Wiederholungen und mehr.

github.com: Portkey-AI/gateway

LibreChat

LibreChat ist die ultimative Open-Source-App für alle Ihre KI-Gespräche, vollständig anpassbar und kompatibel mit jedem KI-Anbieter - alles in einer schlanken Schnittstelle

LibreChat local docker

github: Discussions

about LibreChat ist eine kostenlose Open-Source-KI-Chat-Plattform, die es Ihnen ermöglicht, die Fähigkeiten von hochmodernen Sprachmodellen mehrerer Anbieter in einer einheitlichen Schnittstelle zu nutzen. Mit seinen umfangreichen Anpassungsoptionen, innovativen Verbesserungen und der nahtlosen Integration von KI-Diensten bietet LibreChat ein unvergleichliches Gesprächserlebnis.
LibreChat ist ein erweiterter, offener ChatGPT-Klon, der die neuesten Fortschritte in der KI-Technologie zusammenbringt. Es dient als zentraler Knotenpunkt für alle Ihre KI-Gespräche und bietet eine vertraute, benutzerfreundliche Benutzeroberfläche, die mit erweiterten Funktionen und Anpassungsfunktionen angereichert ist.

docker_linux

demo robi_librechat@robisys.de Kein API-Key gefunden

Benutzerauthentifizierung authentication

openai platform

openai

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

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

openAPI

api-key
OpenAPI Specification (früher Swagger Specification) ist ein API-Beschreibungsformat für REST APIs. Eine OpenAPI-Datei ermöglicht es Ihnen, Ihre gesamte API zu beschreiben, einschließlich:

API-Spezifikationen können in YAML oder JSON geschrieben werden. Das Format ist für Mensch und Maschine leicht zu erlernen und lesbar. Die komplette OpenAPI-Spezifikation finden Sie auf GitHub: OpenAPI 3.0 Spezifikation

Verweise

youtube und mehr Robi2.md

opensuse docker

KI x33

KI -Modelle

Ein KI-Modell ist ein Programm, das anhand eines Datensatzes trainiert wurde, um ohne menschliches Eingreifen bestimmte Muster zu erkennen oder bestimmte Entscheidungen zu treffen . Künstliche Intelligenzmodelle wenden verschiedene Algorithmen auf relevante Dateneingaben an, um die Aufgaben bzw. Ergebnisse zu erzielen, für die sie programmiert wurden.

Um das Potenzial von KI zu kategorisieren und zu verstehen, wird sie im Allgemeinen in vier verschiedene Typen eingeteilt: reaktive KI, KI mit begrenzter Speicherkapazität, Theory of Mind und KI mit Selbsterkenntnis.

kuenstliche-intelligenz/

https://blog.viadee.de/open-webui-litellm

gi.de/veranstaltung/die-eigene-ki-lokale-llms-und-rag-fuer-ki-loesungen-2

https://www.aibase.com/de/tool/28288

docs openwebui

Verbessern Sie die Leistung mit speziellen Taskmodellen
https://docs.openwebui.com/tutorials/tips/ improve-performance-local

docs.openwebui.com faq
Wir verstehen, dass Docker möglicherweise nicht jedermanns Präferenz ist, aber dieser Ansatz ist von zentraler Bedeutung für die Design- und Betriebseffizienz unseres Projekts. Wir betrachten das Engagement des Projekts für Docker als einen grundlegenden Aspekt und ermutigen diejenigen, die nach verschiedenen Einsatzmethoden suchen, gemeinschaftsgesteuerte Alternativen zu erkunden.

Phaser

github.com phaserjs
https://github.com/phaserjs/phaser
Phaser ist ein schnelles, kostenloses und unterhaltsames Open-Source-HTML5-Spielframe-Framework, das WebGL- und Canvas-Rendering über Desktop- und mobile Webbrowser bietet und seit über 10 Jahren aktiv entwickelt wird.

Neues Dokument

USC

robisys

ReText

Markdown-viewer

Webext

BBB ovgu

konferenz-st.educacloud.de

Linux Mint

linuxmint.com/

Linuxmintusers

forum.linuxmint

lmde LMDE (Linux Mint Debian Edition) ist eine freie Linux-Distribution, welche auf Debian basiert und mit dem für Linux Mint entwickelten Desktop Cinnamon ausgestattet ist. LMDE ist ein offizieller Ableger von Linux Mint.

Mit dem Debian-Unterbau möchten die Entwickler Mints Abhängigkeit von Ubuntu verringern. LMDE ist dadurch auch auf alten PCs ohne 64-Bit-Architektur und ohne PAE lauffähig.

Whatsapp

Chats mitlesen

faq

nummer gespeichert

Youtube

Lin mintLinux Mint anpassen optimieren und Tuning wie bei Windows

von win auf li Umstieg von Windows auf Linux - Gewohnte Apps installieren und Alternativen finden

Laptop mit LinuxAlte Laptops mit Linux wieder flott machen 🙂️ Es funktioniert 👍️

Mint für EinsteigerLinux Mint für Einsteiger in 15 Minuten - Download Installieren Updates Einrichten Anwendungen

Linux MintBesser als Windows? | Linux Mint im Test

Basiswissen für EinsteigerLinux Basiswissen für Einsteiger

Linux GamingLinux Gaming für Einsteiger

Linux als Gaming-SystemLinux wird gerade zum BESTEN Gaming-System!

Linux Befehle Linux Tutorial | 10 Linux Befehle die jeder Programmierer kennen sollte

Frag den Staat

Frag den Staat Beraterberichte

Wir kämpfen für Informationsfreiheit!

FragDenStaat ist die zentrale Anlaufstelle für Informationsfreiheit in Deutschland. Wir bringen Informationen an die Öffentlichkeit, die bisher in Aktenschränken verstaubten. Egal ob Lobbyisten-Mail, Umweltgutachten, Sitzungsprotokoll oder Kalendereintrag: FragDenStaat hilft dabei, sie mithilfe der Informationsfreiheitsgesetze (IFG) zu befreien und zu veröffentlichen.

Das Projekt besteht aus vier Säulen: der Anfrage-Plattform, Mitmach-Kampagnen, strategischen Klagen und investigativen Recherchen. Dabei setzen wir auf enge Partnerschaften mit Journalist:innen, Aktivist:innen und zivilgesellschaftlichen Initiativen. Reschke Fernsehen

KI-Campus

https://ki-campus.org/front Der KI-Campus ist eine Gemeinschaftsinitiative, die einzigartige Strukturen für Bildungsinnovationen auf regionaler, nationaler und europäischer Ebene schafft. Unsere Arbeit gliedert sich in mehrere Projekte, die KI- und Datenkompetenzen durch innovative, digitale Lernangebote stärken. Laufende wie auch bereits abgeschlossene Projekte, die durch die Geschäftsstelle des KI-Campus beim Stifterverband koordiniert werden, sind auf dieser Seite aufgeführt.

OVGU

Kurs: CMS-Schulung Egotec | E-Learning OvGU

https://wwwred.ovgu.de/admin.php?site=cmsschulung

OLLAMa

ollama
https://code.ovgu.de/usc/von-github/ollama

Anakin.ai
Ollama CheatSheet: Einstieg in das lokale Ausführen von LLM mit Ollama

/ LLM-Model-VRAM-Calculator

ollama network
To configure the Ollama server for network access, you need to adjust the environment variables that dictate how the server binds to network interfaces.

ollama webui

ollama-webui https://github.com/oslook/ollama-webui

ollama-webui
https://code.ovgu.de/usc/von-github/ollama-webui

open webui

open webui
Einen KI-Server mit Ollama und Open WebUI einrichten

open webui
Was ist Open WebUI?
Open WebUI, ehemals Ollama Webui, ist ein erweiterbares, funktionsreiches und benutzerfreundliches selbsthostendes WebUI, das vollständig offline funktioniert. Es unterstützt verschiedene LLM-Läufer, darunter Ollama- und OpenAI-kompatible APIs. Es ist ein revolutionäres lokales LLM-Bereitstellungs-Framework mit ChatGPT-ähnlicher Web-Schnittstelle.

docs open-webui

https://docs.openwebui.com/ Open WebUI ist eine erweiterbare, funktionsreiche und benutzerfreundliche, selbst gehostete KI-Plattform, die vollständig offline funktioniert. Es unterstützt verschiedene LLM-Läufer wie Ollama und OpenAI-kompatible APIs mit eingebauter Inferenz-Engine für RAG, was sie zu einer leistungsstarken KI-Bereitstellungslösung macht.

https://docs.openwebui.com/#quick-start-with-docker-

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

Für CPU Nur : Wenn Sie keine GPU verwenden, verwenden Sie stattdessen diesen Befehl:

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

https://docs.openwebui.com/tutorials/tips/rag-tutorial
In diesem Tutorial lernen Sie, wie Sie die Retrieval-Augmented Generation (RAG) mit Open WebUI nutzen können, um die reale Dokumentation als Wissensdatenbank zu laden. Wir werden durchgehen, wie man die neueste Open WebUI Documentation als Beispiel für dieses Setup verwendet.

open-webui local

localhost:3000/ open-webui local

ollama tinyllama library

Linux Befehle - lsof curl lscpu

lsof
Lsof findet, zeigt und untersucht Datenströme

curl

# Sehen, ob cURL installiert ist
curl --version

linux befehle

lscpu
Informationen zur Prozessorarchitektur anzeigen

openwebui Modelle

modelle

Modelle Ollama-Bibliothek

Mit Open WebUI können Sie Modelle direkt von der Weboberfläche hochladen, wobei Sie nur den Namen im Format model:size angeben müssen. Navigieren Sie dazu zu http://192.168.88.20:8080/admin/settings und klicken Sie auf Connections. Klicken Sie dann auf das Schraubenschlüssel-Symbol gegenüber der Zeichenfolge http://localhost:11434. Nachdem Sie sich die Namen der Modelle in der Bibliothek angesehen haben, geben Sie den Namen ein und klicken auf das Symbol zum Hochladen.