LiteLLM der Universaladapter für dein AI Tool

Na, ein cooles Tool gefunden, das mit ChatGPT arbeitet? So wie z.B. ich dieses Jahr Karakeep. Aber du oder z.B. dein Datenschutzbeauftragter im Betrieb hat Bauchschmerzen, wenn OpenAI als Hoster des LLMs (Large Language Model) verwendet wird? – Naja, und das vermutlich zu Recht

Wenn das Tool deiner Wahl aber nur die API (Application Programming Interface) von OpenAI implementiert hat, tja, dann schaust du in die Röhre… Oder du nutzt LiteLLM.

LiteLLM ist sowas wie ein Universal-Adapter zwischen den APIs der verschiedenen LLM-Anbieter. Zwar merkt man, dass sich die großen Anbieter immer näher kommen, aber einen wirklichen Standard gibt es leider noch nicht. LiteLLM als eine Art Man-in-the-Middle übersetzt z.B. einen API-Call, der eigentlich an die API von OpenAI gehen sollte, an den Standard, den z.B. die API von Mistral vorgibt, oder Azure OpenAI, oder Anthropic oder deine lokal gehostete Ollama-Instanz oder… you name it.

Screenshot der LiteLLM-Website zeigt ein Architektur-Diagramm mit der zentralen LiteLLM-Box, die Funktionen wie Cost Tracking, Model Access, Budgets, Rate Limiting und Prompt Management enthält, verbunden mit einem User-Icon links und mehreren AI-Modell-Icons rechts

Das Schöne ist, du hast auf einmal die Wahl und bist nicht gefangen im Vendor-Lock-in. Viele Tool-Entwickler setzen sogar mittlerweile darauf, dass ein Tool wie LiteLLM verwendet wird. Denn mittlerweile gibt es einen ganzen Blumenstrauß an LLM-Anbietern und jeden Anbieter, den sich die jeweilige Community wünscht, anzubinden, das bindet ’ne Menge Ressourcen.

Wer einigermaßenmit Docker klarkommt , für den ist LiteLLM aufsetzen ein Kinderspiel. In ein paar Minuten läuft der Container und du bist ein großes Stück flexibler:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert