Implementerò un modello di AI privato auto-ospitato sul tuo server

Alcune informazioni sono state tradotte automaticamente.

Germania

Parlo Tedesco, Inglese, Francese, Arabo

4 ordini completati

Sono un Product Owner e DevOps Engineer con un master in Ingegneria Informatica in Germania. La mia forza è colmare il divario tra gli obiettivi di business di alto livello e l'implementazione tecnic...
Informazioni su questo servizio

Tutti vogliono far funzionare l'AI. La maggior parte si blocca sull'infrastruttura.


Sono un ingegnere DevOps con sede in Germania. Implementerò un LLM completamente funzionante e auto-ospitato sul tuo server, privato, veloce e sotto il tuo controllo. Niente bollette API, nessun dato che lascia la tua infrastruttura. E conforme al GDPR


Con ciò che lavoro:

  • Ollama fast local model servingvLLM inferenza GPU ad alte prestazioni per produzione
  • Open WebUI interfaccia pulita simile a ChatGPT per il tuo team
  • LocalAI API compatibile con OpenAI per app esistenti
  • Docker + passthrough GPU su VPS o bare metal


Ciò che ottieni:

  • LLM in esecuzione accessibile tramite browser o API
  • NGINX reverse proxy + certificato SSL
  • Autenticazione in modo che non chiunque possa accedervi
  • La tua scelta di modello: Llama, Mistral, Gemma, Phi e altri
  • Documentazione per gestirlo autonomamente in seguito


Se sei uno sviluppatore che desidera un assistente di codifica privato, una startup che ha bisogno di uno strumento AI interno o un'azienda che non può inviare dati a OpenAI per motivi di conformità, non esitare a suonare il campanello!


Lavoro in inglese, tedesco, francese e arabo.

Strumenti:

Kubernetes

Docker

Amazon EKS

Google Kubernetes Engine

Framework:

Terraform

Ansible

Chef

Marionetta

SaltStack

Provider Cloud:

Amazon Web Services

microsoft azure

Linguaggio di programmazione:

Bash

C

Go

JavaScript

Kotlin

Python

Expertise:

Installazione

Migrazione

Configurazione

Altri servizi della categoria Ingegneria DevOps offerti da me