Zum Inhalt springen

MCP Gateway

Web-basierter MCP Gateway mit Multi-LLM Support. Zugriff auf deine MCP Server von jedem Gerät - ohne Desktop App.

Web-basiert

Von überall zugreifen

Multi-LLM

Gemini, OpenAI, Claude, Groq

Remote MCP

Server auf Railway/VPS

Cloudflare Auth

Sichere Authentifizierung

MCP (Model Context Protocol) ist mächtig - aber alle Clients sind Desktop-Apps:

  • Claude Desktop → Rechner muss laufen
  • Gemini MCP Desktop → Lokal installiert
  • CLI Tools → Terminal nötig

Wer mehrere Geräte nutzt (Desktop, Laptop, Handy) ist aufgeschmissen.

MCP Gateway ist ein Web-Interface das:

  • Multi-LLM Support - Gemini, OpenAI, Claude, Groq, OpenRouter
  • BYOK - Bring Your Own Key (dein eigener API Key)
  • Remote MCP Server verbindet (auf Railway, VPS, etc.)
  • Im Browser läuft (jedes Gerät, überall)
  • Cloudflare Access für sichere Authentifizierung
  • Import/Export - Konfiguration als JSON-Datei sichern
┌─────────────────────────────────────────────────────────┐
│ Browser │
│ (überall, jedes Gerät) │
└─────────────────────────────────────────────────────────┘
│ HTTPS
┌─────────────────────────────────────────────────────────┐
│ MCP Gateway │
│ (mcp-gateway.codeback.de) │
└─────────────────────────────────────────────────────────┘
┌─────────────────┼─────────────────┐
▼ ▼ ▼
┌─────────┐ ┌─────────┐ ┌─────────┐
│ LLM API │ │ Neo4j │ │ REST │
│ (BYOK) │ │ Bridge │ │ APIs │
└─────────┘ └─────────┘ └─────────┘

MCP Gateway ist als gehostete Version verfügbar:

mcp-gateway.codeback.de

  1. Seite besuchen und “Get Started” klicken
  2. Mit Email anmelden (One-time Code via Cloudflare)
  3. LLM Provider und API Key konfigurieren
  4. MCP Server hinzufügen (Neo4j, REST API, Supabase)
  5. Chatten mit deinen MCP Servern
  • 100 kostenlose Credits zum Start
  • Cloudflare-geschützte Authentifizierung
  • Multi-LLM Support (bring your own API key)
  • Eigene MCP Server hinzufügen (Neo4j, REST, Supabase)
  • Import/Export - Konfiguration als JSON sichern
  • Live Status - Verbundene MCP Server im Chat Header sichtbar
DatenSpeicherortPersistent?
Email, CreditsServer✅ Ja
LLM Provider/ModelServer✅ Ja
API KeyBrowser Session❌ Nein
MCP Server ConfigsBrowser Session❌ Nein

Empfehlung: Nutze die Export-Funktion um deine Konfiguration lokal zu sichern.

PlanPreisCredits
Free$0100 Credits
Pro$10/Monat1.000 Credits (coming soon)

1 Credit = 1 Chat-Nachricht oder 1 Tool-Call

ProviderModelle
Google Geminigemini-2.0-flash, gemini-1.5-pro
OpenAIgpt-4o, gpt-4o-mini, gpt-4-turbo
Anthropicclaude-3-5-sonnet, claude-3-opus
Groqllama-3.3-70b, mixtral-8x7b
OpenRouterAlle verfügbaren Modelle

Nach dem Login findest du unter Settings zwei Tabs:

  1. LLM Provider - API Key und Modell wählen
  2. MCP Servers - Server hinzufügen/entfernen

Neo4j (Cypher Queries)

{
"name": "neo4j",
"type": "neo4j",
"url": "https://neo4j-web-bridge.railway.app"
}

REST API

{
"name": "my-api",
"type": "rest",
"url": "https://api.example.com"
}

Supabase (SQL)

{
"name": "supabase",
"type": "supabase",
"url": "https://your-project.supabase.co"
}

Unter dem MCP Servers Tab findest du:

  • Export Config - Lädt mcp-gateway-config.json herunter
  • Import Config - Lädt eine JSON-Datei hoch

Config Format:

{
"llmProvider": "gemini",
"llmModel": "gemini-2.0-flash",
"mcpServers": [
{
"name": "neo4j",
"type": "neo4j",
"url": "https://neo4j-web-bridge.railway.app"
}
]
}

Im Chat Header siehst du:

  • LLM Provider - Welches Modell aktiv ist
  • MCP Server Badges - Alle verbundenen Server mit Status (Hover für URL)

Öffne den Gateway im Browser und chatte:

“Zeig mir alle Projekte in der Neo4j Datenbank”

Der Gateway:

  1. Schickt deine Frage an dein gewähltes LLM
  2. LLM erkennt: “Ich brauche neo4j_query Tool”
  3. Gateway ruft Neo4j Bridge auf
  4. Ergebnis kommt zurück
  5. LLM formuliert Antwort

Mit Neo4j als MCP Server kannst du deinen Knowledge Graph via natürlicher Sprache verwalten:

Lesen:

“Zeig mir alle Nodes im Graph”

Schreiben:

“Erstelle einen Node für das Projekt MCP Gateway mit status=‘Live’”

Beziehungen:

“Verbinde Steven mit dem MCP Gateway Projekt”

Beratung:

“Analysiere meinen Graph und berate mich, wie ich das Projekt am besten anlege”

Das LLM analysiert die bestehende Struktur und schlägt konsistente Labels, Properties und Beziehungen vor.