Sovereign AI Platform

Der KI-Stack. Auf dänischem Boden.

Mieten Sie eine Partition auf GEFION. 27 LLMs, Orchestrierung, Compliance und das Fundament — als ein Abonnement.

1.528 H100 GPUs 27 LLMs 0 Daten-Egress 100% DK

Die Herausforderung

Enterprise-KI ist entweder souverän ODER brauchbar. Nie beides.

Heute wählen Sie zwischen drei schlechten Wegen. Wir nehmen die Wahl.

Weg 1

Public Cloud APIs

OpenAI, Azure OpenAI, AWS Bedrock

  • Ihre Daten werden zu Trainingsdaten — ohne klares Opt-out.
  • CLOUD Act gibt US-Behörden Zugriff.
  • Keine Audit-Trail. Keine Dokumentation.

Weg 2

Eigenes Rechenzentrum

Von Grund auf, interner Betrieb

  • 12 Monate Umsetzung. Minimum.
  • 7 Mio. €+ CAPEX bevor der erste Prompt läuft.
  • Spezialisten-Team in Vollzeit. Compliance als Projekt.

Weg 3

Rohe GEFION-Miete

Nur Compute, keine Plattform

  • Sie bauen Orchestrierung und Load Balancing selbst.
  • Sie integrieren 27 Modell-Familien selbst.
  • Compliance, Audit und Dokumentation — Ihr Problem.

People's Lab nimmt Ihnen die Wahl.

Das Fundament

Sieben Schichten. Ein Stack. Sovereign by Design.

Von GPU bis Application. Wir liefern das Fundament. Sie bauen den Wert.

Applikationen auf dem Stack — klinische Tools, Research-Plattformen, Analytics-Dashboards.

Sie erhalten

  • Multi-Tenant API für Ihre Apps
  • Authentifizierung und rollenbasierter Zugriff
  • SDKs für Python, Node, Go
  • Observability: Latenz, Tokens, Fehler pro App
Alle liefern Apps — nicht das Fundament darunter.

Dynamische Modell-Auswahl, Queue-Management und Load Balancing. Sie senden einen Prompt — wir wählen Modell und GPU.

Sie erhalten

  • Routing-Engine mit Regeln pro Task-Typ
  • Load Balancer über GPU-Knoten
  • Model Selector nach Latenz-Vorgaben
  • Workload Manager mit Priority Queues
  • Fallback-Strategien bei Modell-Fehlern
AWS/Azure liefern es nicht. Sie bauen selbst.

27+ Open-Source LLMs integriert und GPU-optimiert. Eigene Fine-Tunes laufen nebenher.

Sie erhalten

  • Llama 3 (8B, 70B), Mistral (7B, 8x22B), Mixtral 8x7B
  • Gemma 2, Qwen 2.5, Phi-3, DeepSeek (Opt-in)
  • Custom Model Deployment mit vLLM
  • Zero-Training Policy: Ihre Daten verlassen nie den Stack
OpenAI = 1 Modell. Azure = 1 Anbieter. Bedrock = Lock-in.

Vektor-Datenbanken für RAG, Object Storage für Dokumente und ein unveränderliches Audit-Ledger pro Prompt.

Sie erhalten

  • Milvus oder pgvector — Sie wählen
  • S3-kompatibler Object Storage (MinIO)
  • SHA-256 signiertes Audit-Ledger pro Call
  • K-Anonymity in allen Logs
Keine Audit-Trail in Public Cloud.

Alle Runtime-Infrastruktur vorinstalliert und gewartet. Kein yum, apt oder Treiber-Chaos.

Sie erhalten

  • Kubernetes mit GPU-aware Scheduler
  • NVIDIA CUDA + CuDNN in kompatiblen Versionen
  • vLLM für High-Throughput Inference
  • PyTorch + TensorFlow einsatzbereit
Sonst installieren und betreiben Sie alles selbst.

Dedizierte Compute-Kapazität auf NVIDIA DGX H100-Knoten. InfiniBand zwischen Knoten, keine Überbuchung.

Sie erhalten

  • Dedizierte H100 GPUs (nicht geteilt)
  • InfiniBand 400 Gb/s zwischen Knoten
  • GPU-Scheduling pro Partition
  • Multi-Node Training Support
Public Cloud teilt GPUs. Keine dedizierte Zuteilung.

Physische Hardware in dänischem Rechenzentrum. Air-gapped vom Public Internet. Grüne Energie.

Sie erhalten

  • 191 NVIDIA DGX H100-Knoten auf GEFION
  • 1.528 H100 Tensor Core GPUs insgesamt
  • Air-gapped — kein Public Internet
  • Erneuerbare Energie (Green Power)
  • ISAE 3000-auditiertes Rechenzentrum
AWS/Azure haben nichts in DK mit diesen Specs.

Zielgruppen

Gebaut für die, die keine Kompromisse machen.

Consultancies

PwC, KPMG, Implement, Deloitte, McKinsey Digital

Pains

  • Sie bauen Lösungen, deren Infrastruktur Sie nicht besitzen wollen
  • Kunden fordern EU-Souveränität
  • Vendor Lock-in bei AWS/Azure schadet Ihrer Flexibilität

Gains

  • Whitelabel-Partition für Kunden
  • Fokus auf Wert-Layer: Advisory und Integration
  • Premium-Position als souveräne Alternative

Eine Consultancy betreibt fünf Kundenlösungen auf derselben Partition. Jeder Kunde hat eigene logische Tenancy. Die Consultancy hält die Kunden-Beziehung; wir liefern den Stack.

Regulated

Bank, Versicherung, Pharma, Verteidigung, öffentlicher Sektor

Pains

  • Dürfen keine Public Cloud für regulierte Daten nutzen
  • Eigenes Rechenzentrum kostet 7 Mio. €+ CAPEX
  • Keine Compliance-ready KI-Plattform in der EU

Gains

  • DK-Hosting mit Audit-Trail ab Tag 1
  • ISAE 3000-ready von Anfang an
  • 12 Monate Umsetzung überspringen

Eine dänische Bank betreibt Kredit-Risiko-Modelle auf privater Partition. Daten verlassen nie DK. EU AI Act-Compliance dokumentiert im Audit-Ledger.

Vertical SaaS

EPA-Anbieter, Banking-Software, Gov-Tech

Pains

  • Kunden fordern Souveränität; Sie wollen keine Compute betreiben
  • OpenAI-API zehrt Margen auf
  • Vendor Lock-in schadet Ihrem Exit

Gains

  • Multi-LLM ins Produkt einbetten
  • Stabile Preise, planbare Margen
  • Multi-Model-Freiheit ohne Lock-in

Ein EPA-Anbieter bettet einen KI-Journal-Assistenten ins Produkt ein. Die Klinik-Kunden sehen People's Lab als Hosting-Partner — Compliance ist gelöst.

Multi-Model

Eine Partition. 27 Modelle. Null Lock-in.

Jeder Task erhält das passende Modell. Wir routen. Sie bauen.

Das richtige Modell pro Task. Ohne manuelle Auswahl.

Klassifikation, Zusammenfassung, Code-Generierung und lange RAG-Abfragen haben verschiedene Optima. Ein 7B-Modell für Klassifikation, ein 70B für Reasoning, ein Custom Fine-Tune für Ihre Domäne.

Unsere Routing-Engine liest den Task-Typ und wählt das Modell. Sie schreiben einen Prompt. Wir orchestrieren Compute, Model Selection und Failover.

0127+ Open-Source LLMs
02Dynamische Modell-Auswahl pro Task
03Custom Model Deployment
04Zero-Training Policy
05GPU-optimierte Inference (vLLM)
06Kontinuierliche Modell-Updates

Partitions

Wählen Sie Ihre Partition.

Alle Tiers umfassen vollen Zugriff auf den Multi-LLM-Stack. Differenziert wird über Compute-Kapazität und Isolation.

Shared

Ab 2.000 €/Mo

Für Experimente und PoC

  • Geteilte GPU-Kapazität
  • Zugriff auf alle 27 LLMs
  • 10M Tokens inklusive
  • Audit-Trail und DK-Hosting
  • Community Support

Private Cloud

Ab 33.500 €/Mo

Für Regulated Enterprise

  • Dedizierte Multi-GPU-Partition
  • Isoliertes Netzwerk und VPN
  • ISAE 3000-Audit-Report inklusive
  • 99,9 % SLA
  • Benannter Onboarding-Engineer
  • Individuelle DPA und Compliance-Review

Enterprise

Custom

Skalierbar, Multi-Node

  • Multi-Node DGX-Allokation
  • Multi-Region möglich
  • 24/7 On-Call Support
  • Individuelles SLA
  • Dediziertes Solutions-Team
  • Air-gapped On-Prem Deployment möglich
+N

Alle Preise sind Platzhalter. 12 Monate Vertrag. Upgrade jederzeit. Kontaktieren Sie uns für finale Preise.

Add-ons konfigurieren

Gegenüber dem Markt

Die Wahl ist einfach.

Souveränität, Sicherheit, Performance, Vendor-Freiheit — gleichzeitig.

Kriterium People's Lab AWS Bedrock Azure OpenAI Claude API GEFION direkt
EU / DK Jurisdiktion
Multi-Model Support
Data Residency garantiert
Custom Model Deployment
Zero-Training Policy
Audit-Trail eingebaut
Private Deployment
Dänisches Hosting
Full-Stack (nicht nur Compute)
Ohne Vendor Lock-in

Die einzige vollständige souveräne KI-Plattform.

Infrastructure Intelligence Applications

Onboarding

Von Unterschrift bis Produktion in zwei Wochen.

1

Sign

DPA und Tier online wählen.

Selber Tag
2

Partition bereit

Wir allokieren Ihre Compute.

24 Stunden
3

Credentials

API-Key und Dashboard-Login per E-Mail.

Selber Tag
4

Erster API-Call

27 LLMs per Postman-Collection testen.

Selber Tag
5

Produktion

Dedizierte Onboarding-Unterstützung.

2 Wochen

Sicherheit

Daten bleiben in Dänemark.

Ihr Prompt aus Ihrer App VPN TUNNEL DK PERIMETER — AIR-GAPPED GEFION H100 Compute LLM routed model Antwort audit-signiert VPN TUNNEL — zurück
Außerhalb des Perimeters: USA Ireland Frankfurt Public Internet — keine ausgehenden Verbindungen.
DSGVO-konformDokumentiert in jeder Audit-Zeile
ISAE 3000-auditiertUnabhängige Prüfung durch Dritte
EU AI Act 2027-readyAudit-Trail und Modell-Governance vorhanden
Air-gappedKeine Verbindung zum Public Internet

Fragen

Typisch von technischen Entscheidern.

A

Shared läuft auf geteilter GPU-Kapazität mit Fair Scheduling — gut für PoC und Entwicklung. Dedicated bietet garantierte H100-Zuteilung mit 99,5 % SLA und planbarer Latenz — für Produktion mit geschäftskritischen Workloads.

A

Ja. Wir hosten Gewichte in Hugging Face-, GGUF- und safetensors-Format, bereitgestellt über vLLM. Custom Model Deployment ist in Dedicated und höher enthalten. Wir prüfen Kompatibilität vor Go-Live.

A

Reines OPEX. Monatliches Abo auf Ihre Partition, 12 Monate Vertrag. Keine Hardware-Investition. Token-Verbrauch über dem inkludierten Volumen wird als Overage abgerechnet — transparent und pro Modell.

A

Alle. Prompts, Antworten, Embeddings, Vektor-Indexe, Audit-Logs und Modell-Gewichte liegen auf GEFION in Dänemark. Nichts verlässt den Perimeter. Air-gapped vom Public Internet.

A

Ja. Der Shared-Tier hat einen Gratis-Test mit 10M Tokens inklusive. Sie erhalten am selben Tag einen API-Key und können gegen alle 27 LLMs laufen lassen. PoC läuft auf Shared und migriert ohne Code-Änderungen zu Dedicated.

A

Unsere DPA ist Baseline-DSGVO mit explizit definierten Auftragsverarbeiter-Rollen. Der ISAE 3000 Typ II-Report wird für Private Cloud und Enterprise bereitgestellt — er deckt Zugriffs-Kontrollen, Logging, Change Management und Sub-Processors ab.

A

Ihr Team über API-Keys. Unser SRE-Team hat Break-Glass-Zugriff — pro Nutzung im Audit-Ledger dokumentiert. Keine Dritten. Kein US-Mutterkonzern. Zero-Training Policy: Ihre Prompts werden nie zu Trainingsdaten.

A

Ja — der Enterprise-Tier umfasst On-Prem Deployment. Wir liefern denselben Stack als Appliance oder Air-gapped Deployment in Ihrem Rechenzentrum. Verteidigung und öffentlicher Sektor mit Classified Workloads laufen typischerweise hier.

Wenn Sie bereit sind

KI für Gesundheit, Bank oder Verteidigung — ohne Daten aus Dänemark zu verschieben.