Sovereign AI Platform

Hele AI-stacken. På dansk jord.

Lej en partition på GEFION. Få 27 LLM'er, orchestration, compliance og hele fundamentet — som ét abonnement.

1.528 H100 GPUs 27 LLMs 0 data-egress 100% DK

Udfordringen

Enterprise AI er enten suveræn ELLER brugbar. Aldrig begge.

I dag skal I vælge mellem tre dårlige veje. Vi fjerner valget.

Vej 1

Public Cloud APIs

OpenAI, Azure OpenAI, AWS Bedrock

  • Data bliver trænings-data — uden klart opt-out.
  • CLOUD Act giver amerikanske myndigheder adgang.
  • Ingen audit-trail. Ingen dokumentation.

Vej 2

Eget datacenter

Bygget fra bunden, intern drift

  • 12 måneders implementering. Minimum.
  • 50M+ kr CAPEX før første prompt kører.
  • Specialistteam på fuldtid. Compliance som projekt.

Vej 3

Rå GEFION-leje

Bare compute, ingen platform

  • I bygger selv orchestration og load balancing.
  • I integrerer selv 27 model-familier.
  • Compliance, audit og dokumentation — jeres problem.

People's Lab fjerner valget.

Fundamentet

Syv lag. Én stack. Sovereign by design.

Fra GPU til application. Vi giver fundamentet. I bygger værdien.

Applikationer I selv bygger oven på stacken — kliniske tools, research-platforms, analyse-dashboards.

I får

  • Multi-tenant API til jeres apps
  • Authentication + rollebaseret adgang
  • SDK til Python, Node, Go
  • Observability: latency, tokens, fejl pr. app
Alle leverer nogle apps — men ikke fundamentet under.

Dynamisk model-selektion, kø-styring og load balancing. I sender én prompt — vi vælger den rigtige model og GPU.

I får

  • Routing Engine med regler pr. task-type
  • Load balancer på tværs af GPU-noder
  • Model Selector baseret på latency-krav
  • Workload Manager med priority queues
  • Fallback-strategier ved model-fejl
AWS/Azure giver det ikke. I bygger selv.

27+ open-source LLMs integreret og GPU-optimeret. Deploy jeres egne fine-tuned modeller ved siden af.

I får

  • Llama 3 (8B, 70B), Mistral (7B, 8x22B), Mixtral 8x7B
  • Gemma 2, Qwen 2.5, Phi-3, DeepSeek (opt-in)
  • Custom model deployment med vLLM
  • Zero-training policy: jeres data forlader aldrig stacken
OpenAI = 1 model. Azure = 1 leverandør. Bedrock = vendor lock-in.

Vektor-databaser til RAG, object storage til dokumenter, og en uforanderlig audit-ledger til hver prompt.

I får

  • Milvus eller pgvector — I vælger
  • S3-kompatibel object storage (MinIO)
  • SHA-256 signeret audit-ledger pr. kald
  • K-anonymity på alle logs
Ingen audit-trail i public cloud.

Al runtime-infrastruktur preinstalleret og vedligeholdt. Ingen yum, apt eller driver-helvede.

I får

  • Kubernetes med GPU-aware scheduler
  • NVIDIA CUDA + CuDNN i kompatible versioner
  • vLLM til high-throughput inference
  • PyTorch + TensorFlow klar til brug
I skal ellers selv installere og drifte.

Dedikeret compute på NVIDIA DGX H100-noder. InfiniBand mellem noder, ingen overbookning.

I får

  • Dedikerede H100 GPUs (ikke delte)
  • InfiniBand 400 Gb/s mellem noder
  • GPU-scheduling per partition
  • Multi-node training support
Public cloud deler GPU'er. I får ikke dedikeret.

Fysisk hardware i dansk datacenter. Air-gapped fra public internet. Grøn strøm.

I får

  • 191 NVIDIA DGX H100-noder på GEFION
  • 1.528 H100 Tensor Core GPUs total
  • Air-gapped — ingen public internet
  • Vedvarende energi (green power)
  • ISAE 3000-audited datacenter
AWS/Azure har intet i DK med disse specs.

Målgrupper

Bygget for dem der ikke kan gå på kompromis.

Consultancies

PwC, KPMG, Implement, Deloitte, McKinsey Digital

Pains

  • I bygger løsninger I ikke vil eje infrastruktur bag
  • Klienter kræver EU-suverænitet
  • Vendor lock-in i AWS/Azure skader jeres fleksibilitet

Gains

  • Whitelabel partition til klienter
  • Fokusér på værdi-laget: advisory og integration
  • Premium-position som sovereign alternativ

En consultancy bygger fem kundeløsninger på samme partition. Hver klient har egen logisk tenancy. Consultancy ejer kundeforholdet, vi leverer stacken.

Regulated

Bank, forsikring, pharma, forsvar, offentlig sektor

Pains

  • Må ikke bruge public cloud til reguleret data
  • Eget datacenter koster 50M+ kr CAPEX
  • Ingen compliance-ready AI-platform i EU

Gains

  • DK-hosting med audit-trail fra dag 1
  • ISAE 3000-ready fra start
  • Skip 12 måneders implementering

En dansk bank kører kredit-risiko-modeller på privat partition. Data forlader aldrig DK. EU AI Act-compliance dokumenteret i audit-ledger.

Vertical SaaS

EPJ-leverandører, bank-software, gov-tech

Pains

  • Kunder kræver sovereignty, I vil ikke drive compute
  • OpenAI-API dræner marginer
  • Vendor lock-in skader jeres exit

Gains

  • Embed multi-LLM i jeres produkt
  • Stabile priser, forudsigelige marginer
  • Multi-model frihed uden lock-in

En EPJ-leverandør embedder AI-journal-assistent i produktet. Deres klinikkunder ser People's Lab som hosting-partner — compliance er afklaret.

Multi-model

Én partition. 27 modeller. Nul lock-in.

Hver task får den rigtige model. Vi routerer. I bygger.

Rigtig model pr. task. Uden at I skal vælge manuelt.

Klassifikation, opsummering, kode-generering og lange RAG-forespørgsler har forskellige optimums. En 7B-model til klassifikation, en 70B til reasoning, en custom fine-tune til jeres domæne.

Vores Routing Engine læser task-typen og vælger modellen. I skriver én prompt. Vi orkestrerer compute, model-selection og failover.

0127+ open-source LLMs
02Dynamisk model-selektion pr. task
03Custom model deployment
04Zero-training policy
05GPU-optimeret inference (vLLM)
06Kontinuerlige model-opdateringer

Partitions

Vælg jeres partition.

Alle tiers inkluderer fuld adgang til multi-LLM-stacken. Differentieringen er compute-kapacitet og isolation.

Shared

Fra 15.000 kr/md

Til eksperimenter og PoC

  • Delt GPU-kapacitet
  • Adgang til alle 27 LLMs
  • 10M tokens inkluderet
  • Audit-trail + DK-hosting
  • Community support

Private Cloud

Fra 250.000 kr/md

Til regulated enterprise

  • Dedikeret multi-GPU partition
  • Isoleret netværk + VPN
  • ISAE 3000-audit report inkluderet
  • SLA 99.9 %
  • Named onboarding engineer
  • Custom DPA + compliance-review

Enterprise

Custom

Skalerbar, multi-node

  • Multi-node DGX-allokering
  • Multi-region mulig
  • 24/7 on-call support
  • Custom SLA
  • Dedikeret solutions team
  • Air-gapped on-prem deployment mulig
+N

Alle priser er vejledende placeholder. 12 mdr kontrakt. Upgrade anytime. Kontakt os for endelige priser.

Konfigurér add-ons

Mod konkurrenten

Valget er enkelt.

Suverænitet, sikkerhed, performance, vendor-frihed — samtidig.

Kriterium People's Lab AWS Bedrock Azure OpenAI Claude API GEFION direkte
EU / DK jurisdiktion
Multi-model support
Data residency garanteret
Custom model deployment
Zero-training policy
Audit-trail built-in
Private deployment
Dansk hosting
Full-stack (ikke kun compute)
Uden vendor lock-in

Den eneste komplette suveræne AI-platform.

Infrastructure Intelligence Applications

Onboarding

Fra signatur til produktion på to uger.

1

Sign

DPA + vælg tier online.

Samme dag
2

Partition provisioneres

Vi allokerer jeres compute.

24 timer
3

Credentials

API-key + dashboard-login via email.

Samme dag
4

Første API-call

Prøv 27 LLMs via vores Postman-collection.

Samme dag
5

Produktion

Dedikeret onboarding-support.

2 uger

Sikkerhed

Data forbliver i Danmark.

Din prompt fra jeres app VPN TUNNEL DK PERIMETER — AIR-GAPPED GEFION H100 compute LLM routed model Respons audit-signeret VPN TUNNEL — retur
Uden for perimeter: USA Ireland Frankfurt Public internet — ingen udadgående forbindelser.
GDPR-compliantDokumenteret i hver audit-linje
ISAE 3000-auditedUafhængig tredjeparts-revision
EU AI Act 2027-readyAudit-trail + model-governance klar
Air-gappedIngen forbindelse til public internet

Spørgsmål

Typisk fra tekniske beslutningstagere.

A

Shared kører på delt GPU-kapacitet med fair-scheduling — godt til PoC og udvikling. Dedicated giver jer garanteret H100-allokering med 99,5 % SLA og forudsigelig latency — til produktion med forretningskritiske workloads.

A

Ja. Vi hoster vægte i Hugging Face-, GGUF- og safetensors-format, og serverer dem via vLLM. Custom model deployment er inkluderet i Dedicated og opefter. Vi validerer kompatibilitet før go-live.

A

Ren OPEX. Månedlig abonnement på jeres partition, 12 måneders kontrakt. Ingen hardware-investering. Token-forbrug over inkluderet volumen faktureres som overage — transparent og pr. model.

A

Alle. Prompts, responses, embeddings, vektor-indekser, audit-logs og model-vægte ligger på GEFION i Danmark. Intet forlader perimeteret. Air-gapped fra public internet.

A

Ja. Shared tier har gratis prøveperiode med 10M tokens inkluderet. I får API-key samme dag og kan køre mod alle 27 LLMs. Proof-of-concept køres på Shared, migreres til Dedicated uden kode-ændringer.

A

Vores DPA er base-line GDPR med databehandler-roller eksplicit defineret. ISAE 3000 Type II-erklæring udleveres til Private Cloud og Enterprise — den dækker adgangs-kontroller, logning, change management og sub-processors.

A

Jeres team via API-keys. Vores SRE-team har break-glass-adgang — dokumenteret i audit-ledger ved hver brug. Ingen tredjeparter. Ingen US-parent. Zero-training policy: jeres prompts bliver aldrig til trænings-data.

A

Ja — Enterprise tier inkluderer on-prem deployment. Vi leverer samme stack som appliance eller air-gapped deployment i jeres datacenter. Forsvar og offentlig sektor med classified workloads kører typisk her.

Når I er klar

Byg sundhedens, bankens eller forsvarets AI — uden at flytte data ud af Danmark.