Sovereign AI Platform

Hele AI-stacken. På dansk jord.

Lei en partisjon på GEFION. Få 27 LLM-er, orkestrering, compliance og hele fundamentet — som ett abonnement.

1 528 H100 GPU-er 27 LLM-er 0 data-egress 100 % DK

Utfordringen

Enterprise-AI er enten suveren ELLER brukbar. Aldri begge.

I dag må dere velge mellom tre dårlige veier. Vi fjerner valget.

Vei 1

Public Cloud APIs

OpenAI, Azure OpenAI, AWS Bedrock

  • Data blir treningsdata — uten tydelig opt-out.
  • CLOUD Act gir amerikanske myndigheter tilgang.
  • Ingen audit-trail. Ingen dokumentasjon.

Vei 2

Eget datasenter

Bygget fra bunnen, intern drift

  • 12 måneders implementering. Minimum.
  • 50M+ kr CAPEX før første prompt kjører.
  • Spesialistteam på heltid. Compliance som prosjekt.

Vei 3

Rå GEFION-leie

Bare compute, ingen plattform

  • Dere bygger selv orkestrering og load balancing.
  • Dere integrerer selv 27 modell-familier.
  • Compliance, audit og dokumentasjon — deres problem.

People's Lab fjerner valget.

Fundamentet

Syv lag. Én stack. Sovereign by design.

Fra GPU til application. Vi gir fundamentet. Dere bygger verdien.

Applikasjoner dere bygger oppå stacken — kliniske verktøy, research-plattformer, analyse-dashboards.

Dere får

  • Multi-tenant API til appene deres
  • Autentisering og rollebasert tilgang
  • SDK-er for Python, Node, Go
  • Observability: latency, tokens, feil pr. app
Alle leverer noen apper — men ikke fundamentet under.

Dynamisk modell-valg, kø-håndtering og load balancing. Dere sender én prompt — vi velger rett modell og GPU.

Dere får

  • Routing Engine med regler pr. task-type
  • Load balancer på tvers av GPU-noder
  • Model Selector basert på latency-krav
  • Workload Manager med priority queues
  • Fallback-strategier ved modell-feil
AWS/Azure leverer det ikke. Dere bygger selv.

27+ åpen kildekode-LLM-er integrert og GPU-optimalisert. Deploy egne fine-tunede modeller ved siden av.

Dere får

  • Llama 3 (8B, 70B), Mistral (7B, 8x22B), Mixtral 8x7B
  • Gemma 2, Qwen 2.5, Phi-3, DeepSeek (opt-in)
  • Custom model deployment med vLLM
  • Zero-training policy: data forlater aldri stacken
OpenAI = 1 modell. Azure = 1 leverandør. Bedrock = lock-in.

Vektor-databaser for RAG, object storage for dokumenter og et uforanderlig audit-ledger pr. prompt.

Dere får

  • Milvus eller pgvector — dere velger
  • S3-kompatibel object storage (MinIO)
  • SHA-256 signert audit-ledger pr. kall
  • K-anonymity i alle logger
Ingen audit-trail i public cloud.

All runtime-infrastruktur preinstallert og vedlikeholdt. Ingen yum, apt eller driver-helvete.

Dere får

  • Kubernetes med GPU-aware scheduler
  • NVIDIA CUDA + CuDNN i kompatible versjoner
  • vLLM for high-throughput inference
  • PyTorch + TensorFlow klar til bruk
Ellers må dere selv installere og drifte.

Dedikert compute på NVIDIA DGX H100-noder. InfiniBand mellom noder, ingen overbooking.

Dere får

  • Dedikerte H100 GPU-er (ikke delt)
  • InfiniBand 400 Gb/s mellom noder
  • GPU-scheduling pr. partisjon
  • Multi-node training support
Public cloud deler GPU-er. Ingen dedikert.

Fysisk hardware i dansk datasenter. Air-gapped fra public internet. Grønn strøm.

Dere får

  • 191 NVIDIA DGX H100-noder på GEFION
  • 1 528 H100 Tensor Core GPU-er totalt
  • Air-gapped — ingen public internet
  • Fornybar energi (green power)
  • ISAE 3000-auditert datasenter
AWS/Azure har ingenting i DK med disse specs.

Målgrupper

Bygget for de som ikke kan gå på kompromiss.

Consultancies

PwC, KPMG, Implement, Deloitte, McKinsey Digital

Pains

  • Dere bygger løsninger dere ikke vil eie infrastruktur bak
  • Klienter krever EU-suverenitet
  • Vendor lock-in i AWS/Azure skader fleksibiliteten deres

Gains

  • Whitelabel-partisjon til klienter
  • Fokusér på verdi-laget: advisory og integrasjon
  • Premium-posisjon som suverent alternativ

En consultancy bygger fem kundeløsninger på samme partisjon. Hver klient har egen logisk tenancy. Consultancy eier kundeforholdet, vi leverer stacken.

Regulated

Bank, forsikring, pharma, forsvar, offentlig sektor

Pains

  • Kan ikke bruke public cloud for regulert data
  • Eget datasenter koster 50M+ kr CAPEX
  • Ingen compliance-ready AI-plattform i EU

Gains

  • DK-hosting med audit-trail fra dag 1
  • ISAE 3000-ready fra start
  • Hopp over 12 måneders implementering

En dansk bank kjører kreditt-risiko-modeller på privat partisjon. Data forlater aldri DK. EU AI Act-compliance dokumentert i audit-ledger.

Vertical SaaS

EPJ-leverandører, bank-software, gov-tech

Pains

  • Kunder krever suverenitet, dere vil ikke drifte compute
  • OpenAI-API tapper marginer
  • Vendor lock-in skader exit-en deres

Gains

  • Bygg multi-LLM inn i produktet deres
  • Stabile priser, forutsigbare marginer
  • Multi-model frihet uten lock-in

En EPJ-leverandør bygger en AI-journal-assistent inn i produktet. Klinikk-kundene ser People's Lab som hosting-partner — compliance er avklart.

Multi-model

Én partisjon. 27 modeller. Null lock-in.

Hver task får rett modell. Vi router. Dere bygger.

Rett modell pr. task. Uten manuelt valg.

Klassifikasjon, oppsummering, kode-generering og lange RAG-spørringer har forskjellige optima. En 7B-modell til klassifikasjon, en 70B til reasoning, en custom fine-tune til domenet deres.

Routing-motoren leser task-typen og velger modellen. Dere skriver én prompt. Vi orkestrerer compute, model-selection og failover.

0127+ åpen kildekode-LLM-er
02Dynamisk modell-valg pr. task
03Custom model deployment
04Zero-training policy
05GPU-optimalisert inference (vLLM)
06Kontinuerlige modell-oppdateringer

Partisjoner

Velg partisjon.

Alle tiers inkluderer full tilgang til multi-LLM-stacken. Differensieringen er compute-kapasitet og isolasjon.

Shared

Fra 15 000 kr/mnd

Til eksperimenter og PoC

  • Delt GPU-kapasitet
  • Tilgang til alle 27 LLM-er
  • 10M tokens inkludert
  • Audit-trail og DK-hosting
  • Community support

Private Cloud

Fra 250 000 kr/mnd

Til regulert enterprise

  • Dedikert multi-GPU-partisjon
  • Isolert nettverk og VPN
  • ISAE 3000-audit report inkludert
  • 99,9 % SLA
  • Navngitt onboarding-engineer
  • Custom DPA og compliance-review

Enterprise

Custom

Skalerbar, multi-node

  • Multi-node DGX-allokering
  • Multi-region mulig
  • 24/7 on-call support
  • Custom SLA
  • Dedikert solutions team
  • Air-gapped on-prem deployment mulig
+N

Alle priser er veiledende plassholdere. 12 måneders kontrakt. Oppgradering når som helst. Kontakt oss for endelige priser.

Konfigurer add-ons

Mot konkurrenten

Valget er enkelt.

Suverenitet, sikkerhet, ytelse, vendor-frihet — samtidig.

Kriterium People's Lab AWS Bedrock Azure OpenAI Claude API GEFION direkte
EU / DK jurisdiksjon
Multi-model support
Data residency garantert
Custom model deployment
Zero-training policy
Audit-trail innebygget
Private deployment
Dansk hosting
Full-stack (ikke bare compute)
Uten vendor lock-in

Den eneste komplette suverene AI-plattformen.

Infrastructure Intelligence Applications

Onboarding

Fra signatur til produksjon på to uker.

1

Sign

DPA og velg tier på nett.

Samme dag
2

Partisjon klar

Vi allokerer compute-en deres.

24 timer
3

Credentials

API-key og dashboard-login på e-post.

Samme dag
4

Første API-kall

Test 27 LLM-er via Postman-kolleksjon.

Samme dag
5

Produksjon

Dedikert onboarding-support.

2 uker

Sikkerhet

Data forblir i Danmark.

Prompt fra appen VPN TUNNEL DK PERIMETER — AIR-GAPPED GEFION H100 compute LLM routed model Respons audit-signert VPN TUNNEL — retur
Utenfor perimeter: USA Ireland Frankfurt Public internet — ingen utgående forbindelser.
GDPR-compliantDokumentert i hver audit-linje
ISAE 3000-auditertUavhengig tredjeparts-revisjon
EU AI Act 2027-readyAudit-trail og modell-governance klart
Air-gappedIngen forbindelse til public internet

Spørsmål

Typisk fra tekniske beslutningstakere.

A

Shared kjører på delt GPU-kapasitet med fair scheduling — bra for PoC og utvikling. Dedicated gir garantert H100-allokering med 99,5 % SLA og forutsigbar latency — for produksjon med forretningskritiske workloads.

A

Ja. Vi hoster vekter i Hugging Face-, GGUF- og safetensors-format, levert via vLLM. Custom model deployment er inkludert i Dedicated og oppover. Vi validerer kompatibilitet før go-live.

A

Ren OPEX. Månedlig abonnement på partisjonen, 12 måneders kontrakt. Ingen hardware-investering. Token-forbruk over inkludert volum faktureres som overage — transparent og pr. modell.

A

Alle. Prompts, responses, embeddings, vektor-indekser, audit-logger og modell-vekter ligger på GEFION i Danmark. Ingenting forlater perimeteret. Air-gapped fra public internet.

A

Ja. Shared tier har gratis prøveperiode med 10M tokens inkludert. Dere får API-key samme dag og kan kjøre mot alle 27 LLM-er. PoC kjører på Shared, migreres til Dedicated uten kode-endringer.

A

Vår DPA er baseline-GDPR med databehandler-roller eksplisitt definert. ISAE 3000 Type II-erklæring utleveres til Private Cloud og Enterprise — den dekker tilgangskontroller, logging, change management og sub-processors.

A

Teamet deres via API-keys. SRE-teamet vårt har break-glass-tilgang — dokumentert i audit-ledger ved hver bruk. Ingen tredjeparter. Ingen US-parent. Zero-training policy: prompts blir aldri treningsdata.

A

Ja — Enterprise tier inkluderer on-prem deployment. Vi leverer samme stack som appliance eller air-gapped deployment i datasenteret deres. Forsvar og offentlig sektor med classified workloads kjører typisk her.

Når dere er klare

Bygg helsens, bankens eller forsvarets AI — uten å flytte data ut av Danmark.