[{"data":1,"prerenderedAt":818},["ShallowReactive",2],{"wissen-\u002Fwissen\u002Fprivate-ki-vs-chatgpt":3,"autor-nico-meyer":278,"related-\u002Fwissen\u002Fprivate-ki-vs-chatgpt":447},{"id":4,"title":5,"author":6,"body":7,"cover":257,"coverAlt":257,"dateModified":258,"datePublished":258,"description":259,"draft":260,"extension":261,"faqItems":257,"format":262,"meta":263,"navigation":264,"path":265,"pillar":266,"readMinutes":267,"relatedServiceSlug":268,"relatedVariantSlug":257,"seo":269,"speakable":264,"stem":270,"tags":271,"__hash__":277},"wissen\u002Fwissen\u002Fprivate-ki-vs-chatgpt.md","Private KI vs. ChatGPT: Was deutscher Mittelstand 2026 wirklich braucht","nico-meyer",{"type":8,"value":9,"toc":241},"minimark",[10,27,32,35,46,50,53,58,65,69,76,80,87,91,98,102,201,205,212,216,219,225,229],[11,12,13,14,18,19,22,23,26],"p",{},"Eine der häufigsten Fragen 2026: „Brauchen wir wirklich eine eigene KI – ChatGPT Enterprise oder Microsoft Copilot reichen doch?\" Die Antwort ist differenziert und hängt an drei Punkten: ",[15,16,17],"strong",{},"wo Daten landen",", ",[15,20,21],{},"wer haftet"," und ",[15,24,25],{},"welche Quellen das System sehen muss",".",[28,29,31],"h2",{"id":30},"was-sie-mit-chatgpt-enterprise-copilot-bekommen","Was Sie mit ChatGPT Enterprise \u002F Copilot bekommen",[11,33,34],{},"Beide sind exzellente Produkte mit klaren Stärken: solide Modellqualität, riesiges Ökosystem, schnelle Einführung, vertraglich zugesicherte Auftragsverarbeitung. Für viele Standardaufgaben – Texte umformulieren, Mails zusammenfassen, Code-Snippets erklären – reichen sie aus.",[11,36,37,38,41,42,45],{},"Was sie aber ",[15,39,40],{},"strukturell"," nicht ändern: Ihre Daten verlassen Ihr Unternehmen. Auch wenn OpenAI und Microsoft vertraglich zusichern, Daten nicht zum Modelltraining zu verwenden, bleibt es eine ",[15,43,44],{},"Auftragsverarbeitung in den USA"," oder über US-Konzerne, mit den bekannten DSGVO-Grauzonen rund um den Cloud Act.",[28,47,49],{"id":48},"wann-das-ein-problem-wird","Wann das ein Problem wird",[11,51,52],{},"Drei Konstellationen, in denen öffentliche KI-Dienste für Mittelständler 2026 keine saubere Lösung sind:",[54,55,57],"h3",{"id":56},"_1-sie-haben-mandantengeheimnis-oder-vergleichbare-berufsgeheimnisse","1. Sie haben Mandantengeheimnis oder vergleichbare Berufsgeheimnisse",[11,59,60,61,64],{},"Steuerberater, Wirtschaftsprüfer, Anwälte, Ärzte, Notare: Ihre Verschwiegenheitspflicht ist ",[15,62,63],{},"persönlich"," (nicht delegierbar) und wird von Berufskammern aktiv geprüft. Ein Verstoß ist berufsrechtlich relevant – nicht nur DSGVO-relevant. Eine externe Cloud, in der Mandantenakten landen, ist hier kein Alltag-Fall, sondern ein Ausnahmefall, der dokumentiert und genehmigt sein müsste.",[54,66,68],{"id":67},"_2-sie-unterliegen-nis2-oder-branchen-compliance-kritis-bafin-etc","2. Sie unterliegen NIS2 oder Branchen-Compliance (KRITIS, BAFIN, etc.)",[11,70,71,72,75],{},"Mit NIS2 wird Cyber-Sorgfalt zur ",[15,73,74],{},"Geschäftsführerpflicht",". Wer in einem Audit nicht erklären kann, wo welche Daten verarbeitet werden, bekommt ein Problem. Eine Private-KI-Plattform mit Audit-Log und vollständiger Datenkontrolle ist deutlich einfacher zu verteidigen als „wir nutzen ChatGPT Enterprise und vertrauen den Verträgen\".",[54,77,79],{"id":78},"_3-ihr-wertvollstes-asset-ist-ihr-internes-wissen","3. Ihr wertvollstes Asset ist Ihr internes Wissen",[11,81,82,83,86],{},"Konstruktionspläne im Maschinenbau, Verfahrensdokumentation in der Pharma, Strategiepapiere im Beratungsgeschäft, Prozesswissen im produzierenden Gewerbe: Wenn das, womit Sie Geld verdienen, ",[15,84,85],{},"nicht in einer fremden Cloud landen sollte",", ist eine Private-KI-Plattform keine teure Sonderlösung, sondern Standard-Risikomanagement.",[28,88,90],{"id":89},"wann-chatgpt-copilot-ausreichen","Wann ChatGPT \u002F Copilot ausreichen",[11,92,93,94,97],{},"Genauso ehrlich umgekehrt: Wenn Ihr Unternehmen ",[15,95,96],{},"keine"," der oben genannten Punkte erfüllt – und die KI nur für unstrukturierte Texte ohne sensiblen Bezug genutzt wird – sind ChatGPT Enterprise oder Copilot oft die schnellere und einfachere Wahl. Sie zahlen für ein fertiges Produkt; Sie sparen sich Ingestion-Pipeline, Hosting und Betrieb. Wer „nur\" einen smarten Schreibassistenten will, braucht keine eigene Vektordatenbank.",[28,99,101],{"id":100},"direkter-vergleich","Direkter Vergleich",[103,104,105,121],"table",{},[106,107,108],"thead",{},[109,110,111,115,118],"tr",{},[112,113,114],"th",{},"Kriterium",[112,116,117],{},"ChatGPT Enterprise \u002F Copilot",[112,119,120],{},"Private KI (on-prem oder EU-Cloud)",[122,123,124,136,147,158,169,179,190],"tbody",{},[109,125,126,130,133],{},[127,128,129],"td",{},"Wo landen Daten?",[127,131,132],{},"Auftragsverarbeiter (US-Konzern, EU-Region)",[127,134,135],{},"Eigene Infrastruktur oder EU-Cloud",[109,137,138,141,144],{},[127,139,140],{},"Mandantengeheimnis sauber?",[127,142,143],{},"Eingeschränkt, einzelfallabhängig",[127,145,146],{},"Ja, bei sauberer Architektur",[109,148,149,152,155],{},[127,150,151],{},"Antworten mit Quellen aus eigenen Dokumenten?",[127,153,154],{},"Begrenzt (Connectors)",[127,156,157],{},"Ja (RAG mit Quellenangabe)",[109,159,160,163,166],{},[127,161,162],{},"Rollen- und Rechte-Modell auf Dokumentebene?",[127,164,165],{},"Begrenzt",[127,167,168],{},"Ja, frei konfigurierbar",[109,170,171,174,176],{},[127,172,173],{},"Audit-Log NIS2-tauglich?",[127,175,165],{},[127,177,178],{},"Ja, vollständig im eigenen System",[109,180,181,184,187],{},[127,182,183],{},"Time-to-Value",[127,185,186],{},"Tage",[127,188,189],{},"30 Tage (mit Pilot-Modell)",[109,191,192,195,198],{},[127,193,194],{},"Laufende Kosten",[127,196,197],{},"Pro User pro Monat",[127,199,200],{},"Setup + Betrieb (planbar)",[28,202,204],{"id":203},"häufiger-mittelweg-hybrid","Häufiger Mittelweg: Hybrid",[11,206,207,208,211],{},"In der Praxis sehen wir 2026 oft einen ",[15,209,210],{},"Hybrid-Ansatz",": ChatGPT Enterprise oder Copilot für den breiten Mitarbeiter-Alltag (Texte, Schnellzugriff, allgemeine Recherche) – und parallel eine Private-KI-Plattform für die wirklich sensiblen Use-Cases (Mandantenakten, Verträge, interne Strategie). Das gibt Mitarbeitenden Komfort und schützt das Kronjuwel-Wissen.",[28,213,215],{"id":214},"empfehlung","Empfehlung",[11,217,218],{},"Die richtige Frage ist nicht „ChatGPT oder Private KI?\", sondern: „Wo verläuft bei uns die Linie zwischen unkritisch und kritisch?\". Diese Linie zu ziehen ist eine Geschäftsführungs-Entscheidung, kein IT-Projekt. Wer diese Frage nicht aktiv beantwortet, beantwortet sie passiv – und das ist genau das, was bei einem NIS2-Audit nicht überzeugend wirkt.",[11,220,221,222],{},"Wer die Frage einmal sauber durchsprechen will – wo bei Ihnen die Linie verläuft, was öffentliche KI abdeckt und wo Private KI sinnvoll ist – ruft an: ",[15,223,224],{},"Direkt mit Nico Meyer, werktags 9–18 Uhr.",[28,226,228],{"id":227},"weiterlesen","Weiterlesen",[230,231,232],"ul",{},[233,234,235,240],"li",{},[236,237,239],"a",{"href":238},"\u002Fwissen\u002Fprivate-ki-leitfaden","\"Private KI für den Mittelstand: Der Leitfaden 2026\""," – der Hauptleitfaden mit Architektur, DSGVO\u002FNIS2 und Pilot-Modell.",{"title":242,"searchDepth":243,"depth":243,"links":244},"",2,[245,246,252,253,254,255,256],{"id":30,"depth":243,"text":31},{"id":48,"depth":243,"text":49,"children":247},[248,250,251],{"id":56,"depth":249,"text":57},3,{"id":67,"depth":249,"text":68},{"id":78,"depth":249,"text":79},{"id":89,"depth":243,"text":90},{"id":100,"depth":243,"text":101},{"id":203,"depth":243,"text":204},{"id":214,"depth":243,"text":215},{"id":227,"depth":243,"text":228},null,"2026-05-05","ChatGPT, Copilot oder eigene Private-KI-Plattform? Ein nüchterner Vergleich für mittelständische Unternehmen mit DSGVO-, NIS2- und Mandantengeheimnis-Anforderungen.",false,"md","spoke",{},true,"\u002Fwissen\u002Fprivate-ki-vs-chatgpt","sicherheit","5","private-ki",{"title":5,"description":259},"wissen\u002Fprivate-ki-vs-chatgpt",[268,272,273,274,275,276],"chatgpt","copilot","dsgvo","mittelstand","vergleich","_xa_KBPh-i-Q-D2iVvX_h54E8BefEp03cejr_hZ9iWU",{"id":279,"title":280,"bioShort":281,"body":282,"company":418,"companyUrl":419,"description":420,"extension":261,"hasOccupation":421,"isGuest":260,"jobTitle":422,"knowsAbout":423,"meta":435,"name":280,"navigation":264,"path":436,"photo":437,"publications":438,"sameAs":443,"seo":444,"slug":6,"stem":445,"__hash__":446},"autoren\u002Fautoren\u002Fnico-meyer.md","Nico Meyer","Gründer von Code15. Baut seit 10+ Jahren Software für den Mittelstand – heute mit Fokus auf Private KI, RAG-Systeme und sichere KI-Einführung in regulierten Branchen.",{"type":8,"value":283,"toc":411},[284,291,295,298,302,305,312,316,342,346,364,368],[11,285,286,287,290],{},"Nico Meyer ist Gründer und Geschäftsführer der Code15 GmbH mit Sitz in Unstrut-Hainich, Thüringen. Er begleitet mittelständische Unternehmen seit über zehn Jahren bei der Konzeption, Entwicklung und dem Betrieb individueller Software-Systeme – seit 2024 mit klarem Schwerpunkt auf ",[15,288,289],{},"sicheren, internen KI-Plattformen"," für Branchen mit hohen Datenschutzanforderungen: Steuerkanzleien, Wirtschaftsprüfung, Anwaltskanzleien, Ingenieurbüros und produzierende Unternehmen.",[28,292,294],{"id":293},"werdegang","Werdegang",[11,296,297],{},"Nach Stationen als Fullstack Engineer in Produkt- und Beratungsumgebungen gründete Nico 2020 die Code15 GmbH. Schwerpunkte: Vue\u002FNuxt-basierte Web-Anwendungen, AWS-Architektur und Cost-Optimierung sowie – seit 2024 – produktionsreife KI-Systeme, die ausschließlich auf eigener Infrastruktur betrieben werden („Private KI\"). Code15 hat in dieser Zeit u. a. SUSS MicroTec, Agile Heroes und German Arrowheads bei Software- und Cloud-Vorhaben unterstützt und das eigene Private-KI-Programm mit definiertem 30-Tage-Go-Live entwickelt.",[28,299,301],{"id":300},"fokus-heute-private-ki-für-regulierte-branchen","Fokus heute: Private KI für regulierte Branchen",[11,303,304],{},"Die meisten KI-Tools, die heute in Unternehmen ankommen, lösen ein neues Problem aus: Sensible Daten landen unkontrolliert in US-Cloud-Diensten. 50 % der Mitarbeitenden nutzen laut Software AG bereits KI-Tools ohne Genehmigung; 38 % geben dabei sensible Daten ein. Die durchschnittliche Datenpanne kostet deutsche Unternehmen 3,87 Mio. €. Mit NIS2 (in Kraft seit 2024, Umsetzungsdruck 2026) haftet die Geschäftsführung im Zweifel persönlich.",[11,306,307,308,311],{},"Nicos Antwort darauf ist eine ",[15,309,310],{},"schlüsselfertige Private-KI-Plattform",": Chat plus Dokumentenwissen mit Quellenangabe, Rollen und Audit-Trail – betrieben on-prem, in EU-Cloud oder in der Kunden-Infrastruktur. Kein Datenabfluss, keine US-Provider-Abhängigkeit, keine Halluzinationen ohne Quellen. Liefermodell: definierter 30-Tage-Pilot mit klarem Scope statt offener Beratungsstunden.",[28,313,315],{"id":314},"schwerpunkte","Schwerpunkte",[230,317,318,324,330,336],{},[233,319,320,323],{},[15,321,322],{},"Architektur und Betrieb"," von Private-KI-Systemen (LLM-Auswahl, RAG-Pipeline, Vector-DBs, Audit-Logging)",[233,325,326,329],{},[15,327,328],{},"DSGVO- und NIS2-konforme Einführung"," von KI in Unternehmen mit Mandantengeheimnis und besonderen Sorgfaltspflichten",[233,331,332,335],{},[15,333,334],{},"KI-Workshops für Geschäftsführung und IT-Verantwortliche"," – Use-Case-Discovery, Risiko-Mapping, Richtlinien-Templates",[233,337,338,341],{},[15,339,340],{},"Modernisierung bestehender Web-Systeme"," (Vue 2 → 3 \u002F Nuxt 3, AWS-Kostenoptimierung)",[28,343,345],{"id":344},"standpunkt","Standpunkt",[347,348,349],"blockquote",{},[11,350,351,352,355,356,359,360,363],{},"„Künstliche Intelligenz im Mittelstand scheitert selten an der Technik. Sie scheitert daran, dass niemand klar definiert, ",[15,353,354],{},"welches Wissen"," das System sehen darf, ",[15,357,358],{},"wer"," Antworten freigibt und ",[15,361,362],{},"wo"," die Daten am Ende liegen. Private KI ist die Antwort auf alle drei Fragen.\"",[28,365,367],{"id":366},"kontakt","Kontakt",[230,369,370,381,390,401],{},[233,371,372,375,376,380],{},[15,373,374],{},"Telefon:"," ",[236,377,379],{"href":378},"tel:+491608405463","+49 160 8405463"," – werktags 9–18 Uhr, direkt mit Nico",[233,382,383,375,386],{},[15,384,385],{},"E-Mail:",[236,387,389],{"href":388},"mailto:info@code15.dev","info@code15.dev",[233,391,392,375,395],{},[15,393,394],{},"LinkedIn:",[236,396,400],{"href":397,"rel":398},"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Ffullstack-entwickler-nico-meyer",[399],"nofollow","fullstack-entwickler-nico-meyer",[233,402,403,375,406],{},[15,404,405],{},"GitHub:",[236,407,410],{"href":408,"rel":409},"https:\u002F\u002Fgithub.com\u002FIc3m4n34",[399],"Ic3m4n34",{"title":242,"searchDepth":243,"depth":243,"links":412},[413,414,415,416,417],{"id":293,"depth":243,"text":294},{"id":300,"depth":243,"text":301},{"id":314,"depth":243,"text":315},{"id":344,"depth":243,"text":345},{"id":366,"depth":243,"text":367},"Code15 GmbH","https:\u002F\u002Fcode15.dev","Nico Meyer ist Gründer und Geschäftsführer der Code15 GmbH mit Sitz in Unstrut-Hainich, Thüringen. Er begleitet mittelständische Unternehmen seit über zehn Jahren bei der Konzeption, Entwicklung und dem Betrieb individueller Software-Systeme – seit 2024 mit klarem Schwerpunkt auf sicheren, internen KI-Plattformen für Branchen mit hohen Datenschutzanforderungen: Steuerkanzleien, Wirtschaftsprüfung, Anwaltskanzleien, Ingenieurbüros und produzierende Unternehmen.","Software Engineer & KI-Berater","Geschäftsführer Code15 GmbH",[424,425,426,427,428,429,430,431,432,433,434],"Private KI","On-Premise LLM","Retrieval-Augmented Generation","DSGVO-konforme KI","NIS2-Compliance","KI-Workshops Mittelstand","Vue.js","Nuxt","TypeScript","AWS Cloud-Architektur","Vector-Datenbanken",{},"\u002Fautoren\u002Fnico-meyer","\u002Fteam\u002Fnico-meyer.webp",[439],{"title":440,"venue":441,"date":442},"Private KI im Mittelstand – ohne Datenabfluss nach außen","Antenne Thüringen","2026-04",[397,408],{"description":420},"autoren\u002Fnico-meyer","CA3_fRpzY7CdAJHl7InsCwksuCh8z13SWRnazliALy8",[448,603,693],{"id":449,"title":450,"author":6,"body":451,"cover":257,"coverAlt":257,"dateModified":589,"datePublished":590,"description":591,"draft":260,"extension":261,"faqItems":257,"format":592,"meta":593,"navigation":264,"path":594,"pillar":266,"readMinutes":595,"relatedServiceSlug":268,"relatedVariantSlug":257,"seo":596,"speakable":264,"stem":597,"tags":598,"__hash__":602},"wissen\u002Fwissen\u002Fglossar-on-prem-llm.md","On-Prem-LLM",{"type":8,"value":452,"toc":580},[453,464,468,488,492,495,499,519,523,543,547,550,554,569,573],[11,454,455,456,458,459,463],{},"Ein ",[15,457,450],{}," (englisch ",[460,461,462],"em",{},"on-premises Large Language Model",") ist ein Sprachmodell, das auf Hardware betrieben wird, die das Unternehmen selbst besitzt und kontrolliert – meist im eigenen Rechenzentrum oder in einem dedizierten Serverraum. Daten verlassen die Hardware-Umgebung nie; bei air-gapped Setups gibt es keine Internetverbindung.",[28,465,467],{"id":466},"wann-sich-on-prem-lohnt","Wann sich On-Prem lohnt",[230,469,470,476,482],{},[233,471,472,475],{},[15,473,474],{},"Hochsensible Daten"," (Mandantengeheimnis, Verteidigung, Pharma-FuE), bei denen selbst eine EU-Cloud zu viel Drittparteien-Beteiligung darstellt.",[233,477,478,481],{},[15,479,480],{},"Bestehende Operations-Reife"," in der eigenen IT für GPU-Hardware, Modell-Updates und Lastspitzen.",[233,483,484,487],{},[15,485,486],{},"Größenordnung ab 50–150 aktive Nutzende",", ab der Hardware-Investition gegen mehrjährige Cloud-Kosten konkurriert.",[28,489,491],{"id":490},"hardware-anforderungen-2026","Hardware-Anforderungen 2026",[11,493,494],{},"Die meisten Mittelstands-Use-Cases lassen sich mit 7B–17B-Open-Source-Modellen (Llama 4 Scout, Mistral, Qwen 3) auf einer einzelnen GPU mit 24–80 GB VRAM realisieren. Größere Modelle (Llama 4 Maverick 400B, DeepSeek-V3) benötigen mehrere GPUs der H100-Klasse. Die Investition reicht je nach Modellgröße und Skalierung von ca. 30.000 € bis 80.000 € einmalig für 50–150 aktive Nutzende; größere Setups liegen darüber.",[28,496,498],{"id":497},"vorteile-gegenüber-eu-cloud","Vorteile gegenüber EU-Cloud",[230,500,501,507,513],{},[233,502,503,506],{},[15,504,505],{},"Volle Hoheit"," über Daten, Konfigurationen und Modelle.",[233,508,509,512],{},[15,510,511],{},"Keine laufende Cloud-Rechnung",", dafür Hardware-Investition und Strom\u002FKühlung.",[233,514,515,518],{},[15,516,517],{},"Air-Gap möglich"," für regulatorisch besonders sensible Setups.",[28,520,522],{"id":521},"nachteile-und-risiken","Nachteile und Risiken",[230,524,525,531,537],{},[233,526,527,530],{},[15,528,529],{},"Operations-Aufwand:"," GPU-Treiber, Modell-Updates, Backup, Capacity-Planung erfordern reife IT-Funktionen oder einen Managed-Service-Partner.",[233,532,533,536],{},[15,534,535],{},"Eingeschränkte Skalierungs-Geschwindigkeit:"," Lastspitzen lassen sich nicht binnen Stunden abfangen.",[233,538,539,542],{},[15,540,541],{},"Modell-Auswahl beschränkt"," auf Open-Source und einige kommerzielle Modelle, die On-Prem-Lizenzen anbieten.",[28,544,546],{"id":545},"abgrenzung-zu-hybridem-setup","Abgrenzung zu hybridem Setup",[11,548,549],{},"In hybriden Architekturen läuft die Inferenz on-prem (sensible Daten verlassen das Unternehmen nie), während Vektorindex und Anwendungs-Backbone in der EU-Cloud betrieben werden. Diese Variante kombiniert die Datenkontrolle on-prem mit der Skalierungs-Bequemlichkeit der Cloud.",[28,551,553],{"id":552},"verwandte-begriffe","Verwandte Begriffe",[230,555,556,562],{},[233,557,558,561],{},[236,559,424],{"href":560},"\u002Fwissen\u002Fglossar-private-ki"," – die übergeordnete Konzeption.",[233,563,564,568],{},[236,565,567],{"href":566},"\u002Fwissen\u002Fglossar-rag","RAG"," – Architektur, die ein On-Prem-LLM für wissensbasierte Antworten erweitert.",[28,570,572],{"id":571},"vertiefung","Vertiefung",[11,574,575,576,26],{},"Hosting-Modell-Vergleich im Detail: ",[236,577,579],{"href":578},"\u002Fwissen\u002Fprivate-ki-leitfaden#hosting-modelle-im-detail","„Private KI für den Mittelstand: Der Leitfaden 2026\"",{"title":242,"searchDepth":243,"depth":243,"links":581},[582,583,584,585,586,587,588],{"id":466,"depth":243,"text":467},{"id":490,"depth":243,"text":491},{"id":497,"depth":243,"text":498},{"id":521,"depth":243,"text":522},{"id":545,"depth":243,"text":546},{"id":552,"depth":243,"text":553},{"id":571,"depth":243,"text":572},"2026-05-09","2026-05-06","Definition: On-Prem-LLM bezeichnet ein Sprachmodell, das auf Hardware betrieben wird, die das Unternehmen selbst kontrolliert – meist im eigenen Rechenzentrum, optional ohne Internetverbindung.","glossar",{},"\u002Fwissen\u002Fglossar-on-prem-llm","3",{"title":450,"description":591},"wissen\u002Fglossar-on-prem-llm",[599,600,601,592,268,275],"on-prem-llm","on-premise","llm","HxKnmjUCHRcqpMloF0WZQ9quo8P0cia5nUjSr05aWtk",{"id":604,"title":424,"author":6,"body":605,"cover":257,"coverAlt":257,"dateModified":590,"datePublished":590,"description":686,"draft":260,"extension":261,"faqItems":257,"format":592,"meta":687,"navigation":264,"path":560,"pillar":266,"readMinutes":595,"relatedServiceSlug":268,"relatedVariantSlug":257,"seo":688,"speakable":264,"stem":689,"tags":690,"__hash__":692},"wissen\u002Fwissen\u002Fglossar-private-ki.md",{"type":8,"value":606,"toc":679},[607,612,616,636,640,643,647,650,652,672,674],[11,608,609,611],{},[15,610,424],{}," bezeichnet eine KI-Plattform, deren Betrieb in einer Infrastruktur erfolgt, die das Unternehmen selbst kontrolliert. Daten verlassen die Organisation während Verarbeitung und Speicherung nicht.",[28,613,615],{"id":614},"drei-hosting-varianten","Drei Hosting-Varianten",[230,617,618,624,630],{},[233,619,620,623],{},[15,621,622],{},"On-Premise:"," im eigenen Rechenzentrum, optional ohne Internetverbindung (air-gapped). Höchste Kontrolle, höchster Aufwand.",[233,625,626,629],{},[15,627,628],{},"Souveräne EU-Cloud:"," Hosting bei europäischen Anbietern (z. B. STACKIT, IONOS, Open Telekom Cloud). Kein US-Konzern in der Verarbeitungskette, kein Cloud-Act-Konflikt.",[233,631,632,635],{},[15,633,634],{},"Hybrid:"," Inferenz on-prem, Vektorindex und Anwendungs-Backbone in EU-Cloud. Balance aus Kontrolle und operativer Einfachheit.",[28,637,639],{"id":638},"abgrenzung-zu-öffentlichen-ki-diensten","Abgrenzung zu öffentlichen KI-Diensten",[11,641,642],{},"Private KI ist keine Lizenz für ChatGPT Enterprise, Microsoft 365 Copilot oder Google Gemini Enterprise. Diese Dienste laufen auf Infrastruktur von US-Konzernen. Sie sind als Auftragsverarbeitung zulässig, aber für Branchen mit Mandantengeheimnis (Steuerberatung, Wirtschaftsprüfung, Anwaltschaft) oder NIS2-Pflichten ist die strukturelle Datenkontrolle einer Private KI oft erforderlich.",[28,644,646],{"id":645},"typische-bestandteile","Typische Bestandteile",[11,648,649],{},"Eine produktive Private-KI-Plattform setzt sich aus mindestens fünf Bausteinen zusammen: Sprachmodell (LLM), Vektordatenbank, Ingestion-Pipeline, Anwendungs-Layer mit Rollen- und Rechte-Modell, Betriebs-Layer mit Monitoring und Audit-Log.",[28,651,553],{"id":552},[230,653,654,660,667],{},[233,655,656,659],{},[236,657,658],{"href":566},"RAG (Retrieval-Augmented Generation)"," – die Architektur hinter wissensbasierten KI-Antworten.",[233,661,662,666],{},[236,663,665],{"href":664},"\u002Fwissen\u002Fglossar-schatten-ki","Schatten-KI"," – das Problem, das Private KI strukturell löst.",[233,668,669,671],{},[236,670,450],{"href":594}," – die Hardware-Variante einer Private KI.",[28,673,572],{"id":571},[11,675,676,677,26],{},"Detaillierter Leitfaden mit Architektur, DSGVO\u002FNIS2 und 30-Tage-Pilot-Modell: ",[236,678,579],{"href":238},{"title":242,"searchDepth":243,"depth":243,"links":680},[681,682,683,684,685],{"id":614,"depth":243,"text":615},{"id":638,"depth":243,"text":639},{"id":645,"depth":243,"text":646},{"id":552,"depth":243,"text":553},{"id":571,"depth":243,"text":572},"Definition: Private KI bezeichnet eine KI-Plattform, die ausschließlich auf vom Unternehmen kontrollierter Infrastruktur betrieben wird – on-prem, in souveräner EU-Cloud oder hybrid – und Daten nicht an US-Provider weitergibt.",{},{"title":424,"description":686},"wissen\u002Fglossar-private-ki",[268,592,274,600,691],"eu-cloud","idO8StEPZFshAkIWq3HYbuhV7TDfyq7QpTuZnynx_2U",{"id":694,"title":658,"author":6,"body":695,"cover":257,"coverAlt":257,"dateModified":590,"datePublished":590,"description":809,"draft":260,"extension":261,"faqItems":257,"format":592,"meta":810,"navigation":264,"path":566,"pillar":266,"readMinutes":595,"relatedServiceSlug":268,"relatedVariantSlug":257,"seo":811,"speakable":264,"stem":812,"tags":813,"__hash__":817},"wissen\u002Fwissen\u002Fglossar-rag.md",{"type":8,"value":696,"toc":801},[697,703,707,734,738,741,745,771,775,778,780,792,794],[11,698,699,702],{},[15,700,701],{},"Retrieval-Augmented Generation (RAG)"," ist die Architektur hinter wissensbasierten KI-Assistenten 2026. Sie verbindet ein Sprachmodell (LLM) mit einer Suche in vorab indexierten Dokumenten und ermöglicht Antworten mit klarer Quellenangabe.",[28,704,706],{"id":705},"funktionsprinzip-in-vier-schritten","Funktionsprinzip in vier Schritten",[708,709,710,716,722,728],"ol",{},[233,711,712,715],{},[15,713,714],{},"Frage in Vektor übersetzen."," Ein Embedding-Modell verwandelt die Frage in einen mathematischen Vektor, der den Sinn (nicht die Wörter) abbildet.",[233,717,718,721],{},[15,719,720],{},"Passende Textstellen suchen."," In einer Vektordatenbank werden die ähnlichsten Chunks aus den eigenen Dokumenten abgerufen, inklusive Quell-Metadaten und Permissions.",[233,723,724,727],{},[15,725,726],{},"Kontext + Frage an das LLM."," Das Modell bekommt die Anweisung, ausschließlich auf Basis der gelieferten Textstellen zu antworten und die Quelle zu zitieren.",[233,729,730,733],{},[15,731,732],{},"Antwort mit Quellenangabe."," Mitarbeitende sehen die Antwort plus den Verweis auf Datei, Seite und Datum – idealerweise klickbar zum Original.",[28,735,737],{"id":736},"warum-rag-halluzinationen-reduziert","Warum RAG Halluzinationen reduziert",[11,739,740],{},"Ein klassisches Sprachmodell „rät\" aus seinem Trainingswissen. Ein RAG-System wird angewiesen, sich an die mitgelieferten Quellen zu halten und „Ich weiß es nicht\" zu sagen, wenn nichts Passendes gefunden wurde. Das eliminiert Halluzinationen nicht vollständig, reduziert sie aber strukturell.",[28,742,744],{"id":743},"wichtige-bestandteile","Wichtige Bestandteile",[230,746,747,753,759,765],{},[233,748,749,752],{},[15,750,751],{},"Embedding-Modell:"," wandelt Fragen und Dokumenten-Chunks in Vektoren um.",[233,754,755,758],{},[15,756,757],{},"Vektordatenbank:"," speichert die Chunk-Vektoren mit Metadaten (Qdrant, Weaviate, pgvector sind 2026 Standard).",[233,760,761,764],{},[15,762,763],{},"Ingestion-Pipeline:"," zerlegt Dokumente in semantisch sinnvolle Chunks, übernimmt Permissions aus Quellsystemen, hält Updates inkrementell.",[233,766,767,770],{},[15,768,769],{},"Sprachmodell mit klarer Anweisung:"," generiert die endgültige Antwort.",[28,772,774],{"id":773},"häufige-implementierungs-fehler","Häufige Implementierungs-Fehler",[11,776,777],{},"Naives Chunking auf fester Wortzahl, fehlende Permissions, keine inkrementellen Updates und keine Evaluation – die vier Stolpersteine, an denen schwache RAG-Setups 2026 erkennbar sind.",[28,779,553],{"id":552},[230,781,782,787],{},[233,783,784,786],{},[236,785,424],{"href":560}," – die Plattform, in der RAG meistens läuft.",[233,788,789,791],{},[236,790,450],{"href":594}," – Sprachmodell-Variante für RAG.",[28,793,572],{"id":571},[11,795,796,797,26],{},"Schritt-für-Schritt-Erklärung mit Beispiel: ",[236,798,800],{"href":799},"\u002Fwissen\u002Frag-einfach-erklaert","„RAG einfach erklärt: Wie KI mit Ihren eigenen Daten arbeitet\"",{"title":242,"searchDepth":243,"depth":243,"links":802},[803,804,805,806,807,808],{"id":705,"depth":243,"text":706},{"id":736,"depth":243,"text":737},{"id":743,"depth":243,"text":744},{"id":773,"depth":243,"text":774},{"id":552,"depth":243,"text":553},{"id":571,"depth":243,"text":572},"Definition: RAG kombiniert ein Sprachmodell mit einer Suche in eigenen Dokumenten. Statt aus Trainingswissen zu raten, antwortet das Modell auf Basis abgerufener Textstellen mit Quellenangabe.",{},{"title":658,"description":809},"wissen\u002Fglossar-rag",[814,815,592,816,268],"rag","retrieval-augmented-generation","vektordatenbank","fpLC3mtmle5j4J0F-frjjASP4AwmHQN_gnNy1kTBaH8",1778412787341]