Back to blog

Künstliche Intelligenz – Herausforderungen für IT-Dienstleister?

Nach Jahrzehnten der Forschung ist Künstliche Intelligenz (KI) heute allgegenwärtig – zumindest in der öffentlichen Wahrnehmung. Das technische Verständnis sowie das Wissen über die konkreten Chancen und Risiken für Unternehmen bleiben jedoch vielfach oberflächlich oder werden ignoriert. Die Erwartungen von Kundenseite sind hoch, doch zentrale Fragen zu Datenschutz, Sicherheit und Integrationskonzepten werden oft gar nicht gestellt.

Gleichzeitig steigt in vielen Geschäftsleitungen der Druck, beim Thema KI nicht den Anschluss zu verlieren. Es geht um Effizienzsteigerung, Wettbewerbsfähigkeit – und nicht zuletzt darum, als innovativ wahrgenommen zu werden. Was allerdings häufig vergessen geht: Ein echter Mehrwert entsteht nur, wenn bestehende Prozesse analysiert und geeignete Tools gezielt angepasst oder neu eingeführt werden.

Dieser Handlungsdruck trifft IT-Dienstleister unmittelbar. Viele Kundinnen und Kunden erwarten sofort einsatzbereite Lösungen – doch auch auf Dienstleisterseite fehlt es teils an Know-how. Besonders beim Einsatz von Open-Source-Modellen, der rechtssicheren Bereitstellung in Schweizer Rechenzentren oder der nahtlosen Integration in den bestehenden Office-Alltag, bestehen grosse Lücken. Die vermeintlich einfache Alternative: der Rückgriff auf geschlossene, aber datenschutzrechtlich fragwürdige Systeme wie Microsoft Copilot.

Hohe Erwartungen, wenig Wissen und unklare Verantwortlichkeiten – eine gefährliche Mischung. Wie also können IT-Dienstleister diese Risiken minimieren, den Dialog mit den Kunden konstruktiv gestalten und gleichzeitig eigene Kompetenzen nachhaltig aufbauen?

Inhalte in diesem Beitrag

  • Historische Entwicklung der KI
  • Risiken von All-in-One-KI-Lösungen
  • Rechtliche und organisatorische Massnahmen
  • Wert von KI-Kompetenz für IT-Dienstleister
  • Gefahren geschlossener KI-Systeme
  • Marktanteile: Cloud-Anbieter und KI-Tools
  • Empfehlungen für sichere KI-Nutzung
  • Anwendungsszenarien: Sprachmodelle, Bild-, Video- und Sprachsynthese
  • Integration: Mehrwert schaffen durch intelligente Verknüpfung
  • Prozessmanagement und KI: Der nächste Schritt

Historische Entwicklung der KI

Die Forschung im Bereich der Künstlichen Intelligenz reicht bis in die 1950er-Jahre zurück. Erste wirtschaftlich relevante Anwendungen fanden in den 1980er-Jahren statt – etwa mit dem Expertensystem XCON, das bei der Konfiguration von Computersystemen für DEC (Digital Equipment Corporation) eingesetzt wurde. Die Euphorie wich jedoch bald der Ernüchterung: Als sich viele Versprechen nicht erfüllten, verlor die Industrie in den späten 1980er-Jahren das Interesse. Die Folge war ein Einbruch bei Investitionen, was die Weiterentwicklung KI-basierter Systeme stark verlangsamte.

Erst gegen Ende der 1990er-Jahre kehrte der Fokus auf KI zurück – sowohl in der universitären Forschung als auch in Unternehmen. Ein erster grosser öffentlicher Meilenstein gelang IBM 1997 mit dem Schachcomputer Deep Blue, der den damaligen Weltmeister Garri Kasparow besiegte. Zum ersten Mal wurde KI ausserhalb wissenschaftlicher Kreise breit diskutiert.

Ein weiterer medialer Höhepunkt war Watson, ebenfalls von IBM, der 2011 die Quizsendung Jeopardy! gegen menschliche Champions gewann. Trotz dieses technologischen Erfolgs blieb der kommerzielle Nutzen beschränkt: IBM versuchte in den Folgejahren, Watson für den Gesundheitsbereich zu etablieren – das Projekt Watson Health (2014–2022) wurde jedoch nach anhaltenden Problemen wieder eingestellt.

Parallel dazu nahm die Forschung an grossen Sprachmodellen Fahrt auf. Ein historischer Wendepunkt war schliesslich die Veröffentlichung von ChatGPT 3.5 durch OpenAI im November 2022. Erstmals war ein leistungsfähiges KI-Textsystem der breiten Öffentlichkeit zugänglich – zusammen mit Bildgeneratoren wie DALL·E oder Stable Diffusion. Diese Tools lösten eine neue Welle von Innovation, medialer Aufmerksamkeit und konkreten Anwendungen im Unternehmensalltag aus – und machten KI endgültig zum Thema für die Massen.

JahrTool/ModellHerkunftBeschreibungInstitut/Unternehmen
1950Turing-TestUKTuring schlägt ein Testkriterium für maschinelle Intelligenz vorUniversity of Manchester
1956Dartmouth-KonferenzUSAGeburtsstunde der KI-Forschung durch McCarthy & MinskyDartmouth College
1966ELIZAUSAErster textbasierter Chatbot zur Simulation menschlicher GesprächeMIT
1972MYCINUSAExpertensystem zur medizinischen DiagnoseStanford University
1978XCON (DEC)USAExpertensystem zur Konfiguration von ComputersystemenCarnegie Mellon University
2011IBM WatsonUSAGewinnt bei 'Jeopardy!' und demonstriert NLP-FähigkeitenIBM
2016AlphaGoUSABesiegt Go-Weltmeister Lee Sedol, ein Meilenstein für KIDeepMind (Google)
2020GPT-3USALeistungsstarkes Sprachmodell für TextgenerierungOpenAI
2021WuDao 2.0ChinaMultimodales Modell mit 1,75 Billionen ParameternBeijing Academy of AI
2021LuminousLuminousDeutschlandEuropäisches Sprachmodell mit Fokus auf Transparenz und DatenschutzAleph Alpha
2022MidjourneyUSAKI-Bildgenerator mit künstlerischem Stil, populär auf DiscordMidjourney Inc.
2022Stable DiffusionUKOpen-Source-Bildgenerator, weit verbreitetStability AI
2023ERNIE BotChinaChinas Antwort auf ChatGPT mit Fokus auf chinesische SpracheBaidu
2023Mistral 7BFrankreichOffenes, performantes Sprachmodell mit starker CodegenerierungMistral AI
2023GeminiUSAGoogles multimodales Sprachmodell, Grundlage für BardGoogle
2023LLaMAUSAOpen-Source LLM für Forschung und IndustrieanwendungenMeta
2024DeepSeekChinaFortgeschrittenes LLM mit Open-Source-Fokus, GPT-4-KlasseDeepSeek

Risiken von All-in-One-KI-Lösungen: Sind extern betriebene KI-Modelle und All-in-One-Lösungen sicher im Hinblick auf Datenschutz und Kontrolle?

In der Praxis greifen viele Unternehmen mangels Know-how gerne auf schlüsselfertige, geschlossene KI-Systeme zurück. Der Vorteil liegt auf der Hand: Weder auf Kundenseite noch beim IT-Dienstleister sind vertiefte technische Kenntnisse erforderlich. Für IT-Dienstleister bedeutet dies jedoch oft geringe Margen – bei gleichzeitigem Haftungs- und Reputationsrisiko. Denn: Tritt ein Problem auf, wird meist nicht der Anbieter, sondern der IT-Dienstleister zur Verantwortung gezogen. Im besten Fall bedeutet das nur Aufwand ohne Ertrag, im schlechtesten Fall einen Imageverlust.

Ist eine rechtliche Absicherung und klare Kommunikation nötig?

Formell nein – praktisch aber unabdingbar. Eine transparente Beratung gehört zur professionellen Kundenbeziehung. Zwar liegt die rechtliche Haftung beim Anbieter des KI-Tools, doch in der Realität wenden sich verärgerte Kunden an die ihnen bekannten Ansprechpartner – also an den IT-Dienstleister. Um sich vor Missverständnissen zu schützen, ist es ratsam, Risiken wie Datenabfluss, Zugriff Dritter oder Sicherheitslücken schriftlich zu dokumentieren und mit dem Kunden durchzusprechen. Dies sollte schriftlich bei der Einführung einer solchen Lösung festgehalten werden und vom Kunden unterzeichnet werden. Dies stellt sicher das Probleme nicht zum Imageschaden und einer zerrütteten Kundenbeziehung für den IT-Dienstleister führen.

Lohnt sich der Aufbau von Know-how im Bereich KI?

Absolut. Die Nachfrage nach KI-Lösungen im Unternehmensumfeld steigt rasant – ebenso wie die Budgets. Je mehr Prozesse durch KI gestützt oder automatisiert werden, desto wichtiger wird es, als IT-Dienstleister fundierte Beratung und massgeschneiderte Implementierung anbieten zu können. Jetzt ist der richtige Zeitpunkt, um Know-how aufzubauen, verschiedene Lösungsansätze zu prüfen und eigene Kompetenzen zu stärken. Die hohe Marktdynamik birgt Chancen – aber auch das Risiko, sich auf eine Technologie festzulegen, die sich später als Sackgasse entpuppt. Wer früh einsteigt, kann mitgestalten statt nur zu reagieren.

Die grössten Risiken bei geschlossenen KI-Lösungen

Sicherheit vor Hackern
Cloudbasierte KI-Systeme werden von globalen Anbietern betrieben. Für Kunden bleibt meist unklar, wie gut diese Infrastrukturen tatsächlich gegen Angriffe geschützt sind. Auch grosse Player wie Microsoft, Oracle oder sogar staatliche Einrichtungen wie die CIA wurden bereits kompromittiert. Die Komplexität und Zahl der involvierten Systeme und Personen vergrössert die potenzielle Angriffsfläche erheblich. Gleichzeitig bleibt die Kontrolle über Schutzmassnahmen und Fehlerbehebungen beim Anbieter – nicht beim Unternehmen selbst. Der Endkunde und der IT-Dienstleister können weder Proaktiv noch im Ernstfall handeln. Sie sind komplett ausgeliefert.

Risiko des Datenabflusses
Frühere KI-Modelle arbeiteten ausschliesslich auf Basis von Trainingsdaten. Moderne Systeme hingegen nutzen zusätzlich externe Quellen wie Webinhalte und interne Unternehmensdaten (z. B. über RAG – Retrieval-Augmented Generation). Dies erhöht die Leistung – aber auch das Risiko, dass vertrauliche Informationen unkontrolliert weiterverwendet oder kombiniert werden.

  • Beispiel CRM-Tool

    Ein Unternehmen nutzt eine KI-Integration eines extern gehosteten CRM Systems als SaaS Lösung, um Kundeninteraktionen zu analysieren. Ein externer Mitbewerber verwendet die gleiche KI-Plattform und stellt eine gezielte Anfrage zur Gewinnung eines bestimmten Kunden. Die KI greift – durch vorherige Nutzung im CRM – auf Informationen zu, die ursprünglich intern waren und nutzt diese (ungewollt) für die Antwort.
    Resultat: Wettbewerbsvorteile gehen verloren, ohne dass ein aktiver Datenklau vorliegt. Das System hat die Informationen technisch korrekt, aber intransparent wiederverwendet – und niemand bemerkt es.

Unternehmen verlieren bei der Nutzung externer KI-Plattformen nicht nur die Kontrolle über ihre Datenhoheit. Auch hochsensible Informationen – etwa zu Kundenbeziehungen, Forschungsprojekten oder Produktentwicklungen – können unbemerkt in falsche Hände geraten. Besonders kritisch wird es, wenn dieselbe KI-Lösung auch von Mitbewerbern genutzt wird. Denn: Je nach Systemarchitektur besteht das Risiko, dass die KI aus den Eingaben mehrerer Unternehmen generalisierte Muster ableitet – und diese unbeabsichtigt für andere Anfragen wiederverwendet. Dieses «Learning» macht aus Sicht eines KI-Anbieters durchaus Sinn und wird vermutlich auch angewendet. Dennoch ist es aus Unternehmersicht kritisch – denn es kann nicht nur zum Verlust von Wettbewerbsvorteilen, sondern mitunter sogar zu Wettbewerbsnachteilen führen.

Im schlimmsten Fall führt dies dazu, dass ein Wettbewerber plötzlich Innovationsvorsprünge erzielt, ein Patent früher anmeldet oder gezielte Angebote an Kunden richtet, die eigentlich aus der eigenen Pipeline stammen. Und das ohne aktiven Datenklau – sondern allein durch die Art, auf welche Daten die KI zugriff hat für die Lösung von Aufgaben.

Besonders fatal: Solche Vorfälle bleiben meist unbemerkt. Selbst wenn der Verdacht aufkommt, ist der technische Nachweis nahezu unmöglich – denn weder IT-Abteilungen noch externe Experten erhalten Einblick in die internen Abläufe der proprietären KI-Systeme. Das Risiko ist real und wird nach wie vor stark unterschätzt.

Wirtschaftsspionage und Zugriff durch ausländische Behörden:
Die USA und weitere westliche Staaten warnen ihrerseits regelmässig vor dem Einsatz chinesischer Netzwerktechnologien, Cloud-Dienste und KI-Systeme – insbesondere wegen vermuteter staatlicher Einflussnahme und intransparenter Datenpraktiken. Doch dabei wird oft vergessen: Auch US-Anbieter unterliegen extraterritorialen Gesetzen wie dem CLOUD Act, welcher US-Behörden unter bestimmten Voraussetzungen weltweiten Zugriff auf Daten gewährt – unabhängig vom Standort der Rechenzentren.


Aus Sicht des Datenschutzes und der rechtlichen Kontrolle gilt deshalb eine einfache Faustregel: Nur Anbieter mit Sitz und Rechenzentren in der Schweiz garantieren volle Konformität mit dem Schweizer Datenschutzgesetz (nDSG) und klare Zuständigkeiten im Streitfall. Als einzige vertretbare Alternative kommt der EU-Raum infrage, da hier ebenfalls hohe Datenschutzstandards (DSGVO) gelten.


Alles andere – sei es eine US-Cloud mit Rechenzentrum in Zürich, eine chinesische Plattform mit lokaler Lizenz, oder ein global vernetzter Anbieter ohne klaren Gerichtsstand – ist ein Hochrisikospiel. Oder anders gesagt: Digitales russisches Roulette.

Cloud Anbieter: Geschätzte Marktanteile Schweiz

AnbieterGeschätzter MarktanteilRechtssitz/Firmensitz
AWS (Amazon)33%USA
Azure (Microsoft20%USA
Google Cloud (Google)11%USA
Swisscom10%CH
Alibaba Cloud4%CN
Oracle Cloud3%USA

KI Chat Bots: Geschätzte Marktanteile Schweiz

AnbieterGeschätzter MarktanteilRechtssitz/Firmensitz
CHatGPT (OpenAI)85,45%USA
Perplexity (Perplexity)6.9%USA
Copilot (Microsoft)5.5%USA
Gemini (Google)1.5%USA
Claude (Anthropic)0.3%USA
Deepseek (Deepseek)0.2%CN

Welche extern betriebenen KI-Modelle bergen ein geringeres Risiko?

Mistral AI (Frankreich)

Mistral AI hat sich in kurzer Zeit zur bedeutendsten europäischen Open-Source-Alternative entwickelt und bietet leistungsfähige Sprachmodelle, die mit internationalen Lösungen auf Augenhöhe konkurrieren können. Das Unternehmen mit Sitz in Frankreich betreibt seine Infrastruktur ebenfalls in Frankreich und unterliegt damit den strengen Vorgaben der EU-Datenschutzgrundverordnung (DSGVO).


Vorteile:

  • Rechtssitz und Rechenzentren in Frankreich
  • Europäischer Datenschutz (DSGVO / nDSG-kompatibel)
  • Open-Source-Architektur erlaubt volle Transparenz über das Modell


Nachteile:

  • Geschlossenes System wenn nicht selbst gehosted

Aleph Alpha (Deutschland)

Aleph Alpha ist ein auf Unternehmen fokussierter Anbieter aus Deutschland mit besonderem Schwerpunkt auf Datenschutz, Revisionssicherheit und erklärbare KI. Die Infrastruktur befindet sich in deutschen Rechenzentren, der Anbieter untersteht ebenfalls der DSGVO.


Vorteile:

  • Rechtssitz und Hosting in Deutschland
  • Fokus auf erklärbare und nachvollziehbare KI-Modelle
  • Europäischer Datenschutzstandard


Nachteile:

  • Geschlossenes System

Fazit:
Wer externe Lösungen einsetzt, aber dennoch Wert auf Datenschutz, Kontrolle und Rechtssicherheit legt, fährt mit europäischen Anbietern wie Mistral AI oder Aleph Alpha deutlich besser als mit US- oder chinesischen Plattformen. Für sensible Anwendungen ist jedoch nach wie vor das eigene Hosting – On-Prem oder in Schweizer Rechenzentren – die sicherste Wahl

Welche KI-Lösungen kann ich wie sicher integrieren?

Wie stelle ich eine KI-Lösung für den Kunden bereit?

Die Bereitstellung einer KI-Lösung – insbesondere auf Basis von Open-Source-Modellen – ist technisch heute deutlich einfacher als noch vor wenigen Jahren. Dennoch müssen Datenschutz, Architektur und Betriebskonzept sorgfältig geplant werden. Die folgenden Punkte zeigen, wie eine sichere, leistungsfähige und rechtlich saubere Umsetzung möglich ist:

Bezugsquelle für Open-Source-Modelle

Die grösste und etablierteste Plattform für Open-Source-KI-Modelle ist Hugging Face. Dort finden sich aktuelle Top-Modelle für:

  • Textgenerierung (Sprachmodelle)
  • Bildgenerierung
  • Videoproduktion
  • Sprachsynthese

Diese Modelle lassen sich lokal oder in einer eigenen Cloud-Infrastruktur betreiben – ohne, dass dazu tiefgreifendes Machine-Learning-Wissen erforderlich ist.

Bereitstellungsformen


1. Vollständig isolierte Umgebung (empfohlen bei sensiblen Daten)


On-Premises oder dedizierte virtuelle-Umgebung
. Nur so kann sichergestellt werden, dass keine Vermischung von Daten erfolgt und keinerlei Zugriffsmöglichkeiten für Dritte bestehen.

  • Ideal für sicherheitskritische Branchen (z. B. Healthcare, Finance)
  • Volle Kontrolle über Modell, Daten und Infrastruktur
  • Höherer Initialaufwand, aber maximale Sicherheit

2. Mandantenfähiger Cluster für mehrere Kunden

Eine kostenoptimierte Alternative, bei der mehrere Kunden dieselbe Hardware nutzen, aber logisch voneinander getrennt arbeiten. Wichtig ist hier eine transparente Kommunikation:

  • Aufklärung über mögliche Restrisiken
  • Dokumentierte Sicherheitsmassnahmen
  • Auswahl vertrauenswürdiger Mandanten-Pools

Diese Lösung eignet sich gut für weniger kritische Anwendungsbereiche oder Kunden mit begrenztem Budget.


Infrastrukturwahl: On-Prem oder Cloud?


On-Premises:

Nur für Grossunternehmen wirtschaftlich sinnvoll, die über moderne und sicher betriebene Rechenzentren verfügen.

Vorteile:

  • Maximale Kontrolle über Daten und Systeme
  • Kein Drittanbieter-Risiko

Nachteil:

  • Hohe initiale Investitions- und Betriebskosten


Cloud (empfohlen für KMU):

Wirtschaftlicher, flexibler und schneller skalierbar. Kritisch sind hier jedoch Rechtssitz und Standort der Rechenzentren:

  • Empfohlen: Schweizer Anbieter mit Schweizer Rechenzentrum oder EU-basierte Anbieter mit DSGVO-Konformität
  • Nicht empfohlen: US- oder China-basierte Anbieter (Risikofaktor: CLOUD Act / staatlicher Zugriff)


Fazit:

Die Wahl der richtigen Bereitstellungsform ist entscheidend für Datenschutz, Wirtschaftlichkeit und Kundenvertrauen. Für viele Kunden ist eine dedizierte Cloud-Lösung bei einem Schweizer oder europäischen Anbieter die optimale Balance aus Sicherheit und Kosten.

Wie stelle ich eine KI-Lösung für den Kunden bereit?

Sprachmodelle

Sprachmodelle haben mit dem Durchbruch von ChatGPT im Jahr 2022 weltweit Aufmerksamkeit erlangt und einen fundamentalen Wandel in der Nutzung von Künstlicher Intelligenz im Unternehmensumfeld eingeleitet. Seither hat sich das Feld rasant weiterentwickelt und es stehen heute zahlreiche leistungsfähige Open-Source-Alternativen zur Verfügung, die auch für KMU praxistauglich und performant sind.


Relevanz im Unternehmenskontext

Sprachmodelle zählen aktuell zu den am breitesten eingesetzten KI-Tools im professionellen Umfeld und werden oftmals als Künstliche Intelligenzen bezeichnet. Der Hauptgrund dafür ist einfach: Ein grosser Teil unternehmerischer Informationen – intern wie extern – liegt in textbasierter Form vor:

  • E-Mails, Protokolle, Verträge, Angebote
  • Inhalte von Webseiten, Produktbeschreibungen, Support-Dokumentationen
  • CRM- und ERP-Daten

Zudem findet auch die Kundenkommunikation in den meisten Fällen schriftlich statt – ob über E-Mail, Chat oder Social Media.


Vielseitige Einsatzgebiete

Sprachmodelle kommen in folgenden Szenarien besonders häufig zum Einsatz:

  • Textgenerierung (z. B. für Angebote, Newsletter, Dokumentationen)
  • Textüberarbeitung und Zusammenfassung
  • Automatisierte Beantwortung von Kundenanfragen
  • Interne Wissensabfragen und Assistenten
  • Multimodale Bots – Sprachmodelle sind meist integrativer Bestandteil komplexer KI-Systeme


Fazit

Egal ob Start-up, KMU oder Grossunternehmen – Sprachmodelle sind eine zentrale Technologie zur Automatisierung, Wissensnutzung und Effizienzsteigerung. Unternehmen, die mit KI starten möchten, finden hier meist den besten Einstiegspunkt mit klarem, messbarem Mehrwert.

ModellParameterEmpfohlene GPUEntwicklerGPU für 10 MAGPU für 50 MAGPU für 100 MAGPU für 200 MABewertung (1–10)
LLaMA 3 8B8B12 GB+Meta12 GB+60 GB+120 GB+240 GB+10
Mistral 7B7B12 GB+Mistral AI12 GB+60 GB+120 GB+240 GB+9
DeepSeek R116B24 GB+DeepSeek AI24 GB+120 GB+240 GB+480 GB+9
Vicuna 13B13B24 GB+UC Berkeley/CMU/Stanford24 GB+120 GB+240 GB+480 GB+8
Falcon 7B7B16 GB+TII (UAE)16 GB+80 GB+160 GB+320 GB+7
R1 177616B24 GB+Perplexity AI24 GB+120 GB+240 GB+480 GB+8

Bildgeneratoren

Bildgeneratoren auf Basis von Künstlicher Intelligenz haben sich in den letzten Jahren stark weiterentwickelt und bieten insbesondere im Marketing, Design und Content Creation neue Möglichkeiten zur Automatisierung und Effizienzsteigerung.

Relevanz für Unternehmen

Für kleinere KMUs ist der Nutzen oft begrenzt, da grafische Inhalte in geringerer Frequenz produziert werden und die Qualität geschlossener Systeme (wie Midjourney oder DALL·E) für einfache Anwendungsfälle meist ausreicht.

In folgenden Szenarien ist der Einsatz jedoch besonders interessant:

  • Agenturen mit hohem Output an Visualisierungen
  • Grosse Unternehmen, die regelmässig CI-konforme Bilder generieren
  • Bots oder Plattformen, die eigenständig Visualisierungen erzeugen sollen (z. B. individuelle Kundenangebote, Produktkonfiguratoren, digitale Assistenten)

Geschlossene vs. eigene Systeme

In der Regel sind geschlossene Systeme (z. B. über eine API) für viele Use-Cases völlig ausreichend – insbesondere, wenn keine vertraulichen Daten verarbeitet werden. Der Sicherheitsaspekt ist hier eher sekundär.

Anders sieht es aus, wenn Bilder aus unternehmensinternen Informationen generiert werden oder eine hohe Skalierung notwendig ist. In solchen Fällen kann es aus folgenden Gründen sinnvoll sein, eine eigene Bild-KI-Instanz zu betreiben:

  • Datensicherheit: Keine Übertragung sensibler Inhalte an Systeme Dritter
  • Kostenkontrolle: Bei hohem Volumen sind eigene Systeme langfristig günstiger

Fazit

Für Unternehmen mit standardisierten Anforderungen genügt ein externer Bildgenerator. Für Unternehmen mit grossem Bildvolumen oder sensiblen Inhalten lohnt sich die Evaluation einer gehosteten Lösung auf eigener Infrastruktur, insbesondere bei Nutzung im Rahmen umfassender Automatisierungsprozesse.

ModellParameterEmpfohlene GPUEntwicklerGPU für 10 MAGPU für 50 MAGPU für 100 MAGPU für 200 MABewertung (1–10)
Stable Diffusion XLNA12 GB+Stability AI12 GB+60 GB+120 GB+240 GB+9
Janus Pro 7B7B16 GB+DeepSeek AI16 GB+80 GB+160 GB+320 GB+8
Stable Diffusion 1.5NA6 GB+Stability AI6 GB+30 GB+60 GB+120 GB+7

Videogeneratoren

Videogeneratoren gehören zu den technisch anspruchsvollsten und ressourcenintensivsten Anwendungen im Bereich der generativen KI. Sie ermöglichen die automatische Erstellung von Videoinhalten auf Basis von Text, Bildern oder bestehenden Sequenzen.

Einsatzgebiete und Relevanz

Im Vergleich zu Sprach- oder Bildgeneratoren ist der Einsatz von KI-gestützter Videoproduktion deutlich spezifischer und weniger weit verbreitet. Dennoch gibt es klare Anwendungsbereiche mit hohem Mehrwert:

  • Marketingabteilungen für Produkt- oder Eventvideos
  • Content-Agenturen, die regelmässig animierte Clips, Tutorials oder Social-Media-Formate erstellen
  • E-Learning-Plattformen mit Bedarf an automatisiertem Videocontent

Technische und wirtschaftliche Überlegungen

Die Aussage zu Bildgeneratoren gilt grundsätzlich auch hier: Geschlossene Systeme (z. B. RunwayML, Pika, Sora) können für viele Anwendungsfälle eine schnelle, kostengünstige Lösung darstellen – besonders dann, wenn keine vertraulichen oder unternehmenskritischen Inhalte verarbeitet werden.

Eigene, lokal gehostete Lösungen machen dann Sinn, wenn:

  • Sensible interne Daten (z. B. Personal-, Forschungs- oder Entwicklungsinformationen) verwendet werden
  • Wiederverwendbarkeit von Trainingsdaten gewünscht ist (z. B. spezifisches Branding, Corporate Language)
  • Skalierung über eine Vielzahl an Abteilungen, Produkten oder Märkten hinweg erforderlich wird

Fazit

Videogeneratoren sind derzeit noch eine Nischenlösung im KI-Portfolio der meisten Unternehmen. Für spezifische Anwendungsfälle können sie jedoch grossen Mehrwert bieten – insbesondere, wenn bestehende Inhalte effizient automatisiert erweitert oder personalisiert werden sollen. Die Entscheidung für eine eigene Hosting-Lösung sollte auf Basis von Sicherheitsanforderungen, Volumen und wirtschaftlicher Skalierbarkeit getroffen werden.

ModellParameterEmpfohlene GPUEntwicklerGPU für 10 MAGPU für 50 MAGPU für 100 MAGPU für 200 MABewertung (1–10)
Mochi 1NA24 GB+OpenMoE24 GB+120 GB+240 GB+480 GB+8
Wan 1.3B1.3B8 GB+Open Source (China)8 GB+40 GB+80 GB+160 GB+6
FramePackNA6 GB+Open Source6 GB+30 GB+60 GB+120 GB+5

Sprachsynthese

Die Sprachsynthese – also die Umwandlung von Text in natürlich klingende Sprache – wird im Vergleich zu anderen KI-Technologien wie Sprach- oder Bildmodellen oft unterschätzt. Dabei bietet sie ein breites Spektrum an geschäftsrelevanten Anwendungen, insbesondere in Kombination mit Sprachmodellen.

Anwendungsfelder

Sprachsynthese ist vielseitig einsetzbar und kann unter anderem in folgenden Szenarien echten Mehrwert schaffen:

  • Telefon- und Voicebots für automatisierten Kundensupport
  • Multichannel-Kommunikation, z. B. zur Bereitstellung von Inhalten als Audioausgabe auf Webseiten oder Apps
  • Barrierefreiheit, z. B. durch vertonte Inhalte für sehbehinderte Nutzerinnen und Nutzer
  • Content-Repurposing, etwa durch Umwandlung von Blogbeiträgen in Podcasts
  • Industrie- und IoT-Anwendungen, bei denen maschinell generierte Sprache zur Kommunikation mit Benutzern oder Systemen dient

Datenschutz und Infrastruktur

Gerade bei der Sprachsynthese ist der Schutz sensibler Inhalte von zentraler Bedeutung – insbesondere, wenn personenbezogene oder geschäftskritische Informationen in Audioform ausgegeben werden sollen.

Daher ist die lokale oder isolierte Bereitstellung der Sprachsynthese-Modelle in einem eigenen Rechenzentrum besonders empfehlenswert. Nur so lässt sich sicherstellen, dass:

  • Datenverarbeitung vollständig kontrolliert und dokumentiert abläuft
  • keine Drittanbieter ungewollt Zugriff auf Input- oder Outputdaten erhalten (Bspw. die simulierte Stimme eines Mitarbeiters)
  • Sicherheitsrichtlinien und regulatorische Vorgaben, z. B. gemäss DSG oder DSGVO, eingehalten werden

Fazit

Die Sprachsynthese ist ein strategisch unterschätzter Baustein moderner Automatisierungslösungen. Ihr Potenzial ist in vielen Unternehmen grösser als das von Bild- oder Videogeneratoren. Gleichzeitig erfordert ihr Einsatz ein besonderes Augenmerk auf Datenschutz, weshalb eine eigene Infrastruktur in vielen Fällen die bevorzugte Lösung darstellt.

ModellParameterEmpfohlene GPUEntwicklerGPU für 10 MAGPU für 50 MAGPU für 100 MAGPU für 200 MABewertung (1–10)
ESPnet-TTSNA8 GB+ESPnet8 GB+40 GB+80 GB+160 GB+8
Coqui TTSNA4 GB+Coqui AI4 GB+20 GB+40 GB+80 GB+7
WaveGlowNA8 GB+NVIDIA8 GB+40 GB+80 GB+160 GB+6

Wie schafft man mit KI-Integrationen echten Mehrwert für den Kunden?

Die erfolgreiche Integration von KI in bestehende IT-Systeme ist mit Abstand der anspruchsvollste, aber auch wirkungsvollste Schritt im gesamten KI-Projekt. Ist die Bereitstellung der Infrastruktur und die Auswahl geeigneter Modelle abgeschlossen, liegt der wahre Nutzen in der gezielten Integration in Geschäftsprozesse. Genau hier lassen sich Effizienzgewinne realisieren, Wettbewerbsvorteile schaffen und nicht zuletzt auch neue Umsätze generieren.

Da das Thema sehr umfassend ist, werden wir im Herbst einen eigenen Fachartikel dazu publizieren. An dieser Stelle aber eine komprimierte Vorschau:

1. Effizienzsteigerung durch nahtlose Integration

Direkt im Tool verfügbar

KI muss dort wirken, wo der Mensch arbeitet. Nur wenn KI-Funktionen direkt in bestehende Tools eingebunden sind, entfalten sie ihr volles Effizienzpotenzial.

Beispiel: Microsoft Word

  • Sprachmodell: Automatisches Verfassen, Zusammenfassen oder Optimieren von Texten direkt im Dokument – ohne Medienbruch.
  • Bildgenerator: Bildvorschläge und visuelle Gestaltung direkt im Kontext des Dokuments (z. B. via Add-in oder API).

Verknüpfung interner und externer Datenquellen

Noch grösser wird der Mehrwert, wenn KI nicht nur mit öffentlichen Daten arbeitet, sondern in Echtzeit auf interne Informationen zugreift – etwa aus E-Mails, CRM-Systemen oder Dokumentenmanagement.

Beispiel: E-Mail-Korrespondenz

  • Das Sprachmodell verfasst eine E-Mail an einen Kunden basierend auf CRM-Daten, bisherigen E-Mail-Verläufen und kontextbezogenem Wissen.
  • Persönliche Informationen wie der kürzliche Urlaub des Kunden in der Provence oder seine Vorliebe für physische Postsendungen werden elegant in die Nachricht eingebunden.
  • Ergebnis: deutlich höhere Kundenbindung und Conversion-Raten.

2. Automatisierung repetitiver Aufgaben durch Bots

Dank moderner No-Code- und Low-Code-Plattformen lassen sich heute auch komplexe Automatisierungen effizient umsetzen. In Kombination mit KI-Modellen können Routineprozesse nicht nur schneller, sondern auch intelligenter ausgeführt werden.

Vorteile für IT-Dienstleister:

  • Massgeschneiderte Automatisierungen, z. B. für Support, HR, Vertrieb oder Controlling
  • Höherer Return on Investment (ROI) als bei generischen KI-Lösungen
  • Stärkere Kundenbindung durch Individualisierung
  • Differenzierung gegenüber Marktbegleitern

Empfehlung: Für IT-Dienstleister ist der Aufbau von Know-how in diesem Bereich strategisch relevant – nicht zuletzt, da diese Leistungen wiederkehrend abrechenbar sind und echtes Beratungspotenzial bieten.

3. Prozessmanagement: KI ohne Prozessmanagement?

Viele Unternehmen führen KI-Tools ein, ohne zuvor eine klare Strategie oder ein übergeordnetes Ziel definiert zu haben. Häufig geschieht dies aus dem Wunsch heraus, „dabei zu sein“ oder weil man sich rasche, transformative Effekte erhofft – ohne die zugrunde liegenden Prozesse zu analysieren oder zu überdenken.


Als IT-Dienstleister gehört es jedoch zur professionellen Beratung, genau hier anzusetzen – gegebenenfalls in Zusammenarbeit mit einem Prozessmanagement-Consultant.


Warum Prozessmanagement unverzichtbar ist


Echter Mehrwert entsteht nur dann, wenn:

  • bestehende Prozesse systematisch analysiert werden,
  • Optimierungspotenziale identifiziert werden,
  • die Auswirkungen von KI auf Arbeitsabläufe, Rollenprofile und Zuständigkeiten verstanden und geplant werden.


Erst danach kann entschieden werden:

  • Wo KI eingesetzt werden soll,
  • Wie die Integration erfolgen soll,
  • und welche Ziele messbar verfolgt werden.


Ein solches Vorgehen ist im ersten Schritt zwar aufwendiger, führt aber zu nachhaltigen, skalierbaren Ergebnissen. Nur wenn die Einführung von KI im Rahmen eines übergreifenden Change-Prozesses erfolgt, entfaltet sie ihr volles Potenzial – sei es in der Effizienzsteigerung, Qualitätssicherung oder Innovation.


Fazit: KI ist kein Plugin. Ohne strukturiertes Prozessmanagement bleibt ihr Nutzen oft hinter den Erwartungen zurück und kann sogar kontraproduktiv wirken.