
Shadow AI – skrytá hrozba pri kybernetickej bezpečnosti
Umelá inteligencia sa stala súčasťou každodennej práce – od analýzy a sumarizácie textov, cez písanie e-mailov až po tvorbu prezentácií. Čoraz častejšie dochádza k situáciam, keď zamestnanci používajú nástroje, ktoré ich IT oddelenie nepozná ani neschválilo. A práve tu sa začína riziko. „Neviditeľný pomocník“ sa razom môže zmeniť na zdroj úniku dôležitých firemných či osobných údajov. Bavíme sa tu o novom fenoméne – takzvanom shadow AI.
Čo je Shadow AI
Pojem shadow AI označuje využívanie umelej inteligencie mimo kontroly organizácie – teda bez vedomia a súhlasu IT oddelenia. Môže ísť o používanie populárnych chatbotov, online prekladačov či generátorov textov a obrázkov, ale aj o vlastné AI aplikácie alebo agenty, ktoré si zamestnanci vytvoria pre zefektívnenie práce.
Najčastejším zdrojom shadow AI sú práve generatívne AI nástroje – teda systémy schopné na základe textového zadania vytvárať nový obsah, sumarizovať dokumenty, analyzovať dáta alebo programovať. Ich sila je obrovská, no zároveň skrývajú riziko, že sa do nich nevedomky odošlú interné alebo osobné údaje, ktoré môžu byť následne spracované alebo uložené mimo kontrolu organizácie. Tieto údaje ďalej môžu byť použité na tréning AI modelov a časom sa potenciálne môžu dostať na verejnosť vo forme odpovedí od AI modelu inému používateľovi. Aj preto sa shadow AI dnes stáva jedným z najdiskutovanejších tém kybernetickej bezpečnosti.
Výpovedné údaje: ako rastie používanie a čo hovoria čísla
Podľa Netskope Threat Labs (2025) využíva dnes až 89 % organizácií aspoň jednu AI aplikáciu. No až 60 % používateľov stále pracuje s AI nástrojmi, ktoré nie sú schválené ich IT oddelením – teda v zóne shadow AI. Medzi februárom a májom 2025 vzrástlo používanie generatívnych AI platforiem o 50 %, pričom sieťová prevádzka smerujúca do týchto služieb sa zvýšila až o 73 %. Najpopulárnejšími platformami sú Microsoft Azure OpenAI (29 %), Amazon Bedrock (22 %) a Google Vertex AI (7 %).
Ešte znepokojujúcejšie sú dáta z praxe. IBM vo svojej správe Cost of a Data Breach 2025 uvádza, že 20 % organizácií už zaznamenalo únik dát spôsobený nesprávnym používaním AI nástrojov. Firmy s vysokou mierou shadow AI mali priemerné náklady na incident až o 670 000 USD vyššie než ostatné.
Len 3 % z nich mali adekvátne nastavené prístupové opatrenia k AI systémom – zvyšok nevedel presne určiť, kto a aké nástroje používa. Ukazuje sa, že problém nie je len v nedisciplinovanosti používateľov, ale aj v neexistencii rámca, ktorý by AI v organizácii riadil a monitoroval.
Prečo je Shadow AI nebezpečný
- Únik firemných informácií – Ak zamestnanec zadá do AI interné dáta, texty zmlúv či kód, tieto informácie sa môžu dostať mimo organizáciu a stať sa súčasťou trénovacích dát modelu.
- Strata kontroly a auditovateľnosti – IT oddelenie často ani nevie, že niekto takýto nástroj používa. Nie je možné spätne overiť, čo sa odoslalo a kam.
- Riziko regulácií a pokút – Porušenie GDPR alebo iných predpisov môže viesť k vysokým sankciám a reputačnej strate.
- Zneužitie AI útočníkmi – Generatívna AI sa dnes využíva aj na tvorbu realistických phishingov či deepfake obsahu. Podľa dát IBM bola generatívna umelá inteligencia zapojená až v 16 % všetkých kybernetických incidentov v roku 2025.
Všetky tieto riziká robia zo shadow AI nie len technologický, ale aj organizačný problém.
Ako tomu čeliť
Úspešná ochrana pred shadow AI spočíva v kombinácii technológií, procesov a vzdelávania:
- Zmapujte svoje prostredie – zistite, aké AI aplikácie sa v organizácii používajú, aj tie, ktoré neprešli schválením.
- Zaveďte technické opatrenia – centrálna správa zariadení (MDM), DLP alebo SIEM riešenia dokážu odhaliť neautorizované AI požiadavky či prenos klasifikovaných údajov.
- Nastavte jasné pravidlá – vytvorte internú politiku pre používanie AI, definujte povolené nástroje a nastavte proces schvaľovania nových.
- Vzdelávajte používateľov – školenia a real-time upozornenia pomáhajú predchádzať chybám a nevedomému zdieľaniu dát. Vo vzdelávaní dbajte na to, aby zamestnanci nevkladali do verejných (mimo schválených organizáciou) AI modelov interné údaje. Ich použite na všeobecné otázky či úlohy, v ktorých sa neprezrádzajú údaje o organizácii, projekte či osobách môžu byť v poriadku. Problém vznikne vtedy, ak sa zamestnanci z „pohodlnosti“ snažia vyriešiť pripomienkovanie interných zmlúv, spracovanie databázy údajov a pod. za pomoci umelej inteligencie.
Spolu bezpečne do éry umelej inteligencie
Bezpečné využívanie umelej inteligencie je možné – ak je pod kontrolou.
Namiesto obmedzovania AI technológií by organizácie mali zamerať pozornosť na ich zodpovedné a riadené používanie.
Naša spoločnosť pomáha firmám odhaliť a minimalizovať riziká spojené so shadow AI, nastaviť interné politiky pre generatívnu AI, zaviesť technické opatrenia a zabezpečiť vzdelávanie používateľov.
Kontaktujte nás a zistite, ako môže vaša organizácia využívať výhody umelej inteligencie bezpečne, efektívne a v súlade s kybernetickými štandardmi.