IT SECURITY NETWORK NEWS je B2B komunitní web zaměřený na IT bezpečnost a související témata. #security #bezpečnost #ITSECNN

Skryté instrukce v dokumentech mohou útočníkům pomoci ovládnout umělou inteligenci

Skryté instrukce v dokumentech mohou útočníkům pomoci ovládnout umělou inteligenci

Kybernetická bezpečnost AI systémů přesahuje rámec tradiční ochrany IT. Modely strojového učení a jazykové modely jsou napojené na datové toky, nástroje a infrastrukturu, které mohou útočníci zneužít k narušení důvěrnosti, integrity i dostupnosti. K technickým rizikům se přidává dopad na bezpečnost a spolehlivost rozhodování, protože kompromitovaný model může generovat přesvědčivé, avšak škodlivé výstupy.

Útočné scénáře zasahují celý životní cyklus. Při učení hrozí „otrávení“ dat, kdy se do tréninku dostanou manipulované vzorky a model si osvojí „zadní vrátka“ nebo zkreslené asociace. Během provozu se u aplikací nad jazykovými modely objevuje prompt injection, tedy vložení instrukcí do dokumentů či webů, které model nekriticky následuje. U systémů počítačového vidění se využívají adversariální příklady, na pohled nepatrné změny vstupu, jež vedou k chybnému rozpoznání. Na rozhraních API hrozí model extraction, kdy agresor z odpovědí postupně rekonstruuje parametry modelu. Model inversion a membership inference zkoumají, zda lze z výstupů odvodit citlivá tréninková data, což je zásadní otázka ochrany soukromí.

Mapování hrozeb a kontrol pomáhají veřejné taxonomie a rámce. Znalostní báze taktik proti AI systémům ukazuje, jak útočníci manipulují daty, modelem i rozhraními. U aplikací s LLM jsou popsány typické problémy od injekcí přes úniky citlivých informací po zneužití nástrojů. Na úrovni řízení rizik pokrývají AI specifika rámce pro správu rizik a standardy, které doplňují zavedené bezpečnostní normy. V evropském prostředí se AI systémy dostávají pod režim horizontální kybernetické regulace i pravidla pro umělou inteligenci, která zavádějí rizikové kategorie, požadavky na dokumentaci, dohledatelnost dat a post‑market sledování chování modelů. Pro organizace spadající do regulovaných sektorů se tak propojuje bezpečnostní správa IT s řízením rizik AI a ochranou osobních údajů.

Stále je zde i význam lidského faktoru. Útoky cílí na procesy schvalování dat, na správu tajemství a na provozní zkratky. Stínové nasazování modelů mimo dohled a mísení interních a veřejných zdrojů zvyšuje expozici. Praktiky ověřování, segregace povinností, kvalitní logování a připravenost na incidenty s AI komponentou zajišťují, že anomální chování modelu nezůstane bez povšimnutí a že lze zpětně doložit, co model viděl a proč se změnil.