Sdílet prostřednictvím


Zabezpečení AI – proces zabezpečení AI

Tento článek popisuje organizační proces zabezpečení úloh AI. Zaměřuje se na důvěrnost, integritu a dostupnost (CIA) umělé inteligence. Účinné postupy zabezpečení snižují riziko ohrožení zabezpečení tím, že chrání důvěrnost, integritu a dostupnost modelů a dat AI. Zabezpečené prostředí AI také odpovídá obchodním cílům zabezpečení a zvyšuje důvěru v procesy řízené AI.

Diagram znázorňující proces přechodu na AI: Strategie AI, Plán AI, AI Ready, Řízení AI, Správa AI a Zabezpečená AI

Posouzení rizik zabezpečení AI

Posouzení rizik zabezpečení AI zahrnuje identifikaci a vyhodnocení potenciálních ohrožení zabezpečení, která by mohla mít vliv na úlohy AI. Proaktivní řešení těchto rizik pomáhá zabránit porušením, manipulaci a zneužití, což posiluje spolehlivost aplikací umělé inteligence. Tento přístup také podporuje organizační cíle tím, že chrání citlivá data a udržuje důvěru zúčastněných stran.

  • Identifikujte běžná rizika zabezpečení AI. Pomocí rozpoznaných prostředků, jako jsou MITRE ATLAS, OWASP Machine Learning risk a OWASP Generative AI risk , pravidelně vyhodnocujte rizika napříč všemi úlohami umělé inteligence. Pro průběžnou správu stavu zabezpečení zvažte použití nástrojů zabezpečení AI, jako je správa stavu zabezpečení AI v Programu Microsoft Defender pro cloud. Tyto nástroje mohou automatizovat detekci a nápravu rizik generující umělé inteligence.

  • Identifikujte rizika dat. Ztráta nebo vystavení citlivých dat může mít významný dopad na zúčastněné strany vaší organizace a povinnosti v oblasti dodržování předpisů. Pomocí podnikových nástrojů, jako je Správa insiderských rizik Microsoft Purview, vyhodnocujte vnitřní riziko a udržujte zabezpečení dat v celé firmě. U všech úloh umělé inteligence klasifikujte a upřednostňovat rizika na základě citlivosti dat, která zpracovávají, ukládají nebo přenášejí.

  • Modelování hrozeb AI Modelování hrozeb umělé inteligence pro celou společnost můžete provádět pomocí architektur, jako je STRIDE, k vyhodnocení potenciálních vektorů útoku pro všechny úlohy AI. Pravidelně aktualizujte modely hrozeb, abyste se přizpůsobili novým případům použití AI a hrozbám. Centrum efektivity umělé inteligence by mělo zvážit centralizaci modelování hrozeb AI, aby se zajistil jednotný přístup v organizaci a zmírnit rizika spojená s různými modely AI, zdroji dat a procesy.

  • Otestujte modely AI. Proveďte testování red-team proti generivním modelům AI a negenerativním modelům a vyhodnoťte jejich ohrožení zabezpečení vůči útokům. Nástroje, jako je PyRIT , můžou tento proces automatizovat pro generování umělé inteligence, abyste mohli zpochybňovat výstupy modelu za různých podmínek. Tento krok je vysoce technický a k efektivnímu výkonu vyžaduje vyhrazené odborné znalosti.

Implementace bezpečnostních prvků AI

Implementace kontrolních mechanismů zabezpečení AI znamená vytvoření zásad, postupů a nástrojů, které chrání prostředky a data umělé inteligence. Tyto ovládací prvky pomáhají zajistit dodržování zákonných požadavků a chránit před neoprávněným přístupem a zajistit podporu nepřetržitého provozu a ochrany osobních údajů v datech. Když použijete konzistentní kontroly napříč úlohami umělé inteligence, můžete efektivněji spravovat zabezpečení.

Zabezpečení prostředků AI

Zabezpečení prostředků AI zahrnuje správu a ochranu systémů, modelů a infrastruktury, které podporují aplikace AI. Tento krok snižuje pravděpodobnost neoprávněného přístupu a pomáhá standardizovat postupy zabezpečení v celé organizaci. Komplexní inventář prostředků umožňuje konzistentní použití zásad zabezpečení a posiluje celkovou kontrolu nad prostředky AI.

  • Vytvoření centralizovaného inventáře prostředků AI Udržování podrobného a aktuálního inventáře prostředků úloh AI zajišťuje jednotné použití zásad zabezpečení pro všechny úlohy AI. Zkompilujte inventář všech systémů AI, modelů, datových sad a infrastruktury napříč Azure v celé společnosti. K automatizaci procesu zjišťování využijte nástroje, jako je Azure Resource Graph Explorer a Microsoft Defender for Cloud. Microsoft Defender pro cloud může zjišťovat generování úloh umělé inteligence a v předem připravených artefaktech AI.

  • Zabezpečení platforem Azure AI Standardizujte použití standardních hodnot zabezpečení Azure pro každý prostředek AI. Postupujte podle doporučení zabezpečení v průvodcích službami Azure.

  • Využijte pokyny k zásadám správného řízení pro konkrétní úlohy. Podrobné pokyny k zabezpečení jsou k dispozici pro úlohy AI ve službách platformy Azure (PaaS) a infrastruktuře Azure (IaaS). Pomocí těchto doprovodných materiálů můžete zabezpečit modely, prostředky a data umělé inteligence v rámci těchto typů úloh.

Zabezpečení dat AI

Zabezpečení dat AI zahrnuje ochranu dat, která modely AI používají a generují. Efektivní postupy zabezpečení dat pomáhají zabránit neoprávněnému přístupu, únikům dat a porušením předpisů. Řízení přístupu k datům a údržba podrobného katalogu také podporují informované rozhodování a snižují riziko vystavení citlivých informací.

  • Definujte a udržujte hranice dat. Zajistěte, aby úlohy umělé inteligence používaly data vhodná pro jejich úroveň přístupu. Aplikace AI přístupné všem zaměstnancům by měly zpracovávat pouze data vhodná pro všechny zaměstnance. Internetové aplikace umělé inteligence musí používat data vhodná pro veřejnou spotřebu. Pokud chcete zabránit neúmyslným přístupu k datům, použijte samostatné datové sady nebo prostředí pro různé aplikace AI. Zvažte použití sady nástrojů zabezpečení dat od Microsoft Purview k zabezpečení dat.

  • Implementujte přísné řízení přístupu k datům. Zajistěte, aby aplikace ověřily, že koncoví uživatelé mají oprávnění přistupovat k datům, která jsou součástí jejich dotazů. Vyhněte se širokým systémovým oprávněním pro akce uživatelů. Provozujte v zásadě, že pokud má AI přístup k určitým informacím, měl by mít uživatel oprávnění k přístupu přímo k němu.

  • Udržujte katalog dat. Udržujte aktuální katalog všech dat připojených a využívaných systémy AI, včetně umístění úložiště a podrobností o přístupu. Pravidelně kontrolujte a oznamujte data a sledujte úrovně citlivosti a vhodnosti, které pomáhají při analýze a identifikaci rizik. Zvažte použití Katalog dat Microsoft Purview k mapování a řízení dat.

  • Vytvořte plán správy změn citlivosti dat. Sledujte úrovně citlivosti dat, jak se můžou v průběhu času měnit. Pomocí katalogu dat můžete monitorovat informace používané v úlohách AI. Implementujte proces pro vyhledání a odebrání citlivých dat z úloh umělé inteligence.

  • Zabezpečení artefaktů AI Rozpoznat modely a datové sady AI jako cenné duševní vlastnictví a implementovat opatření, která je odpovídajícím způsobem chrání. Ukládejte modely a datové sady AI za privátními koncovými body a v zabezpečených prostředích, jako je Azure Blob Storage a vyhrazené pracovní prostory. Použijte přísné zásady přístupu a šifrování pro ochranu artefaktů AI před neoprávněným přístupem nebo krádeží, abyste zabránili otravě daty.

  • Ochrana citlivých dat. Pokud je původní zdroj dat nevhodný pro přímé použití, použijte duplicity, místní kopie nebo podmnožiny, které obsahují pouze nezbytné informace. Zpracovávat citlivá data v kontrolovaných prostředích, která obsahují izolaci sítě a přísné řízení přístupu, aby se zabránilo neoprávněnému přístupu nebo úniku dat. Kromě toho implementujte komplexní záruky, jako je šifrování, průběžné monitorování a systémy detekce neoprávněných vniknutí, které chrání před únikem dat během zpracování.

Údržba bezpečnostních prvků AI

Udržování bezpečnostních prvků AI zahrnuje průběžné monitorování, testování a aktualizaci bezpečnostních opatření pro řešení vyvíjejících se hrozeb. Pravidelná kontrola kontrolních mechanismů zabezpečení zajišťuje, aby úlohy umělé inteligence zůstaly chráněné a aby se organizace přizpůsobila novým rizikům. Proaktivní údržba pomáhá předcházet porušením zabezpečení a udržovat důvěru v systémy AI v průběhu času.

  • Implementujte testování pro únik dat a převod v systémech AI. Proveďte důkladné testy, abyste zjistili, jestli se citlivá data dají vytékat nebo vyřakovat prostřednictvím systémů AI. Proveďte testy ochrany před únikem informací a simulujte scénáře útoku specifické pro AI. Simulace inverze modelu nebo nežádoucích útoků za účelem vyhodnocení odolnosti měr ochrany dat Zajištění zabezpečení modelů AI a procesů zpracování dat proti neoprávněnému přístupu a manipulaci je důležité pro zachování integrity dat a důvěryhodnosti v aplikacích AI.

  • Zajistěte školení a povědomí zaměstnanců zaměřené na AI. Poskytovat školicí programy pro všechny zaměstnance zapojené do projektů AI. Zvýrazněte důležitost zabezpečení dat a osvědčených postupů specifických pro vývoj a nasazení umělé inteligence. Informujte zaměstnance o tom, jak zpracovávat citlivá data, která se používají při trénování, a rozpoznávat hrozby, jako je inverze modelu nebo útoky na otravu dat. Pravidelné školení zajišťuje, aby členové týmu měli znalosti o nejnovějších protokolech zabezpečení AI a porozuměli jejich roli při zachování integrity úloh AI.

  • Vývoj a údržba plánu reakce na incidenty pro incidenty zabezpečení AI Vytvořte strategii reakce na incidenty přizpůsobenou systémům AI pro řešení potenciálních porušení zabezpečení nebo porušení zabezpečení dat. Plán by měl nastínit jasné postupy pro zjišťování, vytváření sestav a zmírnění bezpečnostních incidentů, které by mohly mít vliv na modely AI, data nebo infrastrukturu. Provádění pravidelných postupů a simulací zaměřených na scénáře specifické pro AI, aby se zajistilo, že je tým reakce připravený efektivně zpracovávat incidenty zabezpečení umělé inteligence z reálného světa.

  • Provádění pravidelných posouzení rizik. Pravidelně vyhodnocujte vznikající hrozby a ohrožení zabezpečení specifická pro AI prostřednictvím posouzení rizik a analýz dopadu. Tato vyhodnocení pomáhají identifikovat nová rizika spojená s modely AI, procesy zpracování dat a prostředími nasazení. Hodnocení také vyhodnocují potenciální účinky porušení zabezpečení na systémy AI.

Další kroky

Řízení umělé inteligence, správy AI a zabezpečené umělé inteligence jsou průběžné procesy, které musíte pravidelně iterovat. Podle potřeby se můžete znovu vrátit ke každé strategii AI, plánu AI a připravenosti AI. Kontrolní seznamy přechodu na AI vám pomůžou určit, co má být vaším dalším krokem.