Doporučení zabezpečení pro úlohy AI v Azure
Tento článek nabízí doporučení zabezpečení pro organizace, na kterých běží úlohy AI v Azure. Zaměřuje se na řešení Azure AI typu platforma jako služba (PaaS), včetně Služeb Azure AI Foundry, Azure OpenAI, Azure Machine Learning a Azure AI Services. Zahrnuje úlohy generující i negenerativní umělé inteligence.
S tím, jak se AI integruje do obchodních operací, je ochrana těchto prostředků před potenciálními hrozbami zásadní pro zachování integrity dat a dodržování předpisů. Použití standardizovaných standardních hodnot zabezpečení a následující dobře navržená architektura pomáhá organizacím chránit infrastrukturu AI před ohroženími zabezpečení.
Zabezpečení prostředků AI
Zabezpečení prostředků AI znamená použití standardních hodnot zabezpečení a osvědčených postupů k ochraně infrastruktury používané pro úlohy AI v Azure. Tato ochrana minimalizuje rizika z externích hrozeb a zajišťuje konzistentní stav zabezpečení v celé organizaci.
Zabezpečení platforem Azure AI Standardizujte použití standardních hodnot zabezpečení Azure pro každý prostředek AI. Postupujte podle doporučení zabezpečení v průvodcích službami Azure v architektuře Azure Well-Architected Framework.
Standardní hodnoty zabezpečení platformy Azure AI | Průvodce službou Azure Well-Architected Framework |
---|---|
Azure Machine Learning | Azure Machine Learning |
Azure AI Foundry | |
Azure OpenAI | Azure OpenAI |
Zabezpečení modelů AI
Zabezpečení modelů AI označuje implementaci ochrany před hrozbami, monitorování rizik injektáže výzvy, ověření integrity modelu a centralizaci zásad správného řízení. Tyto postupy zajišťují, aby modely AI zůstaly v bezpečí před škodlivou manipulací, zachovaly jejich spolehlivost a poskytovaly přesné výsledky.
Implementujte ochranu před hrozbami pro všechny modely AI. K ochraně modelů AI před hrozbami, jako jsou útoky prostřednictvím injektáže výzvy a manipulace s modelem, použijte Microsoft Defender for Cloud . Tento nástroj poskytuje nepřetržité monitorování úloh AI, které pomáhají zjišťovat a bránit vznikajícím hrozbám. Implementace této ochrany napříč všemi úlohami zajišťuje konzistentní stav zabezpečení v celé organizaci.
Monitorujte výstupy a použijte stínění výzvy. Pravidelně kontrolujte data vrácená modely AI, abyste zjistili a zmírňovali rizika spojená se škodlivými nebo nepředvídatelnými výzvami uživatelů. Implementujte stínění výzvy ke kontrole textu pro riziko útoku na vstup uživatele na generování modelů Al.
Zajistěte ověření modelu. Vytvořte mechanismy ověřování na úrovni společnosti, abyste zajistili, že všechny používané modely AI jsou legitimní a bezpečné. Pokud používáte opensourcové modely, použijte podpisy modelů nebo jiné ověřovací procesy k potvrzení pravosti modelů AI, abyste zabránili nasazení neoprávněných nebo neoprávněných modelů.
Zvažte použití brány AI.Azure API Management (APIM) pomáhá zajistit konzistentní zabezpečení napříč úlohami AI. Použijte své integrované zásady pro řízení provozu a vynucování zabezpečení. Integrujte APIM s Microsoft Entra ID, abyste mohli centralizovat ověřování a autorizaci a zajistit, aby s vašimi modely AI komunikovali jenom autorizovaní uživatelé nebo aplikace. Ujistěte se, že pro spravovanou identitu reverzního proxy serveru nakonfigurujete přístup s nejnižšími oprávněními. Další informace najdete v tématu Ověřování AI s využitím APIM.
Zabezpečení přístupu k AI
Zabezpečení přístupu k AI zahrnuje vytvoření ověřovacích a autorizačních ovládacích prvků pro rovinu správy i externí přístup k prostředkům AI. Správná správa přístupu omezuje využití prostředků jenom na uživatele s ověřenými oprávněními. Snižuje riziko neoprávněné interakce s modely AI. Silné řízení přístupu, jako je přístup na základě role a zásady podmíněného přístupu, pomáhá chránit citlivá data a udržovat dodržování standardů zabezpečení.
Uspořádejte prostředky a řízení přístupu. K uspořádání a správě artefaktů AI, jako jsou datové sady, modely a experimenty, použijte jedinečné pracovní prostory. Pracovní prostory centralizuje správu prostředků a zjednodušuje řízení přístupu. Pomocí projektů v Azure AI Foundry můžete například efektivně spravovat prostředky a oprávnění, což usnadňuje spolupráci při zachování hranic zabezpečení.
Pro ověřování použijte ID Microsoft Entra. Pokud je to možné, eliminujte statické klíče rozhraní API ve prospěch ID Microsoft Entra pro ověřování. Tento krok vylepšuje zabezpečení prostřednictvím centralizované správy identit a snižuje režii na správu tajných kódů. Omezte také distribuci klíčů rozhraní API. Místo toho upřednostňujte identity v ID Microsoft Entra před klíči rozhraní API pro ověřování. Auditujte seznam jednotlivců s přístupem ke klíči rozhraní API, abyste měli jistotu, že je aktuální. Pokyny k ověřování najdete v tématu azure AI Foundry, azure OpenAI, služby Azure AI, azure Machine Learning.
Nakonfigurujte ověřování. Povolte vícefaktorové ověřování (MFA) a upřednostňujte sekundární účty pro správu nebo přístup za běhu pomocí privileged Identity Management (PIM) pro citlivé účty. Omezte přístup k rovině řízení pomocí služeb, jako je Azure Bastion, jako jsou zabezpečené vstupní body do privátních sítí.
Použijte zásady podmíněného přístupu. Implementujte zásady podmíněného přístupu na základě rizika, které reagují na neobvyklou přihlašovací aktivitu nebo podezřelé chování. Pomocí signálů, jako je umístění uživatele, stav zařízení a chování při přihlašování, aktivujte další kroky ověření. Pokud chcete zvýšit zabezpečení, vyžadovat vícefaktorové ověřování pro přístup k důležitým prostředkům AI. Omezte přístup k infrastruktuře AI na základě geografických umístění nebo důvěryhodných rozsahů IP adres. Ujistěte se, že přístup k prostředkům AI mají přístup jenom vyhovující zařízení (ty, které splňují požadavky na zabezpečení).
Nakonfigurujte přístup s nejnižšími oprávněními. Nakonfigurujte přístup s nejnižšími oprávněními implementací řízení přístupu na základě role (RBAC), abyste zajistili minimální přístup k datům a službám. Přiřaďte role uživatelům a skupinám na základě jejich zodpovědností. Pomocí Azure RBAC můžete doladit řízení přístupu pro konkrétní prostředky, jako jsou virtuální počítače a účty úložiště. Zajistěte, aby uživatelé měli pouze minimální úroveň přístupu potřebnou k provádění svých úkolů. Pravidelně kontrolujte a upravujte oprávnění, aby se zabránilo plýžení oprávnění. Příklad:
Role Ukázková oprávnění Odborníci na data Přístup pro čtení a zápis k úložišti dat, oprávnění ke spouštění trénovacích úloh a přístup k trénovacím prostředím modelu. Vývojáři umělé inteligence Přístup k vývojovým prostředím, oprávněním nasazení a možnostem upravovat aplikace AI. Správci IT Úplný přístup ke správě infrastruktury, konfigurace sítě a zásad zabezpečení Zabezpečte interakce mezi službami Azure. Spravovaná identita umožňuje službám Azure ověřovat se navzájem bez správy přihlašovacích údajů.
Zabezpečte externí přístup ke koncovým bodům modelu AI. Při přístupu ke koncovým bodům modelu AI vyžadovat, aby se klienti ověřili pomocí ID Microsoft Entra. Zvažte použití služby Azure API Management jako brány AI před koncovými body modelu AI k vynucení zásad přístupu, řízení využití a poskytování možností monitorování.
Zabezpečení spouštění AI
Zabezpečení spouštění AI zahrnuje ochranu procesů, kterými agenti umělé inteligence, jako jsou virtuální asistenti nebo autonomní agenti, spouští kód v reakci na žádosti uživatelů. Izolujte spouštěcí prostředí, proveďte kontroly kódu a nastavte limity prostředků. Tato opatření pomáhají zajistit, aby tato spuštění neohrožuje stabilitu systému ani zabezpečení. Tyto postupy brání škodlivým aktivitám a chrání integritu systémů, ve kterých agenti umělé inteligence pracují, což jim umožňuje spolehlivě fungovat v rámci zabezpečené architektury.
Implementujte mechanismy izolace. Využijte dynamickou správu relací, jako jsou dynamické relace v Azure Container Apps, abyste zajistili, že každé spuštění kódu proběhne v čerstvém izolovaném prostředí, které je po použití zničeno.
Zabezpečený spouštěcí kód. Před nasazením skriptů pro spuštění agenty AI proveďte důkladné kontroly a testování kódu. Tento proces pomáhá identifikovat a zmírnit potenciální ohrožení zabezpečení. Pomocí systémů správy verzí můžete spravovat změny kódu a zajistit, aby se spouštěly pouze schválené verze skriptů.
Implementujte limity prostředků. Nastavte limity prostředků (procesor, paměť, využití disku) pro spouštěcí prostředí kódu, abyste zabránili jakémukoli jedinému spuštění v nadměrném využití prostředků a potenciálně narušení jiných služeb. Definujte časové limity spuštění, abyste zajistili, že se dlouhotrvající nebo potenciálně zablokované procesy automaticky ukončí.
Další informace najdete v tématu Vytváření asistentů se službou Azure OpenAI Service , jak používat funkce Pomocníky Azure OpenAI a implementace agenta.