Doporučení zásad správného řízení pro úlohy AI v Azure
Tento článek nabízí doporučení zásad správného řízení pro organizace, na kterých běží úlohy AI v Azure. Zaměřuje se na řešení Azure AI typu platforma jako služba (PaaS), včetně Služeb Azure AI Foundry, Azure OpenAI, Azure Machine Learning a Azure AI Services. Zahrnuje úlohy generující i negenerativní umělé inteligence.
Efektivní zásady správného řízení podporují zodpovědné používání AI. Umožňuje firmám optimalizovat investice do umělé inteligence a zároveň snižovat rizika spojená se zabezpečením, náklady a dodržováním právních předpisů.
Řízení modelů AI
Zásady správného řízení modelu AI odkazují na procesy správy modelů AI, aby zajistily, že vytvářejí spolehlivé, bezpečné a etické výstupy. Kontroly nad vstupy a výstupy modelu pomáhají zmírnit rizika. Tato rizika zahrnují škodlivý obsah a nezamýšlené použití umělé inteligence. Obojí může mít vliv na uživatele i organizaci. Tyto procesy podporují zodpovědné nasazení umělé inteligence a chrání před potenciálními právními a etickými výzvami.
Řiďte modely, které používáte. Pomocí Služby Azure Policy můžete spravovat konkrétní modely, které mají vaše týmy povoleno nasazovat z katalogu modelů Azure AI Foundry. Máte možnost použít předdefinované zásady nebo vytvořit vlastní zásadu. Vzhledem k tomu, že tento přístup používá seznam povolených, začněte efektem auditu. Efekt auditu umožňuje monitorovat modely, které vaše týmy používají, aniž by bylo nutné omezovat nasazení. Jakmile pochopíte potřeby týmů pracujících na vývoji a experimentování s AI, přepněte na efekt zamítnutí , abyste zbytečně nepřekáželi jejich pokroku. Pokud přepnete zásadu na odepřít, neodebere to automaticky neodpovídající modely, které už týmy nasadily. Tyto modely je nutné opravit ručně.
Vytvořte proces pro detekci rizik umělé inteligence. Pomocí nástrojů, jako je Defender for Cloud, můžete zjišťovat úlohy generování AI a zkoumat rizika pro předplnění generování artefaktů AI. Vytvořte zásadu pro pravidelné generování modelů umělé inteligence týmu. Zdokumentujte zjištěná rizika a průběžně aktualizujte zásady správného řízení AI, aby se zmírňovaly nově vznikající problémy.
Definujte základní filtry obsahu pro generující modely AI. Pomocí azure AI Content Safety definujte základní filtr obsahu pro schválené modely AI. Tento bezpečnostní systém spouští výzvu i dokončení modelu prostřednictvím skupiny klasifikačních modelů. Tyto klasifikační modely detekují a pomáhají zabránit výstupu škodlivého obsahu v celé řadě kategorií. Zabezpečení obsahu poskytuje funkce, jako jsou štíty výzvy, detekce uzemnění a detekce chráněného textu materiálu. Naskenuje obrázky a text. Vytvořte proces pro týmy aplikací, které budou komunikovat s různými potřebami zásad správného řízení.
Modely základní generující umělé inteligence. K řízení výstupu generačních modelů AI použijte systémové zprávy a model rag (RAG ). Otestujte efektivitu uzemnění pomocí nástrojů, jako je tok výzvy nebo opensourcová červená architektura seskupování PyRIT.
Řízení nákladů na AI
Zásady správného řízení nákladů na AI zahrnují správu výdajů spojených s úlohami AI, aby se maximalizovala efektivita a snížila nepotřebná útrata. Efektivní řízení nákladů zajišťuje, aby investice do umělé inteligence odpovídaly obchodním cílům, což brání nepředvídatelným nákladům v nadměrném poskytování nebo nedostatečném využití. Tyto postupy umožňují organizacím optimalizovat své operace umělé inteligence finančně.
Použijte správný fakturační model. Pokud máte předvídatelné úlohy, použijte úrovně závazku AI ve službách Azure AI. U modelů Azure OpenAI použijte zřízené jednotky propustnosti (PTU), které můžou být levnější než průběžné platby (založené na spotřebě). Běžně se kombinují koncové body PTU a koncové body založené na spotřebě pro optimalizaci nákladů. Pro přelití použijte PTU na primárním koncovém bodu modelu AI a sekundární koncový bod AI založený na spotřebě. Další informace najdete v tématu Zavedení brány pro více instancí Azure OpenAI.
Zvolte správný model pro váš případ použití. Vyberte model AI, který vyhovuje vašim potřebám, aniž by se vám vyúčtovaly nadměrné náklady. Používejte levnější modely, pokud případ použití nepožaduje dražší model. Pokud chcete jemně doladit, maximalizujte časové využití v rámci každého fakturačního období, abyste se vyhnuli dalším poplatkům. Další informace najdete v tématu Modely Azure OpenAI a ceny. Viz také katalog modelů Azure AI Foundry a fakturační údaje pro nasazení modelů.
Nastavte limity zřizování. Přidělení kvót zřizování pro každý model na základě očekávaných úloh, aby se zabránilo zbytečným nákladům. Průběžně monitorujte dynamické kvóty, abyste zajistili, že odpovídají skutečné poptávce, a odpovídajícím způsobem je upravte tak, aby se zachovala optimální propustnost bez nadměrného překročení.
Použijte správný typ nasazení. Modely Azure OpenAI umožňují používat různé typy nasazení. Globální nasazení nabízí nižší ceny za tokeny u určitých modelů OpenAI.
Vyhodnoťte možnosti hostování. V závislosti na potřebách vašeho řešení zvolte správnou infrastrukturu hostování. Například pro úlohy generující AI patří mezi možnosti spravované online koncové body, Azure Kubernetes Service (AKS) a Aplikace Azure Service, z nichž každá má vlastní fakturační model. Vyberte možnost, která poskytuje nejlepší rovnováhu mezi výkonem a náklady pro vaše konkrétní požadavky.
Řízení chování klientů ve službách založených na spotřebě Omezte klientský přístup ke službě AI vynucením protokolů zabezpečení, jako jsou síťové řízení, klíče a řízení přístupu na základě role (RBAC). Ujistěte se, že klienti používají omezení rozhraní API, jako jsou maximální počet tokenů a maximální dokončování. Pokud je to možné, dávkové požadavky za účelem optimalizace efektivity. Nechte výzvy stručné, ale poskytněte potřebný kontext ke snížení spotřeby tokenů.
Zvažte použití generující brány AI. Generující brána AI umožňuje sledovat využití tokenů, omezení využití tokenů, použít jističe a směrovat na různé koncové body AI, abyste mohli řídit náklady.
Vytvořte zásadu pro vypnutí výpočetních instancí. Definujte a vynucujte zásady, které uvádějí, že prostředky AI musí používat funkci automatického vypnutí na virtuálních počítačích a výpočetních instancích v Azure AI Foundry a Azure Machine Learning. Automatické vypnutí se vztahuje na neprodukční prostředí a produkční úlohy, které můžete v určitých časových obdobích převést do offline režimu.
Další pokyny ke správě nákladů najdete v tématu Správa nákladů na AI a optimalizace nákladů v architektuře standardních hodnot Azure OpenAI.
Řízení platforem AI
Zásady správného řízení platformy AI zahrnují použití řízení zásad na různé služby AI v Azure, jako jsou Azure AI Foundry a Azure Machine Learning. Použití zásad správného řízení na úrovni platformy vynucuje konzistentní zásady zabezpečení, dodržování předpisů a provozních zásad v ekosystému AI. Toto sladění podporuje efektivní dohled, který posiluje celkovou správu a spolehlivost umělé inteligence.
Použijte předdefinované zásady správného řízení. Azure Policy použijte k použití předdefinovaných definic zásad pro každou platformu AI, kterou používáte. Zahrnuje azure AI Foundry, azure Machine Learning, služby Azure AI, Azure AI Search a další.
Povolte zásady AI cílové zóny Azure. Pro uživatele cílové zóny Azure zahrnuje nasazení kurátorovanou sadu doporučených předdefinovaných zásad pro služby platformy Azure AI. Vyberte iniciativu zásad, kterou chcete použít v kategorii Dodržování předpisů specifická pro úlohy během nasazení cílové zóny Azure. Mezi sady zásad patří Azure OpenAI, Azure Machine Learning a Azure AI Search a služby Azure Bot.
Řízení zabezpečení AI
Zásady správného řízení zabezpečení AI řeší potřebu chránit úlohy umělé inteligence před hrozbami, které by mohly ohrozit data, modely nebo infrastrukturu. Robustní postupy zabezpečení chrání tyto systémy před neoprávněným přístupem a porušením zabezpečení dat. Tato ochrana zajišťuje integritu a spolehlivost řešení AI, která jsou nezbytná pro zachování důvěry uživatelů a dodržování právních předpisů.
Povolte Defender for Cloud v každém předplatném. Defender for Cloud poskytuje nákladově efektivní přístup pro detekci konfigurací v nasazených prostředcích, které nejsou zabezpečené. Měli byste také povolit ochranu před internetovými útoky AI.
Nakonfigurujte řízení přístupu. Udělte uživatelům s nejnižšími oprávněními přístup k centralizovaným prostředkům AI. Začněte například s rolí Čtenář Azure a zvyšte oprávnění na roli Azure přispěvatele, pokud omezená oprávnění zpomalí vývoj aplikací.
Používejte spravované identity. Použijte spravovanou identitu ve všech podporovaných službách Azure. Udělte prostředkům aplikace přístup s nejnižšími oprávněními, které potřebují přístup ke koncovým bodům modelu AI.
Použijte přístup za běhu. Pro přístup za běhu používejte privileged Identity Management (PIM ).
Řízení operací AI
Zásady správného řízení provozu umělé inteligence se zaměřují na správu a udržování stabilních služeb AI. Tyto operace podporují dlouhodobou spolehlivost a výkon. Centralizované plány dohledu a kontinuity pomáhají organizacím vyhnout se výpadkům, což zajišťuje konzistentní obchodní hodnotu AI. Tyto snahy přispívají k efektivnímu nasazení umělé inteligence a trvalé provozní efektivitě.
Kontrola a správa modelů AI Vytvořte zásadu pro správu verzí modelu, zejména pokud jsou modely upgradované nebo vyřazené. Potřebujete zachovat kompatibilitu se stávajícími systémy a zajistit hladký přechod mezi verzemi modelu.
Definujte plán provozní kontinuity a zotavení po havárii. Vytvořte zásadu pro provozní kontinuitu a zotavení po havárii pro koncové body AI a data AI. Nakonfigurujte základní zotavení po havárii pro prostředky, které hostují koncové body modelu AI. Mezi tyto prostředky patří azure AI Foundry, azure Machine Learning, azure OpenAInebo služby Azure AI. Všechna úložiště dat Azure, jako je Azure Blob Storage, Azure Cosmos DB a Azure SQL Database, poskytují pokyny pro spolehlivost a zotavení po havárii, které byste měli dodržovat.
Definujte základní metriky pro prostředky AI. Povolte doporučená pravidla upozornění pro příjem oznámení o odchylkách, které indikují pokles stavu úloh. Pro příklady viz Azure AI Search, Azure Machine Learning, nasazení výzev toku Azure AI Foundrya příručky k jednotlivým službám Azure AI.
Řízení dodržování právních předpisů AI
Dodržování právních předpisů v AI vyžaduje, aby organizace dodržovaly oborové standardy a právní povinnosti, což snižuje rizika související s závazky a vytváří důvěru. Opatření týkající se dodržování předpisů pomáhají organizacím vyhnout se sankcím a zlepšit důvěryhodnost klientů a regulačních orgánů. Dodržování těchto standardů vytváří pevný základ pro zodpovědné a vyhovující využití AI.
Automatizace dodržování předpisů Pomocí Microsoft Purview Compliance Manageru můžete vyhodnotit a spravovat dodržování předpisů napříč cloudovými prostředími. Použijte příslušné iniciativy dodržování právních předpisů ve službě Azure Policy pro vaše odvětví. Použijte další zásady založené na službách AI, které používáte, například Azure AI Foundry a Azure Machine Learning .
Vyvíjejte kontrolní seznamy pro dodržování předpisů specifické pro konkrétní odvětví. Předpisy a standardy se liší podle odvětví a umístění. Potřebujete znát zákonné požadavky a kompilovat kontrolní seznamy, které odpovídají zákonným požadavkům, které jsou relevantní pro vaše odvětví. Používejte standardy, jako je ISO/IEC 23053:2022 (framework for Artificial Intelligence Systems Using Machine Learning), k auditování zásad, které se použijí pro úlohy umělé inteligence.
Řízení dat AI
Zásady správného řízení dat AI zahrnují zásady pro zajištění toho, aby data do modelů AI byla vhodná, vyhovující a zabezpečená. Zásady správného řízení dat chrání soukromí a duševní vlastnictví, což zvyšuje spolehlivost a kvalitu výstupů umělé inteligence. Tato opatření pomáhají zmírnit rizika související s zneužitím dat a jsou v souladu s regulačními a etickými standardy.
Vytvořte proces katalogizace dat. Pomocí nástroje, jako je Microsoft Purview , můžete implementovat jednotný katalog dat a klasifikační systém ve vaší organizaci. Tyto zásady můžete integrovat do kanálů CI/CD pro vývoj AI.
Udržujte hranice zabezpečení dat. Katalogizace dat pomáhá zajistit, aby se citlivá data neukáněla do veřejných koncových bodů AI. Při vytváření indexů z určitých zdrojů dat může proces indexování odebrat hranice zabezpečení kolem dat. Zajistěte, aby všechna data přijatá do modelů AI byla klasifikována a prověřena podle centralizovaných standardů.
Zabránit porušení autorských práv. Pomocí systému filtrování obsahu, jako je detekce chráněných materiálů v Azure AI Content Safety , vyfiltrujte materiály chráněné autorskými právy. Pokud model AI uzemňujete, trénujete nebo doladíte, ujistěte se, že používáte právně získaná a řádně licencovaná data, a implementujte bezpečnostní opatření, která brání porušení autorských práv modelu. Pravidelně kontrolujte výstupy dodržování předpisů duševního vlastnictví.
Implementujte správu verzí pro uzemnění dat. Vytvořte proces správy verzí pro uzemnění dat, například v RAG. Správa verzí zajišťuje, že můžete sledovat jakékoli změny podkladových dat nebo jejich struktury. V případě potřeby můžete změny vrátit zpět, což pomáhá udržovat konzistenci napříč nasazeními.