Sdílet prostřednictvím


Model sdílené odpovědnosti umělé inteligence (AI)

Při zvažování a vyhodnocování integrace s povolenou AI je důležité porozumět modelu sdílené odpovědnosti a úkolům, které platforma AI nebo poskytovatel aplikací zpracovává a které úlohy zpracováváte. Odpovědnost za úlohy se liší v závislosti na tom, jestli je integrace umělé inteligence založená na softwaru jako službě (SaaS), platformě jako službě (PaaS) nebo infrastruktuře jako službě (IaaS).

Rozdělení odpovědnosti

Stejně jako u cloudových služeb máte možnosti při implementaci funkcí umělé inteligence pro vaši organizaci. V závislosti na tom, kterou možnost zvolíte, převezmete odpovědnost za různé části nezbytných operací a zásad potřebných k bezpečnému používání umělé inteligence.

Následující diagram znázorňuje oblasti odpovědnosti mezi vámi a Microsoftem podle typu nasazení.

Diagram znázorňující zóny odpovědnosti AI

Přehled vrstvy AI

Aplikace s podporou umělé inteligence se skládá ze tří vrstev funkcí, které seskupí úkoly, které provádíte vy nebo poskytovatel AI. Odpovědnost za zabezpečení se obvykle nachází u každého, kdo provádí úlohy, ale poskytovatel AI se může rozhodnout, že podle potřeby zpřístupní zabezpečení nebo jiné ovládací prvky jako možnost konfigurace. Mezi tyto tři vrstvy patří:

Platforma AI

Vrstva platformy AI poskytuje aplikacím možnosti AI. Ve vrstvě platformy je potřeba sestavit a zabezpečit infrastrukturu, která spouští model AI, trénovací data a konkrétní konfigurace, které mění chování modelu, jako jsou váhy a předsudky. Tato vrstva poskytuje přístup k funkcím prostřednictvím rozhraní API, která předávají text známý jako Metaprompt do modelu AI ke zpracování a poté vrátí vygenerovaný výsledek, označovaný jako prompt-response.

Aspekty zabezpečení platformy AI – K ochraně platformy AI před škodlivými vstupy musí být vytvořen bezpečnostní systém, který vyfiltruje potenciálně škodlivé instrukce odeslané do modelu AI (vstupy). Vzhledem k tomu, že modely AI generují, existuje také potenciál, že se může vygenerovat a vrátit nějaký škodlivý obsah uživateli (výstupy). Jakýkoli bezpečnostní systém musí nejprve chránit před potenciálně škodlivými vstupy a výstupy mnoha klasifikací, včetně nenávisti, jailbreaků a dalších. Tyto klasifikace se budou pravděpodobně vyvíjet v průběhu času na základě znalostí modelu, národního prostředí a odvětví.

Microsoft má integrované bezpečnostní systémy pro nabídky PaaS i SaaS:

Aplikace AI

Aplikace AI přistupuje k funkcím AI a poskytuje službu nebo rozhraní, které uživatel využívá. Komponenty v této vrstvě se mohou v závislosti na aplikaci lišit od relativně jednoduchého až po velmi složité. Nejjednodušší samostatné aplikace AI fungují jako rozhraní pro sadu rozhraní API, která přebírají textovou výzvu uživatele a předávají tato data modelu pro odpověď. Složitější aplikace AI zahrnují možnost uzemnit výzvu uživatele s dodatečným kontextem, včetně vrstvy trvalosti, sémantického indexu nebo prostřednictvím modulů plug-in, které umožňují přístup k více zdrojům dat. Pokročilé aplikace umělé inteligence můžou také komunikovat se stávajícími aplikacemi a systémy. Existující aplikace a systémy můžou pracovat napříč textem, zvukem a obrázky a generovat různé typy obsahu.

Aspekty zabezpečení aplikací AI – Bezpečnostní systém aplikace musí být sestaven tak, aby chránil aplikaci AI před škodlivými aktivitami. Bezpečnostní systém poskytuje hloubkovou kontrolu obsahu používaného v metapromptu odeslaném do modelu AI. Bezpečnostní systém také kontroluje interakce s libovolnými moduly plug-in, datovými konektory a dalšími aplikacemi umělé inteligence (označované jako AI Orchestration). Jedním ze způsobů, jak ho můžete začlenit do vlastní aplikace AI založené na IaaS/PaaS, je použít službu Azure AI Content Safety . V závislosti na vašich potřebách jsou k dispozici další možnosti.

Využití AI

Vrstva využití AI popisuje, jak se možnosti umělé inteligence nakonec používají a využívají. Generování umělé inteligence nabízí nový typ uživatelského nebo počítačového rozhraní, které se zásadně liší od jiných počítačových rozhraní, jako jsou rozhraní API, příkazový řádek a grafická uživatelská rozhraní (GUI). Rozhraní generující umělé inteligence je interaktivní i dynamické, což umožňuje, aby se možnosti počítače přizpůsobily uživateli a jejich záměru. Generující rozhraní AI kontrastuje s předchozími rozhraními, která primárně vynucují uživatelům učit se návrh systému a funkčnost a upravovat je. Tato interaktivita umožňuje vstup uživatelům místo návrhářů aplikací mít vysoký vliv na výstup systému, což z bezpečnostních mantinelí nezbytných pro ochranu lidí, dat a obchodních prostředků.

Aspekty zabezpečení použití umělé inteligence – Ochrana využití AI se podobá jakémukoli počítačovému systému, protože spoléhá na záruky zabezpečení pro řízení identit a přístupu, ochranu zařízení a monitorování, ochranu dat a zásady správného řízení, řízení správy a další kontroly.

Větší důraz je kladen na chování uživatelů a odpovědnost, protože uživatelé mají větší vliv na výstup systémů. Je důležité aktualizovat přijatelné zásady použití a informovat uživatele o rozdílu standardních IT aplikací s aplikacemi s podporou umělé inteligence. Ty by měly zahrnovat specifické aspekty AI týkající se zabezpečení, ochrany osobních údajů a etiky. Uživatelé by navíc měli být poučení o útocích založených na umělé inteligenci, které je možné použít k jejich triku přesvědčivým falešným textem, hlasy, videi a dalšími informacemi.

Typy útoku specifické pro AI jsou definovány v:

Životní cyklus zabezpečení

Stejně jako u zabezpečení jiných typů funkcí je důležité naplánovat úplný přístup. Úplný přístup zahrnuje lidi, procesy a technologie v celém životním cyklu zabezpečení: identifikaci, ochranu, detekci, reakci, obnovení a řízení. Jakékoli mezery nebo slabosti v tomto životním cyklu můžou být následující:

  • Selhání zabezpečení důležitých prostředků
  • Zkušenosti s snadnou předcházetelným útokům
  • Nejde zpracovat útoky
  • Nejde rychle obnovit důležité obchodní služby
  • Nekonzistentní použití ovládacích prvků

Pokud se chcete dozvědět více o jedinečné povaze testování hrozeb AI, přečtěte si, jak Microsoft AI Red Team vytváří budoucnost bezpečnější umělé inteligence.

Konfigurace před přizpůsobením

Microsoft doporučuje organizacím začít s přístupy založenými na SaaS, jako je model Copilot, pro počáteční přijetí AI a pro všechny následné úlohy AI. Tím minimalizujete úroveň odpovědnosti a odborných znalostí, které vaše organizace musí poskytnout k návrhu, provozu a zabezpečení těchto vysoce složitých funkcí.

Pokud aktuální možnosti mimo polici nevyhovují konkrétním potřebám úlohy, můžete model PaaS přijmout pomocí služeb AI, jako je služba Azure OpenAI, a splnit tak tyto konkrétní požadavky.

Vytváření vlastních modelů by měly přijímat jenom organizace s hlubokými znalostmi datových věd a zabezpečení, ochrany osobních údajů a etických aspektů umělé inteligence.

Microsoft vyvíjí řešení Copilot pro každou z hlavních kancelářských řešení: z Bingu a Windows do GitHubu a Office 365, aby pomohla přenést AI na svět. Microsoft vyvíjí kompletní řešení zásobníku pro všechny typy scénářů produktivity. Ty se nabízejí jako řešení SaaS. Integrované v uživatelském rozhraní produktu jsou vyladěné tak, aby uživateli pomohly s konkrétními úlohami, aby zvýšily produktivitu.

Microsoft zajišťuje, aby každé řešení Copilot bylo navrženo podle našich silných principů zásad správného řízení AI.

Další kroky

Přečtěte si další informace o požadavcích microsoftu na vývoj produktů pro zodpovědné AI v rámci standardu Microsoft Responsible AI Standard.

Seznamte se se sdílenými odpovědnostmi za cloud computing.