Zodpovědná AI v úlohách Azure
Cílem zodpovědné umělé inteligence v návrhu úloh je zajistit, aby používání algoritmů AI bylo spravedlivé, transparentní a inkluzivní. Dobře navržená zásada zabezpečení souvisí se zaměřením na důvěrnost a integritu. Bezpečnostní opatření musí být zavedena, aby se zachovala ochrana osobních údajů uživatelů, ochrana dat a ochrana integrity návrhu, což by nemělo být zneužito pro nezamýšlené účely.
V úlohách AI se rozhodnutí provádějí pomocí modelů, které často používají neprůshlenou logiku. Uživatelé by měli důvěřovat funkcím systému a mít jistotu, že se rozhodnutí provádějí zodpovědně. Je třeba se vyhnout neetickému chování, jako je manipulace, toxicita obsahu, porušení IP adres a oddělěné odpovědi.
Představte si případ použití, kdy společnost pro mediální zábavu chce poskytovat doporučení pomocí modelů AI. Selhání implementace zodpovědné umělé inteligence a správného zabezpečení může vést k tomu, že chybný aktér převezme kontrolu nad modely. Model může potenciálně doporučit mediální obsah, který může vést k škodlivým výsledkům. U organizace může toto chování vést k poškození značky, nebezpečným prostředím a právním problémům. Udržování etické bdělosti v průběhu životního cyklu systému je proto nezbytné a neopomenutelné.
Etická rozhodnutí by měla určovat prioritu správy zabezpečení a úloh s ohledem na lidské výsledky. Seznamte se s architekturou Zodpovědné umělé inteligence Microsoftu a ujistěte se, že se principy promítnou a měří ve vašem návrhu. Tento obrázek znázorňuje základní koncepty architektury.
Důležité
Přesnost predikce a zodpovědné metriky umělé inteligence jsou často vzájemně propojené. Zlepšení přesnosti modelu může zvýšit jeho nestrannost a sladění s realitou. I když ale etická AI často odpovídá přesnosti, samotná přesnost nezahrnuje všechny etické aspekty. Je důležité ověřit tyto etické zásady zodpovědně.
Tento článek obsahuje doporučení týkající se etického rozhodování, ověřování uživatelského vstupu a zajištění bezpečného uživatelského prostředí. Poskytuje také pokyny k zabezpečení dat, abyste měli jistotu, že jsou uživatelská data chráněná.
Doporučení
Tady je souhrn doporučení uvedených v tomto článku.
Doporučení | Popis |
---|---|
Vyvíjejte zásady, které vynucují etické postupy v každé fázi životního cyklu. | Zahrňte položky kontrolního seznamu, které explicitně uvádějí etické požadavky přizpůsobené kontextu úloh. Mezi příklady patří transparentnost uživatelských dat, konfigurace souhlasu a postupy pro zpracování práva na zapomenutí. ▪ Vývoj zásad zodpovědné umělé inteligence ▪ Vynucení zásad správného řízení u zásad zodpovědné umělé inteligence |
Chraňte uživatelská data s cílem maximalizovat ochranu osobních údajů. | Shromážděte pouze to, co je nezbytné a se správným souhlasem uživatele. Pomocí technických ovládacích prvků můžete chránit profily uživatelů, jejich data a přístup k nim. ▪ Zpracování uživatelských dat eticky ▪ Kontrola příchozích a odchozích dat |
Udržujte rozhodnutí o umělé inteligenci jasná a srozumitelná. | Udržujte si jasné vysvětlení toho, jak algoritmy doporučení fungují, a nabízejí uživatelům přehled o využití dat a algoritmickém rozhodování, aby pochopili a důvěřovali procesu. ▪ Zajištění bezpečnosti uživatelského prostředí |
Vývoj zodpovědných zásad umělé inteligence
Zdokumentujte svůj přístup k etickému a zodpovědnému používání umělé inteligence. Explicitně použité zásady stavu v každé fázi životního cyklu, aby tým úloh porozuměl jejich zodpovědnostem. Zatímco standardy zodpovědné umělé inteligence microsoftu poskytují pokyny, musíte definovat, co znamenají konkrétně pro váš kontext.
Zásady by například měly obsahovat položky kontrolního seznamu pro mechanismy týkající se transparentnosti uživatelských dat a konfigurace souhlasu, což v ideálním případě umožňuje uživatelům vyjádřit výslovný nesouhlas s zahrnutím dat. Datové kanály, analýzy, trénování modelů a další fáze musí respektovat danou volbu. Dalším příkladem je postup pro zpracování "Práva být zapomenuto". Pokud chcete učinit informovaná rozhodnutí, obraťte se na etickou oddělení vaší organizace a právní tým.
Vytvářejte transparentní zásady týkající se využití dat a algoritmického rozhodování, které zajistí, aby uživatelé rozuměli procesu a důvěřovali mu. Zdokumentovat tato rozhodnutí, aby se zachovala jasná historie potenciálních budoucích sporů.
Implementace etické umělé inteligence zahrnuje tři klíčové role: výzkumný tým, tým zásad a technický tým. Spolupráce mezi těmito týmy by měla být zprovozněna. Pokud má vaše organizace existující tým, využijte svou práci; v opačném případě vytvořte tyto postupy sami.
Mít účetní závazky k oddělení povinností:
Výzkumný tým provádí zjišťování rizik poradenstvím v organizačních pokynech, oborových standardech, zákonech, pravidlech a známých červených týmových taktikách.
Tým zásad vyvíjí zásady specifické pro danou úlohu a zahrnuje pokyny z nadřazené organizace a nařízení státní správy.
Technický tým implementuje zásady do svých procesů a dodávek a zajišťuje, že ověří a otestuje dodržování předpisů.
Každý tým formalizuje své pokyny, ale tým úloh musí být zodpovědný za vlastní zdokumentované postupy. Tým by měl jasně zdokumentovat všechny další kroky nebo záměrné odchylky, aby nedošlo k nejednoznačnosti ohledně toho, co je povoleno. Také buďte transparentní o potenciálních nedostatkůch nebo neočekávaných výsledcích řešení.
Vynucení zásad správného řízení u zásad zodpovědné umělé inteligence
Navrhněte svou úlohu tak, aby vyhovovala organizačním a regulačním zásadám správného řízení. Pokud je například transparentnost požadavkem organizace, určete, jak se vztahuje na vaši úlohu. Identifikujte oblasti návrhu, životního cyklu, kódu nebo jiných součástí, ve kterých by měly být zavedeny funkce transparentnosti, aby splňovaly tento standard.
Seznamte se s požadovanými mandáty k zásadám správného řízení, zodpovědností, kontrolou a vytvářením sestav. Zajistěte, aby návrhy úloh byly schváleny a podepsány radou zásad správného řízení, aby se zabránilo změně návrhu návrhu a zmírnění etických problémů nebo problémů s ochranou osobních údajů. Možná budete muset projít několika vrstvami schválení. Tady je typická struktura zásad správného řízení.
Informace o zásadách organizace a schvalovatelů najdete v tématu Architektura přechodu na cloud: Definování zodpovědné strategie AI.
Zajištění bezpečnosti uživatelského prostředí
Uživatelská prostředí by měla vycházet z oborových pokynů. Využijte knihovnu microsoftu Microsoft Human-AI Experiences Design Library , která obsahuje principy a poskytuje implementaci a ne, s příklady produktů Microsoftu a dalších oborových zdrojů.
V průběhu životního cyklu interakce uživatelů existují povinnosti spojené s úlohami, které začínají záměrem uživatele používat systém, během relace a přerušení kvůli systémovým chybám. Tady je několik postupů, které je potřeba vzít v úvahu:
Vytvářejte transparentnost. Uživatelé můžou vědět, jak systém vygeneroval odpověď na svůj dotaz.
Zahrňte odkazy na zdroje dat, které model propojí s predikcemi, aby se zvýšila spolehlivost uživatelů zobrazením původu informací. Návrh dat by měl zajistit, aby tyto zdroje byly zahrnuty do metadat. Když orchestrátor v aplikaci rozšířeného načítání provede vyhledávání, načte například 20 bloků dokumentů a odešle prvních 10 bloků dat, které patří do tří různých dokumentů, do modelu jako kontext. Uživatelské rozhraní pak může při zobrazení odpovědi modelu odkazovat na tyto tři zdrojové dokumenty, což zvyšuje transparentnost a důvěru uživatelů.
Transparentnost se stává důležitější při používání agentů, kteří fungují jako zprostředkovatelé mezi front-endovými rozhraními a back-endovými systémy. Například v systému lístků kód orchestrace interpretuje záměr uživatele a volá rozhraní API agentům za účelem načtení potřebných informací. Zveřejněním těchto interakcí může uživatel vědět o akcích systému.
Pro automatizované pracovní postupy s více agenty, kteří jsou zapojeni, vytvořte soubory protokolu, které zaznamenávají jednotlivé kroky. Tato funkce pomáhá identifikovat a opravit chyby. Kromě toho může uživatelům poskytnout vysvětlení rozhodnutí, která zprovozní transparentnost.
Upozornění
Při implementaci doporučení transparentnosti se vyhněte zahlcení uživatele příliš velkými informacemi. Použijte postupný přístup, kdy začínáte s minimálními rušivými metodami uživatelského rozhraní.
Můžete například zobrazit popis s skóre spolehlivosti z modelu. Můžete začlenit odkaz, na který můžou uživatelé kliknout, abyste získali další podrobnosti, například odkazy na zdrojové dokumenty. Tato metoda iniciovaná uživatelem udržuje uživatelské rozhraní nenarušující a umožňuje uživatelům hledat další informace pouze v případě, že se rozhodnou.
Shromážděte zpětnou vazbu. Implementujte mechanismy zpětné vazby.
Vyhněte se zahlcení uživatelů rozsáhlými dotazníky po každé odpovědi. Místo toho používejte jednoduché, rychlé mechanismy zpětné vazby, jako jsou palec nahoru/dolů nebo systémy hodnocení pro konkrétní aspekty odpovědi ve škále 1 až 5. Tato metoda umožňuje podrobnou zpětnou vazbu, aniž by byla rušivá, což pomáhá vylepšovat systém v průběhu času. Mějte na paměti potenciální předsudky v zpětné vazbě, protože za odpověďmi uživatelů můžou být sekundární důvody.
Implementace mechanismu zpětné vazby ovlivňuje architekturu kvůli potřebě úložiště dat. Podle potřeby s nimi zacházejte jako s uživatelskými daty a použijte úrovně řízení ochrany osobních údajů.
Kromě zpětné vazby na odpovědi shromážděte zpětnou vazbu o účinnosti uživatelského prostředí. Můžete to provést shromažďováním metrik zapojení prostřednictvím zásobníku monitorování systému.
Zprovoznění bezpečnostních opatření pro obsah
Integrujte bezpečnost obsahu do všech fází životního cyklu AI pomocí vlastního kódu řešení, vhodných nástrojů a efektivních postupů zabezpečení. Tady jsou některé strategie.
Anonymizace dat Vzhledem k tomu, že se data pohybují od příjmu dat do trénování nebo vyhodnocení, kontrolují způsob, jak minimalizovat riziko úniku osobních údajů a vyhnout se vystavení nezpracovaných uživatelských dat.
Con režim stanu ration. Použijte rozhraní API pro bezpečnost obsahu, které vyhodnocuje požadavky a odpovědi v reálném čase, a zajistěte, aby tato rozhraní API byla dostupná.
Identifikace a zmírnění hrozeb Použijte známé postupy zabezpečení pro vaše scénáře AI. Můžete například provádět modelování hrozeb a dokumentovat hrozby a jejich zmírnění. Běžné postupy zabezpečení, jako jsou cvičení Red Team, se vztahují na úlohy umělé inteligence. Červené týmy můžou testovat, jestli mohou být modely manipulovány a generovat škodlivý obsah. Tyto aktivity by měly být integrované do operací umělé inteligence.
Informace o provádění červeného týmového testování najdete v tématu Plánování červeného seskupování pro velké jazykové modely (LLM) a jejich aplikace.
Použijte správné metriky. Použijte vhodné metriky, které jsou efektivní při měření etického chování modelu. Metriky se liší v závislosti na typu modelu AI. Měření generativních modelů se nemusí vztahovat na regresní modely. Představte si model, který předpovídá očekávanou délku života a výsledky mají vliv na pojistné sazby. Předsudky v tomto modelu můžou vést k etickým problémům, ale tento problém vychází z odchylky základního testování metrik. Zlepšení přesnosti může snížit etické problémy, protože metriky etických a přesných metrik jsou často vzájemně propojené.
Přidání etických instrumentací Výsledky modelu AI musí být vysvětlené. Potřebujete odůvodnit a sledovat, jak se odvozují, včetně dat používaných pro trénování, počítaných funkcí a podkladových dat. V nerozlišující umělé inteligenci můžete rozhodnutí ospravedlnit krok za krokem. U generativních modelů ale může být vysvětlení výsledků složité. Zdokumentujte rozhodovací proces pro řešení potenciálních právních dopadů a zajištění transparentnosti.
Tento aspekt vysvětlitelnosti by se měl implementovat během celého životního cyklu umělé inteligence. Čištění dat, rodokmen, kritéria výběru a zpracování jsou kritické fáze, kdy by se měla sledovat rozhodnutí.
Nástroje
Měly by být integrované nástroje pro bezpečnost obsahu a sledovatelnost dat, jako je Microsoft Purview. Rozhraní API pro zabezpečení obsahu Azure AI je možné volat z testování, aby se usnadnilo testování bezpečnosti obsahu.
Azure AI Foundry poskytuje metriky, které vyhodnocují chování modelu. Další informace najdete v tématu Vyhodnocení a monitorování metrik pro generování umělé inteligence.
Pro trénovací modely doporučujeme zkontrolovat metriky poskytované službou Azure Machine Learning.
Kontrola příchozích a odchozích dat
Útoky prostřednictvím injektáže výzvy, jako je například jailbreak, jsou běžným problémem pro úlohy umělé inteligence. V takovém případě se někteří uživatelé mohou pokusit model zneužít k nezamýšleným účelům. Pokud chcete zajistit bezpečnost, zkontrolujte data, abyste zabránili útokům a vyfiltrujte nevhodný obsah. Tato analýza by se měla použít na vstup uživatele i odpovědi systému, aby se zajistilo, že příchozí i odchozí toky mají důkladnou konekci režim stanu ration.
Ve scénářích, ve kterých vytváříte více vyvolání modelu, jako je například prostřednictvím Azure OpenAI, obsluhuje jeden požadavek klienta, může být použití kontrol bezpečnosti obsahu pro každé vyvolání nákladné a zbytečné. Zvažte centralizaci, která funguje v architektuře a současně zachovává zabezpečení jako odpovědnost na straně serveru. Předpokládejme, že architektura má bránu před koncovým bodem odvozování modelu a přesměrovává určité možnosti back-endu. Tuto bránu je možné navrhnout tak, aby zpracovávala bezpečnostní kontroly obsahu pro požadavky i odpovědi, které back-end nemusí nativně podporovat. I když je brána běžným řešením, vrstva orchestrace dokáže tyto úlohy efektivně zpracovat v jednodušších architekturách. V obou případech můžete tyto kontroly selektivně použít v případě potřeby, optimalizovat výkon a náklady.
Kontroly by měly být multimodální, které pokrývají různé formáty. Při použití multimodálního vstupu, jako jsou obrázky, je důležité je analyzovat skryté zprávy, které mohou být škodlivé nebo násilné. Tyto zprávy nemusí být okamžitě viditelné, podobně jako neviditelné rukopisy, a vyžadují pečlivou kontrolu. K tomuto účelu používejte nástroje, jako jsou rozhraní API pro bezpečnost obsahu.
Pokud chcete vynutit zásady ochrany osobních údajů a zabezpečení dat, zkontrolujte uživatelská data a základní data, aby byla v souladu s předpisy o ochraně osobních údajů. Ujistěte se, že jsou data sanitizovaná nebo filtrovaná při procházení systémem. Například data z předchozích konverzací zákaznické podpory můžou sloužit jako podkladová data. Před opětovným použitím by mělo být sanitizováno.
Zpracování uživatelských dat eticky
Etické postupy zahrnují pečlivé zpracování správy uživatelských dat. To zahrnuje znalost, kdy používat data a kdy se vyhnout spoléhat na uživatelská data.
Odvozování bez sdílení uživatelských dat Pokud chcete bezpečně sdílet uživatelská data s jinými organizacemi pro přehledy, použijte model clearinghouse. V tomto scénáři organizace poskytují data důvěryhodné třetí straně, která trénuje model pomocí agregovaných dat. Tento model pak můžou používat všechny instituce, což umožňuje sdílené přehledy bez zveřejnění jednotlivých datových sad. Cílem je použít možnosti odvozování modelu bez sdílení podrobných trénovacích dat.
Propagujte rozmanitost a inkluzi. Pokud jsou potřebná uživatelská data, používejte k minimalizaci předsudků různorodý rozsah dat, včetně nedostatečně zastoupených žánrů a tvůrců. Implementujte funkce, které uživatelům povzbuzovat, aby prozkoumali nový a pestrý obsah. Průběžně monitorujte využití a upravte doporučení, abyste se vyhnuli nadměrnému znázornění jakéhokoli typu obsahu.
Respektujte "právo být zapomenuto". Nepoužívejte uživatelská data, kdykoli je to možné. Ujistěte se, že je nutné zajistit dodržování předpisů s právem na zapomenutí, a to tím, že je nutné zajistit, aby se uživatelská data odstranila pečlivě.
Aby bylo zajištěno dodržování předpisů, můžou existovat žádosti o odebrání uživatelských dat ze systému. U menších modelů toho lze dosáhnout opětovným vytrénováním dat, která vyloučí osobní údaje. U větších modelů, které se můžou skládat z několika menších, nezávisle natrénovaných modelů, je proces složitější a náklady a úsilí je významné. Vyhledejte právní a etické pokyny k řešení těchto situací a ujistěte se, že je součástí vaší zodpovědné zásady umělé inteligence popsané v tématu Vývoj zodpovědných zásad umělé inteligence.
Zodpovědně se zachovejte. Pokud odstranění dat není možné, získejte explicitní souhlas uživatele pro shromažďování dat a poskytněte jasné zásady ochrany osobních údajů. Shromažďování a uchovávání dat pouze v případě, že je to nezbytně nutné. Mějte na místě operace, abyste data agresivně odebrali, když už je nepotřebujete. Například vymažte historii chatu hned, jak je to praktické, a před uchováváním anonymizujte citlivá data. Ujistěte se, že se pro neaktivní uložená data používají pokročilé metody šifrování.
Vysvětlitelnost podpory Sledujte rozhodnutí v systému, která podporují požadavky na vysvětlitelnost. Vyvíjejte jasné vysvětlení toho, jak fungují algoritmy doporučení a nabízejí uživatelům přehled o tom, proč se jim doporučuje konkrétní obsah. Cílem je zajistit, aby úlohy umělé inteligence a jejich výsledky byly transparentní a spravedlivé, podrobně popisuje, jak se rozhodnutí provádějí, jaká data byla použita a jak byly modely natrénovány.
Šifrování uživatelských dat Vstupní data musí být zašifrována v každé fázi kanálu zpracování dat od okamžiku, kdy uživatel zadá data. To zahrnuje data, která se přesunou z jednoho bodu do druhého, kde jsou uložená, a v případě potřeby během odvozování. Vyrovnejte zabezpečení a funkce, ale snažte se, aby byla data v průběhu životního cyklu soukromá.
Informace o technikách šifrování naleznete v tématu Návrh aplikace.
Poskytuje robustní řízení přístupu. Několik typů identit může potenciálně přistupovat k uživatelským datům. Implementujte řízení přístupu na základě role (RBAC) pro řídicí rovinu i rovinu dat, která zahrnuje komunikaci mezi uživateli a systémem.
Zachovejte také správnou segmentaci uživatelů pro ochranu osobních údajů. Například Copilot pro Microsoft 365 může hledat a poskytovat odpovědi na základě konkrétních dokumentů a e-mailů uživatele a zajistit tak přístup jenom k obsahu relevantnímu pro daného uživatele.
Informace o vynucování řízení přístupu najdete v tématu Návrh aplikace.
Zmenšete plochu povrchu. Základní strategií pilíře zabezpečení dobře navržená architektura je minimalizace prostoru pro útoky a posílení prostředků. Tuto strategii byste měli použít u standardních postupů zabezpečení koncových bodů tím, že přísně řídí koncové body rozhraní API, zveřejňují pouze důležitá data a v odpovědích se vyhýbají nadbytečným informacím. Volba návrhu by měla být vyvážená mezi flexibilitou a kontrolou.
Ujistěte se, že neexistují žádné anonymní koncové body. Obecně se vyhněte tomu, aby klienti poskytovali větší kontrolu, než je nutné. Ve většině scénářů nemusí klienti upravovat hyperparametry s výjimkou experimentálních prostředí. U typických případů použití, jako je například interakce s virtuálním agentem, by klienti měli řídit pouze základní aspekty, aby zajistili zabezpečení omezením zbytečné kontroly.
Informace naleznete v tématu Návrh aplikace.