Sdílet prostřednictvím


Důležité informace o zodpovědné AI pro úlohy inteligentních aplikací

Úlohy inteligentních aplikací musí dodržovat principy odpovědné AI, aby byla zajištěna spravedlnost, odpovědnost, transparentnost a etické chování.

Navrhněte systém AI tak, aby zacházel se všemi uživateli spravedlivě, vedl vývojáře a uživatele k odpovědnosti za jeho výkon, zajišťoval transparentnost operací AI a dodržoval etické standardy.

V Microsoft jsme se zavázali k rozvoji umělé inteligence založené na principech, které staví lidi na první místo. Generativní modely mají významné potenciální výhody, ale bez pečlivého návrhu a promyšlených zmírnění mají takové modely potenciál generovat nesprávný nebo dokonce škodlivý obsah. Společnost Microsoft významně investovala, aby pomohla chránit před zneužitím a neúmyslným poškozením, což zahrnuje začlenění zásad Microsoft pro odpovědné používání umělé inteligence, přijetí Pravidel chování, vytváření filtrů obsahu na podporu zákazníků a poskytování informací a pokynů týkajících se odpovědné umělé inteligence, které by zákazníci měli při používání generativní umělé inteligence vzít do úvahy.

Kopiloti Power Platform a funkce generativní AI se řídí souborem základních postupů v oblasti zabezpečení a ochrany osobních údajů a Standardů odpovědné AI společnosti Microsoft. Data Power Platform jsou chráněna pomocí komplexních, špičkových kontrol dodržování předpisů, zabezpečení a ochrany osobních údajů.

Další informace:

Základní principy odpovědné AI

Mezi základní principy odpovědné AI patří spravedlnost, odpovědnost, transparentnost a etika. Zajištění toho, aby inteligentní úloha aplikace vytvořená pomocí Power Platform dodržovala tyto základní principy, zahrnuje několik klíčových postupů:

  • Férovost: Používejte různorodá a reprezentativní trénovací data, abyste minimalizovali předsudky. Pravidelně aktualizujte trénovací data a získejte auditory, aby ověřili spravedlnost a rovnost.
  • Odpovědnost: Definujte jasné role a odpovědnosti pro členy týmu zapojené do projektu AI. Stanovte a dodržujte etické standardy, které upřednostňují spravedlnost a odpovědnost.
  • Transparentnost: Ujistěte se, že uživatelé vědí, že používají úlohu, která využívá funkce generativní AI. Jasně sdělte, proč bylo vybráno řešení AI, jak bylo navrženo a jak je monitorováno a aktualizováno.
  • Etika: Podporujte inkluzivní pracovní sílu a vyžadujte podněty od různých komunit v rané fázi procesu vývoje. Pravidelně posuzujte a testujte modely z hlediska etických problémů a rozdílů ve výkonnosti. Vytvořte rámec řízení, který zahrnuje pravidelné audity.

Začleňte tyto postupy do procesů vývoje a nasazení a vytvořte inteligentní úlohu aplikace, která dodržuje základní principy zodpovědné AI.

Zabezpečení a ochrana osobních údajů

Zajištění ochrany osobních údajů je zásadní, zejména proto, že úlohy inteligentních aplikací mohou zpracovávat citlivá data. Při plánování úlohy inteligentních aplikací pomocí Power Platform je nezbytné řešit několik klíčových rizik a implementovat účinné strategie zmírnění:

  • Funkce platformy: Seznamte se s nativními ovládacími prvky a funkcemi platformy, které chrání vaše data. Microsoft Copilot je postaven na službě Microsoft Azure OpenAI Service a běží kompletně v cloudu Azure. Copilot používá modely OpenAI se všemi možnostmi zabezpečení platformy Microsoft Azure. Copilot je integrován do služeb společnosti Microsoft, jako jsou Dynamics 365 a Power Platform, a dědí jejich zásady a procesy v oblasti zabezpečení, soukromí a dodržování předpisů, jako je vícefaktorové ověřování a hranice dodržování předpisů.
  • Šifrování dat: Technologie na straně služby šifrují uložený i přenášený obsah organizace, čímž zajišťují robustní zabezpečení. Připojení jsou chráněna protokolem TLS (Transport Layer Security). Přenosy dat mezi Dynamics 365, Power Platform a Azure OpenAI probíhají přes páteřní síť Microsoftu, což zaručuje spolehlivost i bezpečnost. Další informace o šifrování v Microsoft Cloud.
  • Řízení přístupu: Data jsou poskytovaná nástroji Copilot (nebo vlastnímu agentovi) na základě úrovně přístupu aktuálního uživatele. Implementujte řízení přístupu na základě role (RBAC) pomocí Microsoft Entra ID, abyste zajistili, že k datům budou mít přístup jenom autorizovaní uživatelé. Použijte princip nejnižších oprávnění k omezení přístupu pouze na to, co je nezbytné.
  • Monitorování a auditování: Detekujte potenciální bezpečnostní incidenty a reagujte na ně pravidelným monitorováním přístupu a používání systému AI. Udržujte podrobné protokoly auditu, abyste mohli sledovat přístup k datům a jejich úpravy.
  • Dodržování předpisů a řízení: Zajistěte soulad s příslušnými předpisy o ochraně osobních údajů, jako jsou GDPR (Obecné nařízení o ochraně osobních údajů), HIPAA (zákon o přenositelnosti a odpovědnosti zdravotního pojištění) a CCPA (kalifornský zákon o ochraně osobních údajů spotřebitelů). Implementujte etické postupy umělé inteligence, abyste se vyhnuli předsudkům a zajistili spravedlnost výstupů umělé inteligence.
  • Vzdělávání uživatelů a školení: Trénování uživatelů o osvědčených postupech zabezpečení a důležitosti ochrany osobních údajů. Informovat uživatele o aktualizacích a změnách zásad a postupů zabezpečení.

Další informace: Nejčastější dotazy k zabezpečení dat a ochraně osobních údajů nástroje Copilot pro Dynamics 365 a Power Platform

Povědomí o předsudcích a jejich zmírňování

Je důležité si uvědomit důležitost řešení předsudků v systému a zajistěte spravedlnost, abyste se vyhnuli předsudkům v odpovědích umělé inteligence.

  • Různorodá a reprezentativní data: Zajistěte, aby trénovací data byla různorodá a reprezentativní pro různé demografické skupiny, aby se minimalizovaly inherentní předsudky. Pravidelně kontrolujte údaje z hlediska zkreslení a nerovnováhy a v případě potřeby přijímejte nápravná opatření.
  • Nástroje pro detekci a zmírnění zkreslení: Používejte nástroje a techniky k detekci zkreslení v modelech AI, jako je statistická analýza a metriky spravedlnosti. Implementujte techniky snižování zkreslení, včetně převzorkování, převážení nebo adversariální odstraňování zkreslení, abyste snížili zkreslení v modelech.
  • Člověk ve smyčce: Zahrňte lidskou kontrolu a smyčky zpětné vazby, abyste identifikovali a opravili předsudky, které by umělá inteligence mohla zavést. Zřiďte etickou komisi nebo správní radu, která bude dohlížet na vývoj a nasazování umělé inteligence a zajistí dodržování etických standardů.
  • Transparentnost a důvěra: Ujistěte se, že uživatelé vědí, že používají úlohu, která využívá funkce generativní AI. Jasně sdělte, proč bylo vybráno řešení AI, a poskytněte informace o tom, jak bylo navrženo a jak je monitorováno a aktualizováno.
  • Průběžné monitorování a zlepšování: Průběžně monitorujte systém AI, zda neobsahuje zkreslení a problémy s výkonem, a podle potřeby aktualizujte modely. Zajistěte, aby modely zůstaly spravedlivé a nezaujaté, a to pravidelným přetrénováním modelů s aktualizovanými a rozmanitějšími daty.

Průběžné monitorování a hodnocení

Pokračujte ve vylepšování úloh inteligentních aplikací. Vytvořte rámec pro průběžné monitorování a hodnocení a začleňte zpětnou vazbu od uživatelů a vyvíjející se etické standardy do aktualizací.

  • Zpětnovazební smyčky: Vytvořte mechanismy zpětné vazby, kde mohou uživatelé hlásit nepřesnosti, které pak lze použít k upřesnění a vylepšení modelů.
  • Monitorování a auditování: Detekujte potenciální bezpečnostní incidenty a reagujte na ně pravidelným monitorováním přístupu a používání systému AI. Udržujte podrobné protokoly auditu, abyste mohli sledovat přístup k datům a jejich úpravy.