Vysvětlení důležitých informací o zodpovědné umělé inteligenci
Předchozí lekce představila nutnost vzít v úvahu odpovědnost a etický vývoj softwaru s podporou umělé inteligence. V této lekci probereme některé základní principy zodpovědné umělé inteligence, které byly přijaty v Microsoftu.
Spravedlnost
Systémy umělé inteligence by se měly ke všem lidem chovat spravedlivě. Předpokládejme například, že vytvoříte model strojového učení pro podporu žádostí o schválení půjčky pro banku. Tento model by měl predikovat, jestli by měla být půjčka schválena, aniž by při rozhodování zohledňoval pohlaví, etnický původ nebo jiné faktory, které by mohly vést k nespravedlivé výhodě nebo znevýhodnění konkrétních skupin žadatelů.
Nestrannost systémů strojového učení je vysoce aktivní oblastí probíhajícího výzkumu a některá softwarová řešení existují pro vyhodnocení, kvantifikaci a zmírnění nespravedlivosti v modelech strojového učení. Samotné nástroje ale nestačí k zajištění spravedlnosti. Zvažte nestrannost od začátku procesu vývoje aplikací; pečlivě zkontrolujte trénovací data, abyste měli jistotu, že jsou reprezentativní pro všechny potenciálně ovlivněné subjekty a vyhodnocují prediktivní výkon dílčích částí populace uživatelů v průběhu životního cyklu vývoje.
Spolehlivost a zabezpečení
Systémy umělé inteligence by měly fungovat spolehlivě a bezpečně. Představte si třeba softwarový systém založený na umělé inteligenci pro autonomní vozidlo nebo model strojového učení, který diagnostikuje příznaky pacienta a doporučuje recepty. Nespolehlivost v takovýchto systémech může vést k vážnému ohrožení lidského života.
Stejně jako u jakéhokoli softwaru musí vývoj softwarových aplikací založených na umělé inteligenci podléhat přísným procesům testování a správy nasazení, aby před vydáním fungovaly podle očekávání. Kromě toho musí softwaroví inženýři vzít v úvahu pravděpodobnostní povahu modelů strojového učení a při vyhodnocování skóre spolehlivosti pro předpovědi použít příslušné prahové hodnoty.
Ochrana osobních údajů a zabezpečení
Systémy umělé inteligence by měly být zabezpečené a měly by respektovat soukromí. Modely strojového učení, na nichž jsou založeny systémy umělé inteligence, se spoléhají na velké objemy dat. Tato data mohou obsahovat osobní údaje, které musí zůstat soukromé. I když jsou modely natrénované a systém je v produkčním prostředí, používají nová data k předpovědím nebo provedení akcí, které mohou podléhat obavám o ochranu osobních údajů nebo zabezpečení; proto musí být implementována vhodná bezpečnostní opatření pro ochranu dat a obsahu zákazníků.
Inkluzivnost
Systémy umělé inteligence by měly nabízet podporu všem lidem. Umělá inteligence by měla přinášet výhody všem částem společnosti bez ohledu na fyzické schopnosti, pohlaví, sexuální orientaci, etnickou příslušnost nebo jiné faktory.
Jedním ze způsobů, jak optimalizovat inkluzivní prostředí, je zajistit, aby návrh, vývoj a testování vaší aplikace zahrnoval vstupy od co nejrozmanitější skupiny lidí.
Transparency
Systémy umělé inteligence by měly být srozumitelné. Uživatelé by měli plně znát účel systému a měli by přesně vědět, jak funguje a jaká omezení mohou očekávat.
Pokud je například systém AI založený na modelu strojového učení, měli byste uživatele obecně indikovat o faktorech, které můžou ovlivnit přesnost jejích předpovědí, například počet případů používaných k trénování modelu nebo konkrétní funkce, které mají na své předpovědi největší vliv. Měli byste také sdílet informace o skóre spolehlivosti pro předpovědi.
Když aplikace AI spoléhá na osobní údaje, jako je systém rozpoznávání obličeje, který přebírá obrázky lidí, aby je rozpoznal; měli byste uživatelům dát jasně najevo, jak se jejich data používají a uchovávají a kdo k nim má přístup.
Odpovědnost
Lidé by měli být za systémy umělé inteligence odpovědní. I když se řada systémů AI zdá, že funguje samostatně, je nakonec zodpovědností vývojářů, kteří natrénovali a ověřili modely, které používají, a definovali logiku, která vychází z rozhodování o predikcích modelu, aby se zajistilo, že celkový systém splňuje požadavky na odpovědnost. S cílem tohoto cíle by návrháři a vývojáři řešení založeného na umělé inteligenci měli pracovat v rámci zásad správného řízení a organizačních principů, které zajistí, že řešení splňuje etické a právní standardy, které jsou jasně definované.
Poznámka:
Společnost Microsoft vydala smysluplné aktualizace zodpovědného standardu AI v červnu 2022. V této části jsme aktualizovali přístup k rozpoznávání obličeje, včetně nových zásad omezeného přístupu pro určité funkce jako záruky zodpovědného použití. Pro tento omezený přístup můžete požádat o povolení těchto funkcí pro vaši aplikaci.
Další informace o principech společnosti Microsoft pro zodpovědné AI najdete na webu Zodpovědné umělé inteligence společnosti Microsoft.