Příprava na důsledky zodpovědné umělé inteligence

Dokončeno

AI je definující technologie našeho času. Už umožňuje rychlejší a hlubší pokrok téměř v každém poli lidského úsilí a pomáhá řešit některé z nejdůležitějších výzev společnosti. AI může například lidem se zrakovým postižením pomoct porozumět obrázkům vygenerováním popisného textu pro obrázky. V jiném příkladu může AI pomoct farmářům vytvořit dostatek potravin pro rostoucí globální populaci.

V Microsoftu se domníváme, že výpočetní inteligence umělé inteligence by měla být použita k posílení kreativity a vynalézavosti lidí. Naší vizí pro umělou inteligenci je umožnit každému vývojáři inovovat, umožnit organizacím transformovat odvětví a umožnit lidem transformovat společnost.

Společenské důsledky umělé inteligence

Stejně jako u všech skvělých technologických inovací v minulosti má použití technologie AI široký dopad na společnost a vyvolává složité a náročné otázky týkající se budoucnosti, kterou chceme vidět. AI má vliv na rozhodování napříč odvětvími, zabezpečením dat a ochranou osobních údajů a dovednostmi, které lidé potřebují k úspěchu na pracovišti. Když se podíváme na tuto budoucnost, musíme se ptát:

  • Jak navrhujeme, vytváříme a používáme systémy AI, které vytvářejí pozitivní dopad na jednotlivce a společnost?
  • Jak můžeme nejlépe připravit pracovníky na účinky umělé inteligence?
  • Jak můžeme dosáhnout výhod umělé inteligence při zachování ochrany osobních údajů?

Význam zodpovědného přístupu k umělé inteligenci

Je důležité si uvědomit, že s tím, jak se objevují nové inteligentní technologie a šíří se v celé společnosti, s jejími výhodami přicházejí nezamýšlené a nepředvídatelné důsledky. Některé z těchto důsledků mají významné etické důsledky a potenciál způsobit vážné škody. I když organizace zatím nemohou předpovídat budoucnost, je naší zodpovědností, aby se snažily předvídat a zmírnit nezamýšlené důsledky technologie, které vydáváme do světa, prostřednictvím záměrného plánování a nepřetržitého dohledu.

Hrozby

Každý převrat v technologiích umělé inteligence přináší nové připomenutí naší sdílené odpovědnosti. Například v roce 2016 Microsoft vydal chatovací robot na X s názvem Tay, který by se mohl učit z interakcí s uživateli X. Cílem bylo umožnit chatovacímu robotu lépe replikovat lidskou komunikaci a osobnostní vlastnosti. Během 24 hodin si však uživatelé uvědomili, že chatovací robot se mohl učit z zapomenutého chleba a obrátil chatovacího robota na vozidlo pro nenávist řeči. Toto prostředí je jedním z příkladů, proč při navrhování systémů AI musíme zvážit lidské hrozby.

Nové hrozby vyžadují konstantní vývoj našeho přístupu k zodpovědné umělé inteligenci. Protože například generační AI umožňuje uživatelům vytvářet nebo upravovat videa, obrázky nebo zvukové soubory tak důvěryhodně, že vypadají skutečně, je ověření pravosti médií obtížnější. V reakci na to Microsoft seskupuje s dalšími technologickými a informačními účastníky a vyvíjí technické standardy pro řešení manipulace s hlubokými chybami.

Poznámka:

Microsoft vyvinul technologii, jako jsou pokročilé filtry obsahu, a zavedla vedoucí pro systémy AI s automatickými možnostmi učení, aby se připravili na nové typy útoků, které by mohly ovlivnit datové sady učení. Tyto přehledy vycházejí z aktuálních modelů generování AI, jako jsou modely poskytované ve službách Azure AI nebo v chatu Bingu.

Zkreslené výsledky

Dalším nezamýšleným důsledkem, který by organizace měly mít na paměti, je, že AI může posílit společenské nebo jiné předsudky bez úmyslného plánování a návrhu. Je důležité, aby vývojáři pochopili, jak lze předsudky zavést do trénovacích dat nebo modelů strojového učení. Tento problém může být probíravý v předem připravených modelech, protože uživatel nemusí zpracovávat trénovací data sama.

Představte si například velkou finanční úvěrovou instituci, která chce vytvořit systém vyhodnocování rizik pro schvalování úvěrů. Když technici testují systém před nasazením, uvědomí si, že schvaluje pouze půjčky pro muže dlužníky. Vzhledem k tomu, že systém byl vytrénován na datech předchozích zákazníků, reprodukoval historickou sexistickou předsudky úvěrových důstojníků. Ověření systému před nasazením nám umožnilo identifikovat a vyřešit problém před tím, než byl systém funkční.

Poznámka:

Naši výzkumní pracovníci v Microsoftu se zabývají zkoumáním nástrojů a technik pro detekci a snížení předsudků v systémech AI. Předem vytvořené modely jsou důkladně ověřeny, ale měly by být použity moudře a jejich výsledky by měly být před provedením akce vždy auditovány.

Citlivé případy použití

Další ilustrací naší odpovědnosti za zmírnění nezamýšlených důsledků je použití citlivých technologií, jako je rozpoznávání obličeje. Nedávno došlo k rostoucí poptávce po technologii rozpoznávání obličeje, zejména od organizací vynucování práva, které vidí potenciál technologie pro případy použití, jako je hledání chybějících dětí. Uvědomujeme si však, že tyto technologie by mohly ohrozit základní svobody. Mohou například umožnit nepřetržité sledování konkrétních jednotlivců. Věříme, že společnost má odpovědnost stanovit odpovídající hranice pro použití těchto technologií, což zahrnuje zajištění vládního využívání technologie rozpoznávání obličeje zůstává předmětem právního státu.

I když musí být napsány nové zákony a předpisy, nejsou náhradou za zodpovědnost, kterou všichni máme při zapojení do umělé inteligence. Spolupráce, podniků, vlád, nevládních organizací a akademických výzkumných pracovníků může řešit citlivé případy použití.

Poznámka:

Microsoft vyhodnocuje a vyvíjí principy pro řízení naší práce s technologiemi rozpoznávání obličeje. Předpokládáme, že se tyto principy budou v průběhu času vyvíjet, protože se budeme nadále učit a spolupracovat se zákazníky, dalšími technickými společnostmi, akademickými pracovníky, občanskou společností a dalšími uživateli, kteří se na tomto problému zaměří. Microsoft používá zodpovědné postupy umělé inteligence k detekci, prevenci a zmírnění těchto problémů, ale jakýkoli projekt související s AI by je měl také zvážit.

Teď se podíváme, jak se dá v jiných organizacích použít šest hlavních principů microsoftu pro zodpovědnou AI.