Ihmisen suorittama tarkistus automatisoinnille kehotteen avulla
Tässä artikkelissa painotetaan, että ihmisten tekemä tarkistus on tärkeää, kun Luo tekstiä GPT:llä -toiminto otetaan käyttöön Power Automatessa. Tämä ominaisuus käyttää Azure OpenAI -palvelun avulla käytettävää AI Builderin tekstin luontimallia. Vaikka nämä mallit ovat erittäin tehokkaita, ne voivat joskus generoida harhaanjohtavia tai keksittyjä tietoja, ja niissä on riski kehotteen lisäyshyökkäyksille.
Tärkeää
- AI Builder -kehotteet suoritetaan GPT 4o Mini- ja GPT 4o -malleissa, jotka tarjoaa Azure OpenAI -palvelu.
- Tämä ominaisuus on rajoitettu joillekin alueille.
- Tähän ominaisuuteen saatetaan soveltaa käyttörajoituksia tai kapasiteetin rajoituksia.
Kehotteen lisäyshyökkäykset
Kehote lisäyshyökkäys tapahtuu, kun kolmas osapuoli hyödyntää mallin luontaista luottamusta kaikkiin syötelähteisiin. Hyökkääjä lisää kehotteen sisältöön, jonka kanssa normaali käyttäjä pyytää tekoälyä olemaan vuorovaikutuksessa. Tämä johtaa muutoksiin tekoälyratkaisun tuottamissa tuloksissa ja mahdollisesti myös sen toiminnoissa.
Ajattele esimerkiksi skenaariota, jossa kansalaiskehittäjä käyttää Luo tekstiä GPT:llä -toimintoa luodakseen vastauksia eri ympäristöistä, kuten sähköpostiviesteistä, yhteisöpalveluista tai keskustelupalstoista kerättyihin asiakkaiden valituksiin. Hyökkääjä voi lisätä kehotteen sisältöön joistakin näistä lähteistä. Tämä skenaario voi saada mallin tuottamaan petoksella vastauksen, joka poikkeaa aiotun vastauksen tyypistä. Vastaus voi olla epäsopiva, virheellinen tai haitallinen. Asiakkaalle näytetyt virheelliset tiedot voivat vaikuttaa kielteisesti yrityksen maineeseen ja asiakassuhteisiin.
Keksitty sisältö tekoälymalleissa
Keksitty sisältö tai "kuvittelu" on toinen tekoälymallien, kuten tekstin luontimallin, kohtaama haaste. Keskitystä sisällöstä on kyse silloin, kun tekoälymalli luo tietoja, jotka eivät perustu annettuihin syötteisiin tai aiemmin luotuihin tietoihin, vaan tekoälymalli keksii tai kuvittelee tietoja.
Jos esimerkiksi tekoälymallia pyydetään luomaan yhteenveto historiallisesta tapahtumasta tietyn tekstin perusteella, se voi lisätä tietoja tai tapahtumia, joita ei ole mainittu lähdetekstissä. Työnkulku esimerkiksi luo kokouksen koosteen tallenteen transkription perusteella. Syötetiedot sisältävät tietoja osallistujista, käsitellyistä asioista ja tehdyistä päätöksistä. Malli voi kuitenkin luoda yhteenvedon, joka sisältää toimintokohteen tai päätöksen, josta ei todellisuudessa keskusteltu kokouksessa. Tämä tilanne on esimerkki keksimisestä, jossa malli on hallusinoinut tietoja, joita ei ole syötetiedoissa.
Jotta keksimisen riskiä voidaan vähentää, on tärkeää toteuttaa vastuullisia tekoälykäytäntöjä. Tähän sisältyy kehotteen ja työnkulun perusteellinen testaus, joka antaa mallille mahdollisimman paljon perustietoja ja lopulta vankan järjestelmän toteuttaminen ihmisen tekemää tarkistusta varten.
Riskeihin vastaaminen vastuullisilla tekoälykäytännöillä
Suosittelemme vastuullisia tekoälykäytäntöjä keinona vähentää näitä riskejä. Vaikka mallin tuottaman sisällön moderoimiseksi on käytössä strategiat, mallin taipumus generoida keksittyjä vastauksia tai altistua kehotelisäyshyökkäyksille pysyy monimutkaisena haasteena. Tunnistamme nämä riskit ja vahvistamme sitoumuksemme ihmisen suorittamaan valvontaan ja hallintaan.
Koska automatisointi on tarpeen toteuttaa saumattomasti, tehostamme aktiivisesti turvallisuusjärjestelmiämme ja pyrimme ymmärtämään näitä haasteita tarkemmin. Tavoitteenamme on tarkentaa tekstin luontimallia sopivilla turvallisuustoimilla vastuullista tekoälysuunnittelua koskevien periaatteiden mukaisesti ja antaa kehittäjille hallinta aina, kun se on tarpeen.