Veelgestelde vragen over mogelijkheden voor het genereren van prompts en tekst
Deze veelgestelde vragen (FAQ) beschrijven de AI-impact van de functie voor prompts in AI Builder.
Wat zijn prompts?
De functie voor prompts in AI Builder biedt gebruikers veelzijdige mogelijkheden voor het ontwikkelen van met AI mogelijk gemaakte werkstromen, toepassingen, gegevenstransformatie en het aanpassen van copilots. Hiermee kunnen werkstromen en toepassingen worden gemaakt die documenten samenvatten, conceptreacties maken, tekst classificeren en talen vertalen. Dit wordt mogelijk gemaakt door de Azure OpenAI Service, die GPT-technologie (Generative Pre-trained Transformer) gebruikt. Deze modellen werden getraind met grote hoeveelheden tekstgegevens, waardoor ze tekst konden genereren die leek op door mensen geschreven inhoud.
Meer informatie vindt u in de opmerking over transparantie in de Azure OpenAI Service.
Wat zijn de beoogde gebruiksscenario's voor prompts?
Dankzij de prompts in AI Builder kunt u intelligente toepassingen en werkstromen bouwen en copilots uitbreiden. Ze benutten de mogelijkheden van vooraf getrainde GPT-modellen, waardoor training van aangepaste modellen niet meer nodig is. Het kan bijvoorbeeld de intentie zijn om een werkstroom te bouwen die binnenkomende klachten van klanten samenvat. Vervolgens wordt er een ticket aangemaakt in een hulpprogramma voor incidentbeheer op basis van de categorie van de binnenkomende klacht. In dit voorbeeld kunnen makers het model opdracht geven om de binnenkomende klacht te categoriseren en samen te vatten om een nieuw incident te creëren.
De volgende lijst bevat de meest populaire gebruiksscenario's voor deze service:
- Samenvatting van e-mails, gesprekken, transcripties, documenten en meer.
- Suggesties voor conceptantwoorden op vragen van klanten, klachten, e-mail en meer.
- Extraheren van informatie uit contracten, e-mails, facturen, bestellingen en meer.
- Classificatie van inhoud in gewenste categorieën (bijvoorbeeld of een e-mail een bestelling, klacht of een retour is).
- Gevoelsanalyse van een bepaalde tekst (bijvoorbeeld het identificeren van het gevoel van een productrecensie).
In al deze gevallen zijn gebruikers verantwoordelijk voor het uiteindelijke resultaat van het systeem. Ze zijn verplicht de gegenereerde inhoud te controleren op eventuele onnauwkeurigheden of onvolledigheden voordat ze deze gebruiken.
Hoe werd de gereedheid van de functie voor prompts geëvalueerd? Welke statistieken worden gebruikt om de prestaties te meten?
De evaluatie van deze mogelijkheid omvat uitgebreide tests van een reeks veiligheidsparameters. Met deze tests wordt gegarandeerd dat de functie voldoet aan de verantwoorde AI-normen en -principes van onze organisatie. De service wordt ook voortdurend beoordeeld op mogelijke kwetsbaarheden. De prestatiestatistieken die we gebruiken, hebben voornamelijk betrekking op de efficiëntie van inhoudsfiltering en de mate van overeenstemming tussen mens en machine over gefilterde versus ongefilterde inhoud.
Welk soort inhoudsmoderatie wordt geïmplementeerd voor prompts?
De GPT-modellen zijn getraind met internetgegevens, wat geweldig is voor het bouwen van een algemeen wereldmodel. Tegelijkertijd kan het toxische, schadelijke en bevooroordeelde inhoud van dezelfde bronnen overnemen. De modellen worden getraind voor veilig gedrag en om geen schadelijke inhoud te produceren, maar soms kan dit toxische output genereren. AI Builder-prompts maken gebruik van de Azure AI Content Veiligheid-service om de modernste mogelijkheden voor inhoudsmoderatie binnen de AI-prompts te creëren. Dit omvat services om de gegenereerde uitvoer te analyseren met tekstscanners voor meerdere ernstniveaus en beveiliging tegen promptinjectie-aanvallen. De uitvoer wordt ook gescand op regurgitatie van beschermd materiaal.
Wat zijn de beperkingen van deze functie voor prompts? Hoe kunnen gebruikers de impact van de prompt-beperkingen tot een minimum terugbrengen bij gebruik van het systeem?
Het gebruik van deze technologie moet in overeenstemming zijn met de vereisten in de Gedragscode voor Azure OpenAI Service. Deze technologie mag niet worden gebruikt voor het genereren van inhoud die verband houdt met politieke propaganda, aanzetten tot haat, onjuiste informatie, zelfbeschadiging, discriminatie, expliciet seksueel materiaal of andere inhoud die verboden is onder de Gedragscode. Niet-ondersteunde toepassingen van deze technologie zijn onder meer het verstrekken van advies, gebruik voor juridische, financiële, gezondheidsgerelateerde begeleiding of toekomstvoorspellingen, evenals financiële, wetenschappelijke of wiskundige berekeningen, en elk ander niet-ondersteund gebruik dat wordt vermeld in de Transparantienotitie voor Azure OpenAI Service. Momenteel wordt de service exclusief ondersteund in de Verenigde Staten en is deze alleen beschikbaar in het Engels.
Door AI gegenereerde inhoud kan fouten bevatten, daarom moeten makers de eindgebruikers van hun oplossing op een transparante manier informeren dat de inhoud die door dit model wordt gegenereerd door AI wordt gemaakt. Duidelijke communicatie over gegenereerde content helpt overmatige afhankelijkheid te voorkomen. Ook moeten makers de mogelijkheid van de stap voor menselijke beoordeling bieden om ervoor te zorgen dat de door AI gegenereerde inhoud nauwkeurig en passend is voordat deze wordt gebruikt.
Welke operationele factoren en instellingen maken een effectief en verantwoordelijk gebruik van het systeem mogelijk?
Inhoud die door het AI-model wordt gegenereerd, is probabilistisch van aard en daarom kan het model voor dezelfde prompt verschillende reacties geven. Het gegenereerde antwoord kan onjuist of misleidend zijn en onbedoelde resultaten van de stroom of app veroorzaken. Zakelijke klanten kunnen bijvoorbeeld verkeerde of onjuiste informatie, aanbevelingen of ondersteuning krijgen. Makers moeten zinvol menselijk toezicht implementeren in hun stromen en apps en hun prompts testen op de mogelijkheid dat ze schadelijk gedrag of verboden inhoud genereren, zoals vermeld in de gedragscode van Microsoft. Ook zouden low-code ontwikkelaars transparant moeten zijn over het gebruik van AI in hun apps en stromen om de zakelijke gebruiker te informeren en aan te geven dat de inhoud door AI is gegenereerd. Bovendien komen de gegenereerde antwoorden mogelijk niet overeen met de verwachtingen van de low-code-ontwikkelaar vanwege lengtebeperkingen, filtering van inhoud of modelkeuze.
Hoe heet het GPT-model, waar het wordt gehost en hoe kan ik er toegang toe krijgen?
AI Builder ondersteunt de GPT-4o-modelfamilie, die wordt gehost op Azure OpenAI Service. U kunt deze modellen openen via de prompts in Power Platform, uw toepassingen, stromen en copilots.
Meer informatie vindt u in Wat is er nieuw in de Azure OpenAI Service?
Worden mijn gegevens gebruikt om de grote taalmodellen die beschikbaar zijn op AI Builder te trainen of te verbeteren?
AI Builder-prompts worden uitgevoerd op Azure OpenAI Service gehost door Microsoft. Klantgegevens worden niet gebruikt om de Azure OpenAI Service Foundation-modellen te trainen of te verbeteren. Uw klantgegevens worden door Microsoft niet gedeeld met een derde partij, tenzij u daarvoor toestemming hebt gegeven. Noch de klantprompts (invoer) met de bijbehorende basisgegevens, noch de modelreacties (uitvoer) worden gebruikt om Azure OpenAI Service-basismodellen te trainen of te verbeteren.
Is de inhoud die is toegevoegd aan de actie 'Tekst maken met GPT via een prompt' openbaar toegankelijk?
Op het tabblad Over voor de actie staat: Deze actie biedt toegang tot uw prompts, waarbij gebruik wordt gemaakt van het GPT-model dat wordt uitgevoerd op de Azure OpenAI Service .
De prompts die u toevoegt aan de actie Tekst maken met GPT met behulp van een prompt in Power Automate zijn standaard privé. Ze zijn alleen zichtbaar en bruikbaar binnen uw organisatie, niet toegankelijk voor de wereld. De prompts zijn privé en bedoeld voor intern gebruik binnen uw bedrijf.
Nieuw gemaakte prompts zijn standaard privé. Dit betekent dat deze zichtbaar en in Power Automate, Power Apps en Microsoft Copilot Studio bruikbaar zijn alleen voor de persoon die ze heeft gemaakt. Hierdoor heeft de maker de tijd om deze in apps of werkstromen te testen en evalueren en de nauwkeurigheid ervan te garanderen voordat ze worden gedeeld.
Als u wilt dat andere gebruikers van de omgeving of groepen uw prompt gebruiken in Power Apps of Power Automate, moet u deze delen.
Meer informatie vindt u in Uw prompt delen.
Hoe worden afbeeldingen van mensen verwerkt in AI Builder prompts?
AI Builder is niet bedoeld om personen te identificeren op basis van gezichtskenmerken of biometrische gegevens. Wanneer u afbeeldingen indient waarop mensen in AI Builder voorkomen, past het systeem automatisch een functie voor het vervagen van gezichten toe voordat de afbeeldingen worden geanalyseerd om de privacy van personen te beveiligen. Dit vervagingsproces helpt bij het aanpakken van privacyproblemen, omdat identificatie op basis van gezichtskenmerken wordt voorkomen. Bij vervaging is er geen sprake van gezichtsherkenning of gezichtssjabloonmatching. In plaats daarvan is de identificatie van bekende personen gebaseerd op contextuele aanwijzingen, zoals uniformen of unieke omgevingen, en niet op hun gezichten. Deze privacymaatregel heeft geen invloed op de kwaliteit van de resultaten die u ontvangt. Het systeem kan af en toe verwijzen naar gezichtsvervaging.
Meer informatie vindt u in Gezichtsvervaging.
Wat zijn aangepaste prompts en AI-functies?
Aangepaste prompts
Aangepaste prompts geven makers de vrijheid om het LLM-model (Large Language Model) te instrueren zich op een bepaalde manier te gedragen of een specifieke taak uit te voeren. Door zorgvuldig een prompt samen te stellen, kunt u respons genereren die aansluit bij uw specifieke zakelijke behoeften. Dit transformeert het LLM-model in een flexibel hulpmiddel voor uitvoering van verschillende taken.
Voorbeeld
Met een taalmodel kan een aangepaste prompt het model leiden bij het beantwoorden van een vraag, het aanvullen van tekst, het vertalen van talen, het samenvatten van een document en het identificeren van taken, to-do's en actie-items in tekst. De complexiteit van een aangepaste prompt kan variëren van een enkele zin tot iets ingewikkelders, afhankelijk van de taak.
AI-functies
Vooraf samengestelde AI-functies zijn vooraf geconfigureerde prompts die zijn gemaakt en verfijnd door het Microsoft-team om makers te helpen bij het simpel uitvoeren van veelvoorkomende taken. Ze bieden kant-en-klare AI-mogelijkheden voor verschillende gebruiksscenario's, wat de ervaring van makers vereenvoudigt om intelligentie in hun oplossingen op te nemen.
Voorbeeld
De vooraf gebouwde prompt van een taalmodel zou er als volgt uit kunnen zien:
Haal als een genummerde lijst de actiepunten uit de: [TextToExtract]
In dit geval hoeft de gebruiker alleen de tekst aan te leveren in [TextToExtract]
van waaruit hij actiepunten wil halen. De vooraf gebouwde prompt doet de rest.