Inleiding
De hoeveelheid door de gebruiker gegenereerde inhoud die online wordt geplaatst, groeit snel. We zijn ons ook steeds meer bewust van de noodzaak om iedereen te beschermen tegen ongepaste of schadelijke inhoud.
Azure AI Content Safety is een AI-service die is ontworpen om ontwikkelaars te helpen geavanceerde inhoudsveiligheid in hun toepassingen en services op te nemen.
De uitdagingen bij het onderhouden van veilige en respectvolle onlineruimten groeien voor ontwikkelaarsteams die verantwoordelijk zijn voor het hosten van onlinediscussies. Azure AI Content Safety identificeert mogelijk onveilige inhoud en helpt organisaties om te voldoen aan regelgeving en te voldoen aan hun eigen kwaliteitsnormen.
De noodzaak om de veiligheid van online-inhoud te verbeteren heeft vier belangrijke factoren:
- Toename van schadelijke inhoud: er is een enorme groei geweest in door de gebruiker gegenereerde online-inhoud, waaronder schadelijke en ongepaste inhoud.
- Regelgevingsdruk: overheidsdruk om online inhoud te reguleren.
- Transparantie: Gebruikers hebben transparantie nodig in con tentmodus rationstandaarden en afdwinging.
- Complexe inhoud: geavanceerde technologie maakt het voor gebruikers gemakkelijker om multimodale inhoud en video's te posten.
Notitie
Azure AI Content Safety vervangt Azure Content Moderator, die in februari 2024 is afgeschaft en wordt in februari 2027 buiten gebruik gesteld.
In deze module krijgt u informatie over de belangrijkste functies van Azure AI Content Safety en wanneer deze kunnen worden gebruikt.