Nyheter i Azure AI Vision
Lär dig vad som är nytt i Azure AI Vision. Kontrollera den här sidan om du vill hålla dig uppdaterad med nya funktioner, förbättringar, korrigeringar och dokumentationsuppdateringar.
September 2024
Modellanpassning och utfasning av produktigenkänning
Den 10 januari 2025 dras funktionerna för produktigenkänning och modellanpassning i Azure AI Vision tillbaka. Efter det här datumet misslyckas API-anrop till dessa tjänster.
För att upprätthålla en smidig drift av dina modeller övergår du till Azure AI Custom Vision, som nu är allmänt tillgängligt. Custom Vision erbjuder liknande funktioner som dessa funktioner för att dra tillbaka.
Augusti 2024
Nya identifierbara ansiktsattribut
Glasögon, ocklusion, oskärpa och exponeringsattribut är tillgängliga med den senaste Identifiering 03-modellen. Mer information finns i Ange en modell för ansiktsidentifiering.
Maj 2024
New Face SDK 1.0.0-beta.1 (icke-bakåtkompatibla ändringar)
Face SDK skrevs om i version 1.0.0-beta.1 för att bättre uppfylla riktlinjerna och designprinciperna för Azure SDK:er. C#, Python, Java och JavaScript är de språk som stöds. Följ snabbstarten för att komma igång.
Februari 2024
Ga för multimodala inbäddningar: ny modell med flera språk
API:et för multimodala inbäddningar har uppdaterats och är nu allmänt tillgängligt. Det nya 2024-02-01
API:et innehåller en ny modell som stöder textsökning på 102 språk. Den ursprungliga modellen endast på engelska är fortfarande tillgänglig, men den kan inte kombineras med den nya modellen i samma sökindex. Om du har vektoriserat text och bilder med endast engelsk modell är dessa vektorer inte kompatibla med flerspråkiga text- och bildvektorer.
Se sidan för språkstöd för listan över språk som stöds.
Januari 2024
New Image Analysis SDK 1.0.0-beta.1 (icke-bakåtkompatibla ändringar)
SDK:et för bildanalys skrevs om i version 1.0.0-beta.1 för att bättre överensstämma med andra Azure SDK:er. Alla API:er har ändrats. Se de uppdaterade snabbstarterna, exemplen och instruktionsguiderna för information om hur du använder den nya SDK:n.
Större ändringar:
- SDK anropar nu den allmänt tillgängliga Visuellt innehåll REST API (2023-10-01), i stället för förhandsversionen Visuellt innehåll REST API (2023-04-01-preview).
- Stöd för JavaScript har lagts till.
- C++ stöds inte längre.
- Bildanalys med en anpassad modell och Bildsegmentering (bakgrundsborttagning) stöds inte längre i SDK eftersom Visuellt innehåll REST API (2023-10-01) ännu inte stöder dem. Om du vill använda någon av funktionerna anropar du Visuellt innehåll REST API (2023-04-01-preview) direkt (med
Analyze
Segment
respektive åtgärder).
November 2023
Analysera bild 4.0 GA
Rest-API:et Analysera avbildning 4.0 finns nu i allmän tillgänglighet. Följ snabbstarten Analysera bild 4.0 för att komma igång.
De andra funktionerna i Bildanalys, till exempel modellanpassning, bakgrundsborttagning och multimodala inbäddningar, finns kvar i den offentliga förhandsversionen.
Ansikts-SDK på klientsidan för identifiering av liveness
Face Liveness SDK stöder livenessidentifiering på användarnas mobila enheter eller gränsenheter. Den finns i Java/Kotlin för Android och Swift/Objective-C för iOS.
Vår tjänst för livenessidentifiering uppfyller iBeta-nivå 1 och 2 ISO/IEC 30107-3-efterlevnad.
September 2023
Utfasning av inaktuella Visuellt innehåll API-versioner
Visuellt innehåll API-versionerna 1.0, 2.0, 3.0 och 3.1 dras tillbaka den 13 september 2026. Utvecklare kommer inte att kunna göra API-anrop till dessa API:er efter det datumet. Vi rekommenderar att alla berörda kunder migrerar sina arbetsbelastningar till det allmänt tillgängliga api:et Visuellt innehåll 3.2 genom att följa den här snabbstarten så snart som möjligt. Kunder bör också överväga att migrera till IMAGE Analysis 4.0 API (förhandsversion), som har våra senaste och bästa funktioner för bildanalys.
Besök vår Q&A om du vill ha frågor.
maj 2023
Bildanalys 4.0 Produktigenkänning (offentlig förhandsversion)
Med API:erna för produktigenkänning kan du analysera foton av hyllor i en butik. Du kan identifiera förekomsten och frånvaron av produkter och få deras avgränsningsboxkoordinater. Använd den i kombination med modellanpassning för att träna en modell för att identifiera dina specifika produkter. Du kan också jämföra produktigenkänningsresultat med butikens planogramdokument. Produktigenkänning.
April 2023
Ansiktsbegränsade åtkomsttoken
Oberoende programvaruleverantörer (ISV:er) kan hantera användningen av ansikts-API:et för sina klienter genom att utfärda åtkomsttoken som ger åtkomst till ansiktsfunktioner som normalt är gated. Detta gör det möjligt för klientföretag att använda ansikts-API:et utan att behöva gå igenom den formella godkännandeprocessen. Använd begränsade åtkomsttoken.
Mars 2023
Offentlig förhandsversion av Azure AI Vision Image Analysis 4.0 SDK
Florence Foundation-modellen är nu integrerad i Azure AI Vision. De förbättrade visionstjänsterna gör det möjligt för utvecklare att skapa marknadsklara, ansvarsfulla Azure AI Vision-program i olika branscher. Kunder kan nu sömlöst digitalisera, analysera och ansluta sina data till interaktioner med naturligt språk, låsa upp kraftfulla insikter från deras bild- och videoinnehåll för att stödja tillgänglighet, driva förvärv via SEO, skydda användare från skadligt innehåll, förbättra säkerheten och förbättra incidenthanteringstiderna. Mer information finns i Meddelande om Microsofts Grundmodell i Florens.
Image Analysis 4.0 SDK (offentlig förhandsversion)
Bildanalys 4.0 är nu tillgängligt via klientbibliotekets SDK:er i C#, C++och Python. Den här uppdateringen innehåller också den Florens-drivna bildtexten och tät bildtextning vid mänsklig paritetsprestanda.
Bildanalys V4.0 Bildtext och tät textning (offentlig förhandsversion):
"Caption" ersätter "Describe" i V4.0 som den förbättrade bildtextfunktionen med information och semantisk förståelse. Kompakta bildtexter ger mer information genom att generera en meningsbeskrivningar av upp till 10 regioner av bilden förutom att beskriva hela bilden. Kompakta bildtexter returnerar också koordinater för avgränsningsrutor för de beskrivna bildregionerna. Det finns också en ny könsneutral parameter som gör det möjligt för kunder att välja om de vill aktivera probabilistisk könsinferens för alt-text och Att se AI-program. Leverera automatiskt omfattande bildtexter, tillgänglig alt-text, SEO-optimering och intelligent fotokuration för att stödja digitalt innehåll. Bildtexter.
Videosammanfattning och bildrutelokaliserare (offentlig förhandsversion):
Sök och interagera med videoinnehåll på samma intuitiva sätt som du tänker och skriver. Leta upp relevant innehåll utan att behöva extra metadata. Endast tillgängligt i Vision Studio.
Bildanalys 4.0-modellanpassning (offentlig förhandsversion)
Nu kan du skapa och träna dina egna anpassade bildklassificerings- och objektidentifieringsmodeller med hjälp av Vision Studio eller REST-API:erna för v4.0.
API:er för multimodala inbäddningar (offentlig förhandsversion)
API:erna för multimodala inbäddningar, som är en del av API:et för bildanalys 4.0, aktiverar vektorisering av bilder och textfrågor. De låter dig konvertera bilder och text till koordinater i ett flerdimensionellt vektorutrymme. Nu kan du söka med naturligt språk och hitta relevanta bilder med hjälp av vektorlikhetssökning.
API:er för bakgrundsborttagning (offentlig förhandsversion)
Som en del av API:et för bildanalys 4.0 kan du ta bort bakgrunden till en bild i API:et för bakgrundsborttagning. Den här åtgärden kan antingen mata ut en bild av det identifierade förgrundsobjektet med en transparent bakgrund eller en alfamatisk bild i gråskala som visar opaciteten för det identifierade förgrundsobjektet.
Utfasning av förhandsversioner av Azure AI Vision 3.0 och 3.1
Förhandsversionerna av API:erna för Azure AI Vision 3.0 och 3.1 är schemalagda att dras tillbaka den 30 september 2023. Kunder kommer inte att kunna göra några anrop till dessa API:er efter det här datumet. Kunder uppmanas att migrera sina arbetsbelastningar till det allmänt tillgängliga API:et (GA) 3.2 i stället. Tänk på följande ändringar när du migrerar från förhandsversionerna till 3.2-API:et:
- API-anropen Analysera bild och läsning tar en valfri modellversionsparameter som du kan använda för att ange vilken AI-modell som ska användas. Som standard använder de den senaste modellen.
- API-anropen Analysera bild och Läsning returnerar också ett
model-version
fält i lyckade API-svar. Det här fältet rapporterar vilken modell som användes. - Azure AI Vision 3.2 API använder ett annat felrapporteringsformat. Se API-referensdokumentationen för att lära dig hur du justerar eventuell felhanteringskod.
Oktober 2022
Azure AI Vision Image Analysis 4.0 (offentlig förhandsversion)
Bildanalys 4.0 har släppts i offentlig förhandsversion. Det nya API:et innehåller bildtexter, bildtaggning, objektidentifiering, smarta grödor, personidentifiering och Läs OCR-funktioner, alla tillgängliga via en analysera bildåtgärd. OCR är optimerad för allmänna icke-dokumentbilder i ett prestandaförstärkt synkront API som gör det enklare att bädda in OCR-baserade upplevelser i dina arbetsflöden.
September 2022
Utfasning av Azure AI Vision 3.0/3.1 Läsa förhandsversioner
Förhandsversionerna av Läs-API:et för Azure AI Vision 3.0 och 3.1 är schemalagda att dras tillbaka den 31 januari 2023. Kunder uppmanas att referera till instruktioner och snabbstarter för att komma igång med den allmänt tillgängliga versionen av Läs-API:et i stället. De senaste GA-versionerna ger följande fördelar:
- 2022 senaste allmänt tillgängliga OCR-modellen
- Betydande ökning av OCR-språktäckning inklusive stöd för handskriven text
- Förbättrad OCR-kvalitet
Juni 2022
Vision Studio-lansering
Vision Studio är ett gränssnittsverktyg som gör att du kan utforska, bygga och integrera funktioner från Azure AI Vision i dina program.
Vision Studio ger dig en plattform för att prova flera tjänstfunktioner och se vad de returnerar på ett visuellt sätt. Med Studio kan du komma igång utan att behöva skriva kod och sedan använda de tillgängliga klientbiblioteken och REST-API:erna i ditt program.
Ansvarsfull AI för ansiktsigenkänning
Anteckning om ansiktstransparens
- Transparensmeddelandet ger vägledning för att hjälpa våra kunder att förbättra noggrannheten och rättvisan i sina system genom att införliva meningsfull mänsklig granskning för att upptäcka och lösa fall av felidentifiering eller andra fel, ge stöd till personer som anser att deras resultat var felaktiga och identifiera och åtgärda variationer i noggrannhet på grund av variationer i driftförhållanden.
Tillbakadragning av känsliga attribut
- Vi har dragit tillbaka funktioner för ansiktsanalys som utger sig för att härleda känslomässiga tillstånd och identitetsattribut, såsom kön, ålder, leende, ansiktshår, hår och smink.
- Funktioner för ansiktsidentifiering (inklusive att upptäcka oskärpa, exponering, glasögon, huvudbonader, landmärken, brus, ocklusion, ansiktsavgränsningslåda) förblir allmänt tillgängliga och kräver inget program.
Fairlearn-paket och Microsofts rättviseinstrumentpanel
- Fairlearn-paketet med öppen källkod och Microsofts rättviseinstrumentpanel syftar till att stödja kunder att mäta rättvisan i Microsofts algoritmer för ansiktsverifiering på sina egna data, så att de kan identifiera och åtgärda potentiella rättviseproblem som kan påverka olika demografiska grupper innan de distribuerar sin teknik.
Princip för begränsad åtkomst
- Som en del av anpassningen av Ansiktsigenkänning till den uppdaterade ansvarsfulla AI-standarden har en ny princip för begränsad åtkomst implementerats för Ansikts-API:et och Azure AI Vision. Befintliga kunder har ett år på sig att ansöka och få godkännande för fortsatt åtkomst till ansiktsigenkänningstjänsterna baserat på deras angivna användningsfall. Se information om begränsad åtkomst för Face här och för Azure AI Vision här.
Utfasning av Azure AI Vision 3.2-förhandsversion
Förhandsversionerna av 3.2-API:et är schemalagda att dras tillbaka i december 2022. Kunder uppmanas att använda den allmänt tillgängliga versionen av API:et i stället. Tänk på följande ändringar när du migrerar från 3.2-förhandsversionerna:
- Api-anropen Analysera bild och läsning tar nu en valfri modellversionsparameter som du kan använda för att ange vilken AI-modell som ska användas. Som standard använder de den senaste modellen.
- API-anropen Analysera bild och Läsning returnerar också ett
model-version
fält i lyckade API-svar. Det här fältet rapporterar vilken modell som användes. - API:er för bildanalys använder nu ett annat format för felrapportering. Se API-referensdokumentationen för att lära dig hur du justerar eventuell felhanteringskod.
Maj 2022
OCR-API-modellen (Read) är allmänt tillgänglig (GA)
Azure AI Visions OCR-API (Read) senaste modell med 164 språk som stöds är nu allmänt tillgänglig som en molntjänst och container.
- OCR-stöd för utskriftstext utökas till 164 språk, inklusive ryska, arabiska, hindi och andra språk med hjälp av kyrilliska, arabiska och Devanagari-skript.
- OCR-stöd för handskriven text utökas till 9 språk med engelska, förenklad kinesiska, franska, tyska, italienska, japanska, koreanska, portugisiska och spanska.
- Förbättrat stöd för enstaka tecken, handskrivna datum, belopp, namn, andra entiteter som ofta finns i kvitton och fakturor.
- Förbättrad bearbetning av digitala PDF-dokument.
- Indatafilens storleksgräns ökade med 10x till 500 MB.
- Förbättringar av prestanda och svarstider.
- Tillgänglig som molntjänst och Docker-container.
Se instruktionsguiden för OCR för att lära dig hur du använder GA-modellen.
Februari 2022
OCR(Read) API Public Preview har stöd för 164 språk
API:et OCR (Read) i Azure AI Vision utökar språk som stöds till 164 med den senaste förhandsversionen:
- OCR-stöd för utskriftstext utökas till 42 nya språk, inklusive arabiska, hindi och andra språk med hjälp av arabiska och Devanagari-skript.
- OCR-stöd för handskriven text utökas till japanska och koreanska utöver engelska, förenklad kinesiska, franska, tyska, italienska, portugisiska och spanska.
- Förbättringar, inklusive bättre stöd för att extrahera handskrivna datum, belopp, namn och rutor med enkla tecken.
- Allmänna prestanda- och AI-kvalitetsförbättringar
Se instruktionsguiden för OCR för att lära dig hur du använder de nya förhandsgranskningsfunktionerna.
Nytt kvalitetsattribut i Detection_01 och Detection_03
- För att hjälpa systembyggare och deras kunder att samla in högkvalitativa bilder, som är nödvändiga för högkvalitativa utdata från Ansikts-API: et, introducerar vi ett nytt kvalitetsattribut QualityForRecognition för att avgöra om en bild är av tillräcklig kvalitet för att försöka känna igen ansiktet. Värdet är ett informellt omdöme av låg, medel eller hög. Det nya attributet är endast tillgängligt när du använder kombinationer av identifieringsmodeller
detection_01
ellerdetection_03
, och igenkänningsmodellerrecognition_03
ellerrecognition_04
. Endast bilder av hög kvalitet rekommenderas för personregistrering och kvalitet över "medium" rekommenderas för identifieringsscenarier. Mer information om det nya kvalitetsattributet finns i Ansiktsigenkänning och attribut och se hur du använder det med Snabbstart.
September 2021
OCR(Read) API Public Preview har stöd för 122 språk
API:et OCR (Read) i Azure AI Vision utökar språk som stöds till 122 med den senaste förhandsversionen:
- OCR-stöd för tryckt text på 49 nya språk, inklusive ryska, bulgariska och andra kyrilliska och fler latinska språk.
- OCR-stöd för handskriven text på 6 nya språk som omfattar engelska, förenklad kinesiska, franska, tyska, italienska, portugisiska och spanska.
- Förbättringar för bearbetning av digitala PDF-filer och MRZ-text (Machine Readable Zone) i identitetsdokument.
- Allmänna prestanda- och AI-kvalitetsförbättringar
Se instruktionsguiden för OCR för att lära dig hur du använder de nya förhandsgranskningsfunktionerna.
Augusti 2021
Språkexpansion för bildtaggning
Den senaste versionen (v3.2) av bildtaggar stöder nu taggar på 50 språk. Mer information finns på sidan för språkstöd .
Juli 2021
Nya förbättringar av HeadPose och Landmärken för Detection_03
- Den Detection_03 modellen har uppdaterats för att stödja ansiktsmärken.
- Landmärkena i Detection_03 är mycket mer exakta, särskilt i ögongloben landmärken, som är avgörande för blickspårning.
Maj 2021
Uppdatering av container för rumslig analys
En ny version av containern Spatial Analysis har släppts med en ny funktionsuppsättning. Med den här Docker-containern kan du analysera strömmande video i realtid för att förstå rumsliga relationer mellan personer och deras rörelse genom fysiska miljöer.
Spatial Analysis-åtgärder kan nu konfigureras för att identifiera den orientering som en person har.
- En orienteringsklassificerare kan aktiveras för
personcrossingline
åtgärderna ochpersoncrossingpolygon
genom att konfigurera parameternenable_orientation
. Den är inställd på av som standard.
- En orienteringsklassificerare kan aktiveras för
Spatial Analysis-åtgärder erbjuder nu även konfiguration för att identifiera en persons hastighet vid gång-/körning
- Hastighet kan identifieras för
personcrossingline
åtgärderna ochpersoncrossingpolygon
genom att aktiveraenable_speed
klassificeraren, som är inaktiverad som standard. Utdata återspeglas i utdataavgSpeed
,speed
ochminSpeed
.
- Hastighet kan identifieras för
April 2021
Azure AI Vision v3.2 GA
Azure AI Vision API v3.2 är nu allmänt tillgängligt med följande uppdateringar:
- Förbättrad modell för bildtaggning: analyserar visuellt innehåll och genererar relevanta taggar baserat på objekt, åtgärder och innehåll som visas i bilden. Den här modellen är tillgänglig via taggbild-API:et. Mer information finns i instruktioner för bildanalys och översikt.
- Uppdaterad con tältläge rationsmodell: identifierar förekomsten av innehåll för vuxna och tillhandahåller flaggor för att filtrera bilder som innehåller innehåll från vuxna, olämpliga och blodiga visuella objekt. Den här modellen är tillgänglig via Analys-API:et. Mer information finns i instruktioner för bildanalys och översikt.
- OCR (Read) är tillgängligt för 73 språk , inklusive förenklade och traditionella kinesiska, japanska, koreanska och latinska språk.
- OCR (Read) finns också som en distrolös container för lokal distribution.
PersonDirectory-datastruktur (förhandsversion)
- För att kunna utföra ansiktsigenkänningsåtgärder som Identifiera och Hitta liknande måste ansikts-API-kunder skapa en blandad lista över personobjekt . Den nya PersonDirectory är en datastruktur som innehåller unika ID:n, valfria namnsträngar och valfria användarmetadatasträngar för varje personidentitet som läggs till i katalogen. För närvarande erbjuder Ansikts-API:et LargePersonGroup-strukturen , som har liknande funktioner men är begränsad till 1 miljon identiteter. PersonDirectory-strukturen kan skala upp till 75 miljoner identiteter.
- En annan stor skillnad mellan PersonDirectory och tidigare datastrukturer är att du inte längre behöver göra några Train-anrop när du har lagt till ansikten i ett personobjekt – uppdateringsprocessen sker automatiskt. Mer information finns i Använda PersonDirectory-strukturen.
Mars 2021
Uppdatering av offentlig förhandsversion av Azure AI Vision 3.2
Den offentliga förhandsversionen av Azure AI Vision API v3.2 har uppdaterats. Förhandsversionen innehåller alla Azure AI Vision-funktioner tillsammans med uppdaterade Läs- och analysera API:er.
Februari 2021
Läs API v3.2 Offentlig förhandsversion med OCR-stöd för 73 språk
Den offentliga förhandsversionen av Azure AI Vision Read API v3.2, som är tillgänglig som molntjänst och Docker-container, innehåller följande uppdateringar:
- OCR för 73 språk , inklusive förenklade och traditionella kinesiska, japanska, koreanska och latinska språk.
- Naturlig läsordning för textradsutdata (endast latinska språk)
- Klassificering av handskriftsstil för textlinjer tillsammans med en konfidenspoäng (endast latinska språk).
- Extrahera endast text för markerade sidor för ett dokument med flera sidor.
- Tillgänglig som en distributionsfri container för lokal distribution.
Mer information finns i guiden Läs API:et .
Ny ansikts-API-identifieringsmodell
- Den nya identifieringsmodellen 03 är den mest exakta identifieringsmodellen som för närvarande är tillgänglig. Om du är en ny kund rekommenderar vi att du använder den här modellen. Identifiering 03 förbättrar både träffsäkerhet och precision på mindre ansikten som finns i bilder (64 x 64 bildpunkter). Andra förbättringar inkluderar en total minskning av falska positiva identifieringar och förbättrad identifiering på roterade ansiktsorienteringar. Genom att kombinera Identifiering 03 med den nya igenkänningsmodellen 04 får du även bättre igenkänningsnoggrannhet. Mer information finns i Ange en modell för ansiktsidentifiering.
Nya identifierbara ansiktsattribut
- Attributet
faceMask
är tillgängligt med den senaste Identifiering 03-modellen, tillsammans med det tillagda attributet"noseAndMouthCovered"
, som identifierar om ansiktsmasken bärs som avsett, som täcker både näsa och mun. Om du vill använda den senaste funktionen för maskidentifiering måste användarna ange identifieringsmodellen i API-begäran: tilldela modellversionen med parametern detectionModel tilldetection_03
. Mer information finns i Ange en modell för ansiktsidentifiering.
Ny ansikts-API-igenkänningsmodell
- Den nya igenkänningsmodellen 04 är den mest exakta igenkänningsmodellen som för närvarande är tillgänglig. Om du är en ny kund rekommenderar vi att du använder den här modellen för verifiering och identifiering. Det förbättrar noggrannheten i Recognition 03, inklusive förbättrad igenkänning för användare som bär ansiktsskydd (kirurgiska masker, N95-masker, tygmasker). Vi rekommenderar att du inte registrerar bilder av användare som bär ansiktsskydd eftersom detta kommer att sänka igenkänningskvaliteten. Nu kan kunder skapa säkra och smidiga användarupplevelser som identifierar om en användare bär ett ansiktsskydd med den senaste Identifiering 03-modellen och känner igen dem med den senaste igenkänningsmodellen 04. Mer information finns i Ange en ansiktsigenkänningsmodell .
Januari 2021
Uppdatering av container för rumslig analys
En ny version av containern Spatial Analysis har släppts med en ny funktionsuppsättning. Med den här Docker-containern kan du analysera strömmande video i realtid för att förstå rumsliga relationer mellan personer och deras rörelse genom fysiska miljöer.
- Spatial Analysis-åtgärder kan nu konfigureras för att identifiera om en person bär ett skyddande ansiktsskydd, till exempel en mask.
- En maskklassificerare kan aktiveras för
personcount
åtgärderna ochpersoncrossingline
personcrossingpolygon
genom att konfigurera parameternENABLE_FACE_MASK_CLASSIFIER
. - Attributen
face_mask
ochface_noMask
returneras som metadata med konfidenspoäng för varje person som identifieras i videoströmmen
- En maskklassificerare kan aktiveras för
- Åtgärden personcrossingpolygon har utökats för att tillåta beräkningen av den uppehållstid som en person tillbringar i en zon. Du kan ange parametern
type
i zonkonfigurationen för åtgärden tillzonedwelltime
och en ny händelse av typen personZoneDwellTimeEvent innehåller fältetdurationMs
fyllt med antalet millisekunder som personen tillbringade i zonen. - Icke-bakåtkompatibel ändring: PersonZoneEvent-händelsen har bytt namn till personZoneEnterExitEvent. Den här händelsen genereras av åtgärden personcrossingpolygon när en person går in i eller lämnar zonen och tillhandahåller riktningsinformation med den numrerade sidan av zonen som korsades.
- Video-URL kan anges som "Privat parameter/dold" i alla åtgärder. Obfuscation är valfritt nu och det fungerar bara om
KEY
ochIV
tillhandahålls som miljövariabler. - Kalibrering är aktiverat som standard för alla åtgärder.
do_calibration: false
Ange för att inaktivera den. - Stöd för automatisk omkalibrering (som standard inaktiverad) via parametern har lagts till. Mer information finns i
enable_recalibration
Spatial Analysis-åtgärder - Parametrar för kamerakalibrering till
DETECTOR_NODE_CONFIG
. Mer information finns i Åtgärder för rumslig analys.
Minska svarstiden
- Ansiktsteamet publicerade en ny artikel som beskriver potentiella orsaker till svarstid vid användning av tjänsten och möjliga strategier för åtgärder. Se Minimera svarstider när du använder ansiktstjänsten.
December 2020
Kundkonfiguration för Ansikts-ID-lagring
- Ansiktstjänsten lagrar inte kundbilder, men de extraherade ansiktsfunktionerna lagras på servern. Ansikts-ID:t är en identifierare för ansiktsfunktionen och används i Ansiktsigenkänning, Ansikte – Verifiera och Ansikte – Hitta liknande. De lagrade ansiktsfunktionerna upphör att gälla och tas bort 24 timmar efter det ursprungliga identifieringsanropet. Kunderna kan nu fastställa hur länge dessa ansikts-ID:er cachelagras. Det maximala värdet är fortfarande upp till 24 timmar, men ett minsta värde på 60 sekunder kan nu anges. De nya tidsintervallen för ansikts-ID:n som cachelagras är valfritt värde mellan 60 sekunder och 24 timmar. Mer information finns i referensen för Ansiktsigenkänning – Identifiera API (parametern faceIdTimeToLive ).
November 2020
Exempelapp för ansiktsregistrering
- Teamet publicerade ett exempel på en app för ansiktsregistrering för att demonstrera metodtips för att upprätta meningsfullt medgivande och skapa ansiktsigenkänningssystem med hög noggrannhet genom högkvalitativa registreringar. Exemplet med öppen källkod finns i guiden Skapa en registreringsapp och på GitHub, som är redo för utvecklare att distribuera eller anpassa.
Oktober 2020
Azure AI Vision API v3.1 GA
Api:et för Azure AI Vision i allmän tillgänglighet har uppgraderats till v3.1.
September 2020
Förhandsgranskning av container för rumslig analys
Containern spatial analys är nu i förhandsversion. Med funktionen Spatial Analysis i Azure AI Vision kan du analysera strömmande video i realtid för att förstå rumsliga relationer mellan människor och deras rörelse genom fysiska miljöer. Spatial Analysis är en Docker-container som du kan använda lokalt.
Läs API v3.1 Offentlig förhandsversion lägger till OCR för japanska
Den offentliga förhandsversionen av Azure AI Vision Read API v3.1 lägger till följande funktioner:
OCR för japanska
För varje textrad anger du om utseendet är handskrifts- eller utskriftsformat, tillsammans med en konfidenspoäng (endast latinska språk).
För ett dokument med flera sidor extraherar du endast text för valda sidor eller sidintervall.
Den här förhandsversionen av Läs-API:et stöder engelska, nederländska, franska, tyska, italienska, japanska, portugisiska, förenklade kinesiska och spanska språk.
Mer information finns i guiden Läs API:et .
Augusti 2020
Kundhanterad kryptering av vilande data
- Ansiktstjänsten krypterar automatiskt dina data när de sparas i molnet. Ansiktstjänstkryptering skyddar dina data för att hjälpa dig att uppfylla organisationens säkerhets- och efterlevnadsåtaganden. Som standard använder din prenumeration krypteringsnycklar som hanteras av Microsoft. Det finns också ett nytt alternativ för att hantera din prenumeration med dina egna nycklar som kallas kundhanterade nycklar (CMK). Mer information finns på Kundhanterade nycklar.
Juli 2020
Läs API v3.1 Offentlig förhandsversion med OCR för förenklad kinesiska
Den offentliga förhandsversionen av Azure AI Vision Read API v3.1 ger stöd för förenklad kinesiska.
- Den här förhandsversionen av Läs-API:et stöder engelska, nederländska, franska, tyska, italienska, portugisiska, förenklade kinesiska och spanska språk.
Mer information finns i guiden Läs API:et .
Maj 2020
Azure AI Vision API v3.0 har angetts till Allmän tillgänglighet med uppdateringar av Läs-API:et:
- Stöd för engelska, nederländska, franska, tyska, italienska, portugisiska och spanska
- Förbättrad noggrannhet
- Konfidenspoäng för varje extraherat ord
- Nytt utdataformat
Mer information finns i OCR-översikten .
April 2020
Ny ansikts-API-igenkänningsmodell
- Den nya igenkänningsmodellen 03 är den mest exakta modellen som för närvarande är tillgänglig. Om du är en ny kund rekommenderar vi att du använder den här modellen. Igenkänning 03 ger bättre noggrannhet för både likhetsjämförelser och personmatchningsjämförelser. Mer information finns i Ange en ansiktsigenkänningsmodell.
Mars 2020
- TLS 1.2 tillämpas nu för alla HTTP-begäranden till den här tjänsten. Mer information finns i Säkerhet för Azure AI-tjänster.
Januari 2020
Läs DEN offentliga förhandsversionen av API 3.0
Nu kan du använda version 3.0 av Läs-API:et för att extrahera tryckt eller handskriven text från bilder. Jämfört med tidigare versioner tillhandahåller 3.0:
- Förbättrad noggrannhet
- Nytt utdataformat
- Konfidenspoäng för varje extraherat ord
- Stöd för både spanska och engelska språk med språkparametern
Följ snabbstarten Extrahera text för att komma igång med 3.0-API:et.
2019 juni
Ny ansikts-API-identifieringsmodell
- Den nya modellen Detection 02 har förbättrad noggrannhet på små, sidovyer, occluded och suddiga ansikten. Använd det via Face – Detect, FaceList – Add Face, LargeFaceList – Add Face, PersonGroup Person – Add Face and LargePersonGroup Person – Add Face by specifying the new face detection model name
detection_02
indetectionModel
parameter . Mer information finns i Så här anger du en identifieringsmodell.
2019 april
Förbättrad attributprecision
- Förbättrad övergripande noggrannhet för attributen
age
ochheadPose
. AttributetheadPose
uppdateras också med värdetpitch
aktiverat nu. Använd dessa attribut genom att ange dem i parameternreturnFaceAttributes
Ansiktsigenkänning – IdentifierareturnFaceAttributes
.
Förbättrade bearbetningshastigheter
- Förbättrade hastigheter för Ansikte – Identifiera, Ansiktslista – Lägg till ansikte, LargeFaceList – Lägg till ansikte, PersonGroup Person – Lägg till ansikte och LargePersonGroup-person – Lägg till ansiktsåtgärder .
Mars 2019
Ny ansikts-API-igenkänningsmodell
- Igenkänning 02-modellen har förbättrat noggrannheten. Använd det via Ansiktsigenkänning – Identifiera, Ansiktslista – Skapa, LargeFaceList – Skapa, PersonGroup – Skapa och LargePersonGroup – Skapa genom att ange det nya modellnamnet
recognition_02
för ansiktsigenkänning irecognitionModel
parametern. Mer information finns i Så här anger du en igenkänningsmodell.
Januari 2019
Ansiktsögonblicksfunktion
- Med den här funktionen kan tjänsten stödja datamigrering mellan prenumerationer: Ögonblicksbild.
Viktigt!
Från och med den 30 juni 2023 dras API:et för ansiktsögonblicksbild tillbaka.
2018 oktober
API-meddelanden
- Förfinad beskrivning för
status
,createdDateTime
,lastActionDateTime
ochlastSuccessfulTrainingDateTime
i PersonGroup – Hämta träningsstatus, LargePersonGroup – Hämta träningsstatus och LargeFaceList – Hämta träningsstatus.
Maj 2018
Förbättrad attributprecision
- Förbättrade
gender
attribut avsevärt och förbättradeage
även attributen ,glasses
,facialHair
,hair
.makeup
Använd dem via Face – Detect-parameternreturnFaceAttributes
.
Ökad filstorleksgräns
- Ökad storleksgräns för indatabilder från 4 MB till 6 MB i Ansiktsigenkänning – Identifiera, Ansiktslista – Lägg till ansikte, LargeFaceList – Lägg till ansikte, PersonGroup Person – Lägg till ansikte och LargePersonGroup Person – Lägg till ansikte.
Mars 2018
Ny datastruktur
- LargeFaceList och LargePersonGroup. Mer information finns i Skala för att hantera fler registrerade användare.
- Utökat ansikte – Identifiera
maxNumOfCandidatesReturned
parametern från [1, 5] till [1, 100] och standardvärdet är 10.
maj 2017
Nya identifierbara ansiktsattribut
- Attributen i Face – Detect
returnFaceAttributes
har lagts tillhair
i ,makeup
,occlusion
accessory
,blur
, ,exposure
ochnoise
. - 10 000 personer som stöds i en persongrupp och ett ansikte – Identifiera.
- Sidnumrering som stöds i PersonGroup Person – Lista med valfria parametrar:
start
ochtop
. - Samtidighet som stöds vid tillägg/borttagning av ansikten mot olika ansiktslistor och olika personer i PersonGroup.
Mars 2017
Nytt identifierbart ansiktsattribut
- Attributet har lagts till
emotion
i Face – Detect-parameternreturnFaceAttributes
.
Åtgärdade problem
- Det gick inte att identifiera ansiktet igen med rektangel som returnerades från Ansiktsigenkänning – Identifiera som
targetFace
i Ansiktslista – Lägg till ansikte och persongruppsperson – Lägg till ansikte. - Den identifierbara ansiktsstorleken är inställd för att säkerställa att den är strikt mellan 36 x 36 till 4 096 x 4096 bildpunkter.
November 2016
Ny prenumerationsnivå
- Prenumerationen Face Storage Standard har lagts till för att lagra ytterligare bevarade ansikten när du använder PersonGroup Person – Lägg till ansikte eller ansiktslista – Lägg till ansikte för identifiering eller likhetsmatchning. De lagrade bilderna debiteras med USD 0:50 per 1000 ansikten och priset justeras proportionerligt på daglig basis. Prenumerationer på den kostnadsfria nivån är fortfarande begränsade till totalt 1 000 personer.
Oktober 2016
API-meddelanden
- Ändrade felmeddelandet för fler än ett ansikte i
targetFace
från "Det finns fler än ett ansikte i bilden" till "Det finns mer än ett ansikte i bilden" i Ansiktslista – Lägg till ansikte och PersonGroup Person – Lägg till ansikte.
Juli 2016
Nya funktioner
- Objektautentisering mellan ansikte och person som stöds i Ansiktsigenkänning – Verifiera.
mode
Valfri parameter har lagts till för att aktivera val av två arbetslägen:matchPerson
ochmatchFace
i Ansikte – Hitta liknande och standardvärdet ärmatchPerson
.confidenceThreshold
Valfri parameter har lagts till för användaren för att ange tröskelvärdet för om ett ansikte tillhör ett personobjekt i Ansiktsigenkänning – Identifiera.- Valfria
start
parametrar ochtop
parametrar har lagts till i PersonGroup – lista för att göra det möjligt för användaren att ange startpunkten och det totala PersonGroups-numret som ska listas.
V1.0 ändras från V0
- Tjänstens rotslutpunkt har uppdaterats från
https://westus.api.cognitive.microsoft.com/face/v0/
tillhttps://westus.api.cognitive.microsoft.com/face/v1.0/
. Ändringar som tillämpas på: Ansikte – Identifiera, Ansikte – Identifiera, Ansikte – Hitta liknande och Ansikte – Grupp. - Den minimala detekterbara ansiktsstorleken har uppdaterats till 36 x 36 bildpunkter. Ansikten som är mindre än 36 x 36 bildpunkter identifieras inte.
- Inaktuella PersonGroup- och Person-data i Face V0. Dessa data kan inte nås med tjänsten Face V1.0.
- Den 30 juni 2016 inaktuella V0-slutpunkten för ansikts-API:et.