Dela via


Nyheter i Azure AI Vision

Lär dig vad som är nytt i Azure AI Vision. Kontrollera den här sidan om du vill hålla dig uppdaterad med nya funktioner, förbättringar, korrigeringar och dokumentationsuppdateringar.

September 2024

Modellanpassning och utfasning av produktigenkänning

Den 10 januari 2025 dras funktionerna för produktigenkänning och modellanpassning i Azure AI Vision tillbaka. Efter det här datumet misslyckas API-anrop till dessa tjänster.

För att upprätthålla en smidig drift av dina modeller övergår du till Azure AI Custom Vision, som nu är allmänt tillgängligt. Custom Vision erbjuder liknande funktioner som dessa funktioner för att dra tillbaka.

Augusti 2024

Nya identifierbara ansiktsattribut

Glasögon, ocklusion, oskärpa och exponeringsattribut är tillgängliga med den senaste Identifiering 03-modellen. Mer information finns i Ange en modell för ansiktsidentifiering.

Maj 2024

New Face SDK 1.0.0-beta.1 (icke-bakåtkompatibla ändringar)

Face SDK skrevs om i version 1.0.0-beta.1 för att bättre uppfylla riktlinjerna och designprinciperna för Azure SDK:er. C#, Python, Java och JavaScript är de språk som stöds. Följ snabbstarten för att komma igång.

Februari 2024

Ga för multimodala inbäddningar: ny modell med flera språk

API:et för multimodala inbäddningar har uppdaterats och är nu allmänt tillgängligt. Det nya 2024-02-01 API:et innehåller en ny modell som stöder textsökning på 102 språk. Den ursprungliga modellen endast på engelska är fortfarande tillgänglig, men den kan inte kombineras med den nya modellen i samma sökindex. Om du har vektoriserat text och bilder med endast engelsk modell är dessa vektorer inte kompatibla med flerspråkiga text- och bildvektorer.

Se sidan för språkstöd för listan över språk som stöds.

Januari 2024

New Image Analysis SDK 1.0.0-beta.1 (icke-bakåtkompatibla ändringar)

SDK:et för bildanalys skrevs om i version 1.0.0-beta.1 för att bättre överensstämma med andra Azure SDK:er. Alla API:er har ändrats. Se de uppdaterade snabbstarterna, exemplen och instruktionsguiderna för information om hur du använder den nya SDK:n.

Större ändringar:

November 2023

Analysera bild 4.0 GA

Rest-API:et Analysera avbildning 4.0 finns nu i allmän tillgänglighet. Följ snabbstarten Analysera bild 4.0 för att komma igång.

De andra funktionerna i Bildanalys, till exempel modellanpassning, bakgrundsborttagning och multimodala inbäddningar, finns kvar i den offentliga förhandsversionen.

Ansikts-SDK på klientsidan för identifiering av liveness

Face Liveness SDK stöder livenessidentifiering på användarnas mobila enheter eller gränsenheter. Den finns i Java/Kotlin för Android och Swift/Objective-C för iOS.

Vår tjänst för livenessidentifiering uppfyller iBeta-nivå 1 och 2 ISO/IEC 30107-3-efterlevnad.

September 2023

Utfasning av inaktuella Visuellt innehåll API-versioner

Visuellt innehåll API-versionerna 1.0, 2.0, 3.0 och 3.1 dras tillbaka den 13 september 2026. Utvecklare kommer inte att kunna göra API-anrop till dessa API:er efter det datumet. Vi rekommenderar att alla berörda kunder migrerar sina arbetsbelastningar till det allmänt tillgängliga api:et Visuellt innehåll 3.2 genom att följa den här snabbstarten så snart som möjligt. Kunder bör också överväga att migrera till IMAGE Analysis 4.0 API (förhandsversion), som har våra senaste och bästa funktioner för bildanalys.

Besök vår Q&A om du vill ha frågor.

maj 2023

Bildanalys 4.0 Produktigenkänning (offentlig förhandsversion)

Med API:erna för produktigenkänning kan du analysera foton av hyllor i en butik. Du kan identifiera förekomsten och frånvaron av produkter och få deras avgränsningsboxkoordinater. Använd den i kombination med modellanpassning för att träna en modell för att identifiera dina specifika produkter. Du kan också jämföra produktigenkänningsresultat med butikens planogramdokument. Produktigenkänning.

April 2023

Ansiktsbegränsade åtkomsttoken

Oberoende programvaruleverantörer (ISV:er) kan hantera användningen av ansikts-API:et för sina klienter genom att utfärda åtkomsttoken som ger åtkomst till ansiktsfunktioner som normalt är gated. Detta gör det möjligt för klientföretag att använda ansikts-API:et utan att behöva gå igenom den formella godkännandeprocessen. Använd begränsade åtkomsttoken.

Mars 2023

Offentlig förhandsversion av Azure AI Vision Image Analysis 4.0 SDK

Florence Foundation-modellen är nu integrerad i Azure AI Vision. De förbättrade visionstjänsterna gör det möjligt för utvecklare att skapa marknadsklara, ansvarsfulla Azure AI Vision-program i olika branscher. Kunder kan nu sömlöst digitalisera, analysera och ansluta sina data till interaktioner med naturligt språk, låsa upp kraftfulla insikter från deras bild- och videoinnehåll för att stödja tillgänglighet, driva förvärv via SEO, skydda användare från skadligt innehåll, förbättra säkerheten och förbättra incidenthanteringstiderna. Mer information finns i Meddelande om Microsofts Grundmodell i Florens.

Image Analysis 4.0 SDK (offentlig förhandsversion)

Bildanalys 4.0 är nu tillgängligt via klientbibliotekets SDK:er i C#, C++och Python. Den här uppdateringen innehåller också den Florens-drivna bildtexten och tät bildtextning vid mänsklig paritetsprestanda.

Bildanalys V4.0 Bildtext och tät textning (offentlig förhandsversion):

"Caption" ersätter "Describe" i V4.0 som den förbättrade bildtextfunktionen med information och semantisk förståelse. Kompakta bildtexter ger mer information genom att generera en meningsbeskrivningar av upp till 10 regioner av bilden förutom att beskriva hela bilden. Kompakta bildtexter returnerar också koordinater för avgränsningsrutor för de beskrivna bildregionerna. Det finns också en ny könsneutral parameter som gör det möjligt för kunder att välja om de vill aktivera probabilistisk könsinferens för alt-text och Att se AI-program. Leverera automatiskt omfattande bildtexter, tillgänglig alt-text, SEO-optimering och intelligent fotokuration för att stödja digitalt innehåll. Bildtexter.

Videosammanfattning och bildrutelokaliserare (offentlig förhandsversion):

Sök och interagera med videoinnehåll på samma intuitiva sätt som du tänker och skriver. Leta upp relevant innehåll utan att behöva extra metadata. Endast tillgängligt i Vision Studio.

Bildanalys 4.0-modellanpassning (offentlig förhandsversion)

Nu kan du skapa och träna dina egna anpassade bildklassificerings- och objektidentifieringsmodeller med hjälp av Vision Studio eller REST-API:erna för v4.0.

API:er för multimodala inbäddningar (offentlig förhandsversion)

API:erna för multimodala inbäddningar, som är en del av API:et för bildanalys 4.0, aktiverar vektorisering av bilder och textfrågor. De låter dig konvertera bilder och text till koordinater i ett flerdimensionellt vektorutrymme. Nu kan du söka med naturligt språk och hitta relevanta bilder med hjälp av vektorlikhetssökning.

API:er för bakgrundsborttagning (offentlig förhandsversion)

Som en del av API:et för bildanalys 4.0 kan du ta bort bakgrunden till en bild i API:et för bakgrundsborttagning. Den här åtgärden kan antingen mata ut en bild av det identifierade förgrundsobjektet med en transparent bakgrund eller en alfamatisk bild i gråskala som visar opaciteten för det identifierade förgrundsobjektet.

Utfasning av förhandsversioner av Azure AI Vision 3.0 och 3.1

Förhandsversionerna av API:erna för Azure AI Vision 3.0 och 3.1 är schemalagda att dras tillbaka den 30 september 2023. Kunder kommer inte att kunna göra några anrop till dessa API:er efter det här datumet. Kunder uppmanas att migrera sina arbetsbelastningar till det allmänt tillgängliga API:et (GA) 3.2 i stället. Tänk på följande ändringar när du migrerar från förhandsversionerna till 3.2-API:et:

  • API-anropen Analysera bild och läsning tar en valfri modellversionsparameter som du kan använda för att ange vilken AI-modell som ska användas. Som standard använder de den senaste modellen.
  • API-anropen Analysera bild och Läsning returnerar också ett model-version fält i lyckade API-svar. Det här fältet rapporterar vilken modell som användes.
  • Azure AI Vision 3.2 API använder ett annat felrapporteringsformat. Se API-referensdokumentationen för att lära dig hur du justerar eventuell felhanteringskod.

Oktober 2022

Azure AI Vision Image Analysis 4.0 (offentlig förhandsversion)

Bildanalys 4.0 har släppts i offentlig förhandsversion. Det nya API:et innehåller bildtexter, bildtaggning, objektidentifiering, smarta grödor, personidentifiering och Läs OCR-funktioner, alla tillgängliga via en analysera bildåtgärd. OCR är optimerad för allmänna icke-dokumentbilder i ett prestandaförstärkt synkront API som gör det enklare att bädda in OCR-baserade upplevelser i dina arbetsflöden.

September 2022

Utfasning av Azure AI Vision 3.0/3.1 Läsa förhandsversioner

Förhandsversionerna av Läs-API:et för Azure AI Vision 3.0 och 3.1 är schemalagda att dras tillbaka den 31 januari 2023. Kunder uppmanas att referera till instruktioner och snabbstarter för att komma igång med den allmänt tillgängliga versionen av Läs-API:et i stället. De senaste GA-versionerna ger följande fördelar:

  • 2022 senaste allmänt tillgängliga OCR-modellen
  • Betydande ökning av OCR-språktäckning inklusive stöd för handskriven text
  • Förbättrad OCR-kvalitet

Juni 2022

Vision Studio-lansering

Vision Studio är ett gränssnittsverktyg som gör att du kan utforska, bygga och integrera funktioner från Azure AI Vision i dina program.

Vision Studio ger dig en plattform för att prova flera tjänstfunktioner och se vad de returnerar på ett visuellt sätt. Med Studio kan du komma igång utan att behöva skriva kod och sedan använda de tillgängliga klientbiblioteken och REST-API:erna i ditt program.

Ansvarsfull AI för ansiktsigenkänning

Anteckning om ansiktstransparens

  • Transparensmeddelandet ger vägledning för att hjälpa våra kunder att förbättra noggrannheten och rättvisan i sina system genom att införliva meningsfull mänsklig granskning för att upptäcka och lösa fall av felidentifiering eller andra fel, ge stöd till personer som anser att deras resultat var felaktiga och identifiera och åtgärda variationer i noggrannhet på grund av variationer i driftförhållanden.

Tillbakadragning av känsliga attribut

  • Vi har dragit tillbaka funktioner för ansiktsanalys som utger sig för att härleda känslomässiga tillstånd och identitetsattribut, såsom kön, ålder, leende, ansiktshår, hår och smink.
  • Funktioner för ansiktsidentifiering (inklusive att upptäcka oskärpa, exponering, glasögon, huvudbonader, landmärken, brus, ocklusion, ansiktsavgränsningslåda) förblir allmänt tillgängliga och kräver inget program.

Fairlearn-paket och Microsofts rättviseinstrumentpanel

Princip för begränsad åtkomst

  • Som en del av anpassningen av Ansiktsigenkänning till den uppdaterade ansvarsfulla AI-standarden har en ny princip för begränsad åtkomst implementerats för Ansikts-API:et och Azure AI Vision. Befintliga kunder har ett år på sig att ansöka och få godkännande för fortsatt åtkomst till ansiktsigenkänningstjänsterna baserat på deras angivna användningsfall. Se information om begränsad åtkomst för Face här och för Azure AI Vision här.

Utfasning av Azure AI Vision 3.2-förhandsversion

Förhandsversionerna av 3.2-API:et är schemalagda att dras tillbaka i december 2022. Kunder uppmanas att använda den allmänt tillgängliga versionen av API:et i stället. Tänk på följande ändringar när du migrerar från 3.2-förhandsversionerna:

  1. Api-anropen Analysera bild och läsning tar nu en valfri modellversionsparameter som du kan använda för att ange vilken AI-modell som ska användas. Som standard använder de den senaste modellen.
  2. API-anropen Analysera bild och Läsning returnerar också ett model-version fält i lyckade API-svar. Det här fältet rapporterar vilken modell som användes.
  3. API:er för bildanalys använder nu ett annat format för felrapportering. Se API-referensdokumentationen för att lära dig hur du justerar eventuell felhanteringskod.

Maj 2022

OCR-API-modellen (Read) är allmänt tillgänglig (GA)

Azure AI Visions OCR-API (Read) senaste modell med 164 språk som stöds är nu allmänt tillgänglig som en molntjänst och container.

  • OCR-stöd för utskriftstext utökas till 164 språk, inklusive ryska, arabiska, hindi och andra språk med hjälp av kyrilliska, arabiska och Devanagari-skript.
  • OCR-stöd för handskriven text utökas till 9 språk med engelska, förenklad kinesiska, franska, tyska, italienska, japanska, koreanska, portugisiska och spanska.
  • Förbättrat stöd för enstaka tecken, handskrivna datum, belopp, namn, andra entiteter som ofta finns i kvitton och fakturor.
  • Förbättrad bearbetning av digitala PDF-dokument.
  • Indatafilens storleksgräns ökade med 10x till 500 MB.
  • Förbättringar av prestanda och svarstider.
  • Tillgänglig som molntjänst och Docker-container.

Se instruktionsguiden för OCR för att lära dig hur du använder GA-modellen.

Februari 2022

OCR(Read) API Public Preview har stöd för 164 språk

API:et OCR (Read) i Azure AI Vision utökar språk som stöds till 164 med den senaste förhandsversionen:

  • OCR-stöd för utskriftstext utökas till 42 nya språk, inklusive arabiska, hindi och andra språk med hjälp av arabiska och Devanagari-skript.
  • OCR-stöd för handskriven text utökas till japanska och koreanska utöver engelska, förenklad kinesiska, franska, tyska, italienska, portugisiska och spanska.
  • Förbättringar, inklusive bättre stöd för att extrahera handskrivna datum, belopp, namn och rutor med enkla tecken.
  • Allmänna prestanda- och AI-kvalitetsförbättringar

Se instruktionsguiden för OCR för att lära dig hur du använder de nya förhandsgranskningsfunktionerna.

Nytt kvalitetsattribut i Detection_01 och Detection_03

  • För att hjälpa systembyggare och deras kunder att samla in högkvalitativa bilder, som är nödvändiga för högkvalitativa utdata från Ansikts-API: et, introducerar vi ett nytt kvalitetsattribut QualityForRecognition för att avgöra om en bild är av tillräcklig kvalitet för att försöka känna igen ansiktet. Värdet är ett informellt omdöme av låg, medel eller hög. Det nya attributet är endast tillgängligt när du använder kombinationer av identifieringsmodeller detection_01 eller detection_03, och igenkänningsmodeller recognition_03 eller recognition_04. Endast bilder av hög kvalitet rekommenderas för personregistrering och kvalitet över "medium" rekommenderas för identifieringsscenarier. Mer information om det nya kvalitetsattributet finns i Ansiktsigenkänning och attribut och se hur du använder det med Snabbstart.

September 2021

OCR(Read) API Public Preview har stöd för 122 språk

API:et OCR (Read) i Azure AI Vision utökar språk som stöds till 122 med den senaste förhandsversionen:

  • OCR-stöd för tryckt text på 49 nya språk, inklusive ryska, bulgariska och andra kyrilliska och fler latinska språk.
  • OCR-stöd för handskriven text på 6 nya språk som omfattar engelska, förenklad kinesiska, franska, tyska, italienska, portugisiska och spanska.
  • Förbättringar för bearbetning av digitala PDF-filer och MRZ-text (Machine Readable Zone) i identitetsdokument.
  • Allmänna prestanda- och AI-kvalitetsförbättringar

Se instruktionsguiden för OCR för att lära dig hur du använder de nya förhandsgranskningsfunktionerna.

Augusti 2021

Språkexpansion för bildtaggning

Den senaste versionen (v3.2) av bildtaggar stöder nu taggar på 50 språk. Mer information finns på sidan för språkstöd .

Juli 2021

Nya förbättringar av HeadPose och Landmärken för Detection_03

  • Den Detection_03 modellen har uppdaterats för att stödja ansiktsmärken.
  • Landmärkena i Detection_03 är mycket mer exakta, särskilt i ögongloben landmärken, som är avgörande för blickspårning.

Maj 2021

Uppdatering av container för rumslig analys

En ny version av containern Spatial Analysis har släppts med en ny funktionsuppsättning. Med den här Docker-containern kan du analysera strömmande video i realtid för att förstå rumsliga relationer mellan personer och deras rörelse genom fysiska miljöer.

  • Spatial Analysis-åtgärder kan nu konfigureras för att identifiera den orientering som en person har.

    • En orienteringsklassificerare kan aktiveras för personcrossingline åtgärderna och personcrossingpolygon genom att konfigurera parametern enable_orientation . Den är inställd på av som standard.
  • Spatial Analysis-åtgärder erbjuder nu även konfiguration för att identifiera en persons hastighet vid gång-/körning

    • Hastighet kan identifieras för personcrossingline åtgärderna och personcrossingpolygon genom att aktivera enable_speed klassificeraren, som är inaktiverad som standard. Utdata återspeglas i utdata avgSpeed, speedoch minSpeed .

April 2021

Azure AI Vision v3.2 GA

Azure AI Vision API v3.2 är nu allmänt tillgängligt med följande uppdateringar:

  • Förbättrad modell för bildtaggning: analyserar visuellt innehåll och genererar relevanta taggar baserat på objekt, åtgärder och innehåll som visas i bilden. Den här modellen är tillgänglig via taggbild-API:et. Mer information finns i instruktioner för bildanalys och översikt.
  • Uppdaterad con tältläge rationsmodell: identifierar förekomsten av innehåll för vuxna och tillhandahåller flaggor för att filtrera bilder som innehåller innehåll från vuxna, olämpliga och blodiga visuella objekt. Den här modellen är tillgänglig via Analys-API:et. Mer information finns i instruktioner för bildanalys och översikt.
  • OCR (Read) är tillgängligt för 73 språk , inklusive förenklade och traditionella kinesiska, japanska, koreanska och latinska språk.
  • OCR (Read) finns också som en distrolös container för lokal distribution.

PersonDirectory-datastruktur (förhandsversion)

  • För att kunna utföra ansiktsigenkänningsåtgärder som Identifiera och Hitta liknande måste ansikts-API-kunder skapa en blandad lista över personobjekt . Den nya PersonDirectory är en datastruktur som innehåller unika ID:n, valfria namnsträngar och valfria användarmetadatasträngar för varje personidentitet som läggs till i katalogen. För närvarande erbjuder Ansikts-API:et LargePersonGroup-strukturen , som har liknande funktioner men är begränsad till 1 miljon identiteter. PersonDirectory-strukturen kan skala upp till 75 miljoner identiteter.
  • En annan stor skillnad mellan PersonDirectory och tidigare datastrukturer är att du inte längre behöver göra några Train-anrop när du har lagt till ansikten i ett personobjekt – uppdateringsprocessen sker automatiskt. Mer information finns i Använda PersonDirectory-strukturen.

Mars 2021

Uppdatering av offentlig förhandsversion av Azure AI Vision 3.2

Den offentliga förhandsversionen av Azure AI Vision API v3.2 har uppdaterats. Förhandsversionen innehåller alla Azure AI Vision-funktioner tillsammans med uppdaterade Läs- och analysera API:er.

Februari 2021

Läs API v3.2 Offentlig förhandsversion med OCR-stöd för 73 språk

Den offentliga förhandsversionen av Azure AI Vision Read API v3.2, som är tillgänglig som molntjänst och Docker-container, innehåller följande uppdateringar:

  • OCR för 73 språk , inklusive förenklade och traditionella kinesiska, japanska, koreanska och latinska språk.
  • Naturlig läsordning för textradsutdata (endast latinska språk)
  • Klassificering av handskriftsstil för textlinjer tillsammans med en konfidenspoäng (endast latinska språk).
  • Extrahera endast text för markerade sidor för ett dokument med flera sidor.
  • Tillgänglig som en distributionsfri container för lokal distribution.

Mer information finns i guiden Läs API:et .

Ny ansikts-API-identifieringsmodell

  • Den nya identifieringsmodellen 03 är den mest exakta identifieringsmodellen som för närvarande är tillgänglig. Om du är en ny kund rekommenderar vi att du använder den här modellen. Identifiering 03 förbättrar både träffsäkerhet och precision på mindre ansikten som finns i bilder (64 x 64 bildpunkter). Andra förbättringar inkluderar en total minskning av falska positiva identifieringar och förbättrad identifiering på roterade ansiktsorienteringar. Genom att kombinera Identifiering 03 med den nya igenkänningsmodellen 04 får du även bättre igenkänningsnoggrannhet. Mer information finns i Ange en modell för ansiktsidentifiering.

Nya identifierbara ansiktsattribut

  • Attributet faceMask är tillgängligt med den senaste Identifiering 03-modellen, tillsammans med det tillagda attributet "noseAndMouthCovered", som identifierar om ansiktsmasken bärs som avsett, som täcker både näsa och mun. Om du vill använda den senaste funktionen för maskidentifiering måste användarna ange identifieringsmodellen i API-begäran: tilldela modellversionen med parametern detectionModel till detection_03. Mer information finns i Ange en modell för ansiktsidentifiering.

Ny ansikts-API-igenkänningsmodell

  • Den nya igenkänningsmodellen 04 är den mest exakta igenkänningsmodellen som för närvarande är tillgänglig. Om du är en ny kund rekommenderar vi att du använder den här modellen för verifiering och identifiering. Det förbättrar noggrannheten i Recognition 03, inklusive förbättrad igenkänning för användare som bär ansiktsskydd (kirurgiska masker, N95-masker, tygmasker). Vi rekommenderar att du inte registrerar bilder av användare som bär ansiktsskydd eftersom detta kommer att sänka igenkänningskvaliteten. Nu kan kunder skapa säkra och smidiga användarupplevelser som identifierar om en användare bär ett ansiktsskydd med den senaste Identifiering 03-modellen och känner igen dem med den senaste igenkänningsmodellen 04. Mer information finns i Ange en ansiktsigenkänningsmodell .

Januari 2021

Uppdatering av container för rumslig analys

En ny version av containern Spatial Analysis har släppts med en ny funktionsuppsättning. Med den här Docker-containern kan du analysera strömmande video i realtid för att förstå rumsliga relationer mellan personer och deras rörelse genom fysiska miljöer.

  • Spatial Analysis-åtgärder kan nu konfigureras för att identifiera om en person bär ett skyddande ansiktsskydd, till exempel en mask.
    • En maskklassificerare kan aktiveras för personcountåtgärderna och personcrossingline personcrossingpolygon genom att konfigurera parametern ENABLE_FACE_MASK_CLASSIFIER .
    • Attributen face_mask och face_noMask returneras som metadata med konfidenspoäng för varje person som identifieras i videoströmmen
  • Åtgärden personcrossingpolygon har utökats för att tillåta beräkningen av den uppehållstid som en person tillbringar i en zon. Du kan ange parametern type i zonkonfigurationen för åtgärden till zonedwelltime och en ny händelse av typen personZoneDwellTimeEvent innehåller fältet durationMs fyllt med antalet millisekunder som personen tillbringade i zonen.
  • Icke-bakåtkompatibel ändring: PersonZoneEvent-händelsen har bytt namn till personZoneEnterExitEvent. Den här händelsen genereras av åtgärden personcrossingpolygon när en person går in i eller lämnar zonen och tillhandahåller riktningsinformation med den numrerade sidan av zonen som korsades.
  • Video-URL kan anges som "Privat parameter/dold" i alla åtgärder. Obfuscation är valfritt nu och det fungerar bara om KEY och IV tillhandahålls som miljövariabler.
  • Kalibrering är aktiverat som standard för alla åtgärder. do_calibration: false Ange för att inaktivera den.
  • Stöd för automatisk omkalibrering (som standard inaktiverad) via parametern har lagts till. Mer information finns i enable_recalibration Spatial Analysis-åtgärder
  • Parametrar för kamerakalibrering till DETECTOR_NODE_CONFIG. Mer information finns i Åtgärder för rumslig analys.

Minska svarstiden

December 2020

Kundkonfiguration för Ansikts-ID-lagring

  • Ansiktstjänsten lagrar inte kundbilder, men de extraherade ansiktsfunktionerna lagras på servern. Ansikts-ID:t är en identifierare för ansiktsfunktionen och används i Ansiktsigenkänning, Ansikte – Verifiera och Ansikte – Hitta liknande. De lagrade ansiktsfunktionerna upphör att gälla och tas bort 24 timmar efter det ursprungliga identifieringsanropet. Kunderna kan nu fastställa hur länge dessa ansikts-ID:er cachelagras. Det maximala värdet är fortfarande upp till 24 timmar, men ett minsta värde på 60 sekunder kan nu anges. De nya tidsintervallen för ansikts-ID:n som cachelagras är valfritt värde mellan 60 sekunder och 24 timmar. Mer information finns i referensen för Ansiktsigenkänning – Identifiera API (parametern faceIdTimeToLive ).

November 2020

Exempelapp för ansiktsregistrering

  • Teamet publicerade ett exempel på en app för ansiktsregistrering för att demonstrera metodtips för att upprätta meningsfullt medgivande och skapa ansiktsigenkänningssystem med hög noggrannhet genom högkvalitativa registreringar. Exemplet med öppen källkod finns i guiden Skapa en registreringsapp och på GitHub, som är redo för utvecklare att distribuera eller anpassa.

Oktober 2020

Azure AI Vision API v3.1 GA

Api:et för Azure AI Vision i allmän tillgänglighet har uppgraderats till v3.1.

September 2020

Förhandsgranskning av container för rumslig analys

Containern spatial analys är nu i förhandsversion. Med funktionen Spatial Analysis i Azure AI Vision kan du analysera strömmande video i realtid för att förstå rumsliga relationer mellan människor och deras rörelse genom fysiska miljöer. Spatial Analysis är en Docker-container som du kan använda lokalt.

Läs API v3.1 Offentlig förhandsversion lägger till OCR för japanska

Den offentliga förhandsversionen av Azure AI Vision Read API v3.1 lägger till följande funktioner:

  • OCR för japanska

  • För varje textrad anger du om utseendet är handskrifts- eller utskriftsformat, tillsammans med en konfidenspoäng (endast latinska språk).

  • För ett dokument med flera sidor extraherar du endast text för valda sidor eller sidintervall.

  • Den här förhandsversionen av Läs-API:et stöder engelska, nederländska, franska, tyska, italienska, japanska, portugisiska, förenklade kinesiska och spanska språk.

Mer information finns i guiden Läs API:et .

Augusti 2020

Kundhanterad kryptering av vilande data

  • Ansiktstjänsten krypterar automatiskt dina data när de sparas i molnet. Ansiktstjänstkryptering skyddar dina data för att hjälpa dig att uppfylla organisationens säkerhets- och efterlevnadsåtaganden. Som standard använder din prenumeration krypteringsnycklar som hanteras av Microsoft. Det finns också ett nytt alternativ för att hantera din prenumeration med dina egna nycklar som kallas kundhanterade nycklar (CMK). Mer information finns på Kundhanterade nycklar.

Juli 2020

Läs API v3.1 Offentlig förhandsversion med OCR för förenklad kinesiska

Den offentliga förhandsversionen av Azure AI Vision Read API v3.1 ger stöd för förenklad kinesiska.

  • Den här förhandsversionen av Läs-API:et stöder engelska, nederländska, franska, tyska, italienska, portugisiska, förenklade kinesiska och spanska språk.

Mer information finns i guiden Läs API:et .

Maj 2020

Azure AI Vision API v3.0 har angetts till Allmän tillgänglighet med uppdateringar av Läs-API:et:

  • Stöd för engelska, nederländska, franska, tyska, italienska, portugisiska och spanska
  • Förbättrad noggrannhet
  • Konfidenspoäng för varje extraherat ord
  • Nytt utdataformat

Mer information finns i OCR-översikten .

April 2020

Ny ansikts-API-igenkänningsmodell

  • Den nya igenkänningsmodellen 03 är den mest exakta modellen som för närvarande är tillgänglig. Om du är en ny kund rekommenderar vi att du använder den här modellen. Igenkänning 03 ger bättre noggrannhet för både likhetsjämförelser och personmatchningsjämförelser. Mer information finns i Ange en ansiktsigenkänningsmodell.

Mars 2020

  • TLS 1.2 tillämpas nu för alla HTTP-begäranden till den här tjänsten. Mer information finns i Säkerhet för Azure AI-tjänster.

Januari 2020

Läs DEN offentliga förhandsversionen av API 3.0

Nu kan du använda version 3.0 av Läs-API:et för att extrahera tryckt eller handskriven text från bilder. Jämfört med tidigare versioner tillhandahåller 3.0:

  • Förbättrad noggrannhet
  • Nytt utdataformat
  • Konfidenspoäng för varje extraherat ord
  • Stöd för både spanska och engelska språk med språkparametern

Följ snabbstarten Extrahera text för att komma igång med 3.0-API:et.

2019 juni

Ny ansikts-API-identifieringsmodell

2019 april

Förbättrad attributprecision

  • Förbättrad övergripande noggrannhet för attributen age och headPose . Attributet headPose uppdateras också med värdet pitch aktiverat nu. Använd dessa attribut genom att ange dem i parametern returnFaceAttributes Ansiktsigenkänning – IdentifierareturnFaceAttributes.

Förbättrade bearbetningshastigheter

Mars 2019

Ny ansikts-API-igenkänningsmodell

Januari 2019

Ansiktsögonblicksfunktion

  • Med den här funktionen kan tjänsten stödja datamigrering mellan prenumerationer: Ögonblicksbild.

Viktigt!

Från och med den 30 juni 2023 dras API:et för ansiktsögonblicksbild tillbaka.

2018 oktober

API-meddelanden

Maj 2018

Förbättrad attributprecision

  • Förbättrade gender attribut avsevärt och förbättrade ageäven attributen , glasses, facialHair, hair. makeup Använd dem via Face – Detect-parameternreturnFaceAttributes.

Ökad filstorleksgräns

Mars 2018

Ny datastruktur

maj 2017

Nya identifierbara ansiktsattribut

Mars 2017

Nytt identifierbart ansiktsattribut

Åtgärdade problem

November 2016

Ny prenumerationsnivå

  • Prenumerationen Face Storage Standard har lagts till för att lagra ytterligare bevarade ansikten när du använder PersonGroup Person – Lägg till ansikte eller ansiktslista – Lägg till ansikte för identifiering eller likhetsmatchning. De lagrade bilderna debiteras med USD 0:50 per 1000 ansikten och priset justeras proportionerligt på daglig basis. Prenumerationer på den kostnadsfria nivån är fortfarande begränsade till totalt 1 000 personer.

Oktober 2016

API-meddelanden

Juli 2016

Nya funktioner

  • Objektautentisering mellan ansikte och person som stöds i Ansiktsigenkänning – Verifiera.
  • mode Valfri parameter har lagts till för att aktivera val av två arbetslägen: matchPerson och matchFace i Ansikte – Hitta liknande och standardvärdet är matchPerson.
  • confidenceThreshold Valfri parameter har lagts till för användaren för att ange tröskelvärdet för om ett ansikte tillhör ett personobjekt i Ansiktsigenkänning – Identifiera.
  • Valfria start parametrar och top parametrar har lagts till i PersonGroup – lista för att göra det möjligt för användaren att ange startpunkten och det totala PersonGroups-numret som ska listas.

V1.0 ändras från V0

  • Tjänstens rotslutpunkt har uppdaterats från https://westus.api.cognitive.microsoft.com/face/v0/ till https://westus.api.cognitive.microsoft.com/face/v1.0/. Ändringar som tillämpas på: Ansikte – Identifiera, Ansikte – Identifiera, Ansikte – Hitta liknande och Ansikte – Grupp.
  • Den minimala detekterbara ansiktsstorleken har uppdaterats till 36 x 36 bildpunkter. Ansikten som är mindre än 36 x 36 bildpunkter identifieras inte.
  • Inaktuella PersonGroup- och Person-data i Face V0. Dessa data kan inte nås med tjänsten Face V1.0.
  • Den 30 juni 2016 inaktuella V0-slutpunkten för ansikts-API:et.

Uppdateringar av Azure AI-tjänster

Azure-uppdateringsmeddelanden för Azure AI-tjänster