Novità di Visione di Azure AI
Informazioni sulle novità di Visione di Azure AI. Controlla questa pagina per rimanere aggiornati con nuove funzionalità, miglioramenti, correzioni e aggiornamenti della documentazione.
Febbraio 2025
Viso liveness client SDK 1.1.0
Liveness client-side SDK rilasciato 1.1.0
Questo aggiornamento include alcuni miglioramenti:
- Aumento del timeout per lo scenario head-turn per offrire agli utenti finali più tempo per completare il flusso.
- Correzioni agli SDK per iOS e Android per risolvere i problemi di compatibilità con gli SDK di gestione di applicazioni mobili di Microsoft Intune.
- Correzioni/miglioramenti correlati alla sicurezza.
Per altre informazioni, vedere le note sulla versione dell'SDK.
2025 gennaio 2021
Rilevamento del liveness del viso disponibile a livello generale
La funzionalità di rilevamento del liveness viso è ora disponibile a livello generale.
- API lato server: API Viso v1.2
- SDK lato client: Azure AI Vision SDK 1.0.0
Questo SDK consente agli sviluppatori di usare controlli di livezza dei volti nelle applicazioni native per dispositivi mobili e nelle applicazioni Web browser per scenari di verifica delle identità.
Il nuovo SDK supporta sia le modalità passiva che passiva-attiva. La modalità passiva-attiva ibrida è progettata per richiedere il movimento attivo solo in condizioni di scarsa illuminazione, mentre l'uso della velocità e dell'efficienza del liveness passivo controlla l'illuminazione ottimale.
Per altre informazioni, vedere le note sulla versione dell'SDK.
Deprecazione dell'API Image Analysis 4.0 Preview
Il 31 marzo 2025 le API di analisi delle immagini 4.0 Preview verranno ritirati. Prima di tale data, è necessario eseguire la migrazione dei carichi di lavoro di Analisi immagini di Azure all'API di analisi delle immagini 4.0 ga .
È consigliabile effettuare prima la transizione per ottenere l'accesso ai miglioramenti, ad esempio l'incorporamento anomalo, l'OCR sincrono, il rilevamento delle persone, l'assegnazione di tag alle immagini, il ritaglio intelligente, la didascalia, la didascalia densa e il rilevamento degli oggetti immagine. Queste API di anteprima di Analisi immagini 4.0 verranno ritirati il 31 marzo 2025:
2022-07-31-preview
2022-10-12-preview
2023-02-01-preview
2023-04-01-preview
2023-07-01-preview
v4.0-preview.1
Le funzionalità seguenti non saranno più disponibili al ritiro delle versioni dell'API di anteprima e verranno rimosse dall'esperienza studio a partire dal 10 gennaio 2025:
- Personalizzazione del modello
- Rimozione dello sfondo
- Riconoscimento del prodotto
Per mantenere il funzionamento dei modelli, passare a Visione personalizzata di Azure AI, ora disponibile a livello generale. Visione personalizzata offre funzionalità simili a quelle in fase di ritiro.
Agosto 2024
Nuovi attributi di Viso rilevabili
Le lenti, l'occlusione, la sfocatura e gli attributi di esposizione sono disponibili con il modello di rilevamento 03 più recente. Per altri dettagli, vedere Specificare un modello di rilevamento dei volti.
Maggio 2024
Nuovo Face SDK 1.0.0-beta.1 (modifiche di rilievo)
Face SDK è stato riscritto nella versione 1.0.0-beta.1 per soddisfare meglio le linee guida e i principi di progettazione degli SDK di Azure. C#, Python, Java e JavaScript sono i linguaggi supportati. Per iniziare, seguire una le istruzioni della guida di avvio rapido.
Febbraio 2024
Disponibilità generale incorporamenti multilingue: nuovo modello multi-linguaggio
L'API di incorporamento di Multimodal è stata aggiornata ed è ora disponibile a livello generale. La nuova API 2024-02-01
include un nuovo modello che supporta la ricerca di testo in 102 lingue. Il modello originale solo in lingua inglese è ancora disponibile, ma non può essere combinato con il nuovo modello nello stesso indice di ricerca. Se testo e immagini sono stati vettorializzati con il modello solo in lingua inglese, tali vettori non sono compatibili con i vettori per testo e immagini multilingue.
Per l'elenco completo delle lingue supportate, vedere la pagina Supporto linguistico.
Gennaio 2024
Nuovo SDK Analisi immagine 1.0.0-beta.1 (modifiche di rilievo)
L'SDK Analisi immagine è stato riscritto nella versione 1.0.0-beta.1 per allinearsi meglio ad altri SDK di Azure. Tutte le API sono state modificate. Per informazioni su come usare il nuovo SDK, vedere le guide introduttive aggiornate, gli esempi e le guide pratiche.
Modifiche principali:
- L'SDK chiama ora l'API REST Visione artificiale (2023-10-01) disponibile a livello generale, anziché l'API REST Visione artificiale (2023-04-01-preview) di anteprima.
- È stato aggiunto il supporto per JavaScript.
- C++ non è più supportato.
- L'analisi delle immagini con un modello personalizzato e la segmentazione delle immagini (rimozione in background) non sono più supportate nell'SDK, perché l'API REST Visione artificiale (2023-10-01) non li supporta ancora. Per usare entrambe le funzionalità, chiamare direttamente l'API REST Visione artificiale (2023-04-01-preview) (usando rispettivamente le operazioni
Analyze
eSegment
).
Novembre 2023
Disponibilita generale Analisi immagine 4.0
L'API REST Analisi immagine 4.0 è ora disponibile a livello generale. Per iniziare, seguire la guida introduttiva Analisi l'immagine 4.0.
Le altre funzionalità dell'analisi delle immagini, ad esempio la personalizzazione del modello, la rimozione in background e gli incorporamenti multiligine, rimangono in anteprima pubblica.
SDK Viso lato client per il rilevamento dell'attività
L'SDK Viso Live supporta il rilevamento del liveness nei dispositivi mobili o perimetrali degli utenti. È disponibile in Java/Kotlin per Android e Swift/Objective-C per iOS.
Il nostro servizio di rilevamento delle attività soddisfa la conformità iBeta Level 1 e 2 ISO/IEC 30107-3.
Settembre 2023
Deprecazione delle versioni obsolete dell'API Visione artificiale
L'API Visione artificiale versione 1.0, 2.0, 3.0 e 3.1 verrà ritirata il 13 settembre 2026. Gli sviluppatori non potranno effettuare chiamate API a queste API dopo tale data. È consigliabile che tutti i clienti interessati eseguono la migrazione dei carichi di lavoro all'API Visione artificiale 3.2 disponibile a livello generale seguendo questa guida introduttiva. I clienti devono anche prendere in considerazione la migrazione all'API Analisi immagine 4.0 (anteprima),con le funzionalità di analisi delle immagini più recenti e più avanzate.
Per eventuali domande, visita il nostro Q&A.
Maggio 2023
Riconoscimento del prodotto di Analisi immagini 4.0 (anteprima pubblica)
Le API di riconoscimento dei prodotti consentono di analizzare le foto degli scaffali di un negozio al dettaglio. È possibile rilevare la presenza e l’assenza di prodotti e ottenere le coordinate del rettangolo delimitatore. È da usare in combinazione con la personalizzazione del modello per eseguire il training di un modello per identificare prodotti specifici. È anche possibile confrontare i risultati del riconoscimento dei prodotti con il documento del planogramma del negozio. Riconoscimento del prodotto.
Aprile 2023
Token di accesso con accesso limitato
I fornitori di software indipendenti (ISV) possono gestire l'uso dell'API Viso dei client emettendo token di accesso che concedono l'accesso alle funzionalità viso normalmente gestite. Ciò consente alle aziende client di usare l'API Viso senza dover eseguire il processo di approvazione formale. Usare token di accesso limitati.
Marzo 2023
Anteprima pubblica dell'SDK Analisi immagini 4.0 di Visione di Azure AI
Il modello di fondazione Firenze è ora integrato in Visione di Azure AI. I servizi visione artificiale migliorati consentono agli sviluppatori di creare applicazioni di Visione di Azure AI responsabili e pronte per il mercato in vari settori. I clienti possono ora digitalizzare, analizzare e connettere facilmente i dati alle interazioni in linguaggio naturale, sbloccare informazioni dettagliate potenti dal contenuto di immagine e video per supportare l'accessibilità, favorire l'acquisizione tramite SEO, proteggere gli utenti da contenuti dannosi, migliorare la sicurezza e migliorare i tempi di risposta agli eventi imprevisti. Per altre informazioni, vedere Annuncio del modello di fondazione Firenze di Microsoft.
Analisi delle immagini 4.0 SDK (anteprima pubblica)
L'analisi delle immagini 4.0 è ora disponibile tramite GLI SDK della libreria client in C#, C++ e Python. Questo aggiornamento include anche la didascalia dell'immagine basata su Firenze e la didascalia densa a prestazioni di parità umana.
Didascalia e didascalia densa Analisi delle immagini V4.0 (anteprima pubblica):
"Didascalia" sostituisce "Descrivi" in V4.0 come funzionalità di didascalia delle immagini migliorata ricca di dettagli e comprensione semantica. La funzionalità Didascalie dense offre maggiori dettagli generando descrizioni di una frase per un massimo di 10 aree dell'immagine, oltre a descrivere l'intera immagine. La funzionalità Dense Captions restituisce anche le coordinate del rettangolo delimitatore delle aree dell'immagine descritte. È anche disponibile un nuovo parametro indipendente dal genere per consentire ai clienti di scegliere se abilitare l'inferenza del genere probabilistico per le applicazioni alt-text e Seeing AI. Recapita automaticamente sottotitoli avanzati, testo alternativo accessibile, ottimizzazione SEO e cura intelligente delle foto per supportare il contenuto digitale. Didascalie delle immagini.
Riepilogo video e localizzatore di fotogrammi (anteprima pubblica):
Cerca e interagisci con il contenuto video nello stesso modo intuitivo che pensi e scrivi. Individuare il contenuto pertinente senza la necessità di metadati aggiuntivi. Disponibile solo in Vision Studio.
Personalizzazione del modello di Analisi immagini 4.0 (anteprima pubblica)
È ora possibile creare ed eseguire il training di modelli personalizzati di classificazione delle immagini e rilevamento oggetti usando Vision Studio o le API REST v4.0.
API di incorporamento della modalità di incorporamento (anteprima pubblica)
Le API di incorporamento multimodale, parte dell'API Analisi immagini 4.0, consentono la vettorizzazione di immagini e query di testo. Consentono di convertire immagini e testo in coordinate in uno spazio vettoriale multidimensionale. È ora possibile cercare con il linguaggio naturale e trovare immagini pertinenti usando la ricerca di somiglianza vettoriale.
API di rimozione in background (anteprima pubblica)
Nell'ambito dell'API Analisi immagini 4.0, l'API di rimozione dello sfondo consente di rimuovere lo sfondo di un'immagine. Questa operazione può restituire un'immagine dell'oggetto in primo piano rilevato con uno sfondo trasparente o un'immagine alfa opacità alfa in scala di grigio che mostra l'opacità dell'oggetto in primo piano rilevato.
Deprecazione delle anteprime di Visione di Azure AI 3.0 e 3.1
Le versioni di anteprima delle API Visione di Azure AI 3.0 e 3.1 sono pianificate per essere ritirate il 30 settembre 2023. I clienti non potranno effettuare chiamate a queste API oltre questa data. I clienti sono invitati a eseguire la migrazione dei carichi di lavoro all'API disponibile a livello generale 3.2. Quando si esegue la migrazione dalle versioni di anteprima all'API 3.2, tenere presenti le modifiche seguenti:
- Le chiamate API Analyze Image and Read accettano un parametro facoltativo model-version che è possibile usare per specificare il modello di intelligenza artificiale da usare. Per impostazione predefinita, usano il modello più recente.
- Le chiamate api Analizza immagine e lettura restituiscono anche un campo
model-version
nelle risposte API riuscite. Questo campo indica quale modello è stato usato. - L'API Visione di Azure AI 3.2 usa un formato di segnalazione errori diverso. Vedere la documentazione di riferimento API per informazioni su come modificare qualsiasi codice di gestione degli errori.
Ottobre 2022
Analisi immagini 4.0 di Visione di Azure AI (anteprima pubblica)
L'analisi delle immagini 4.0 è stata rilasciata in anteprima pubblica. La nuova API include la didascalia delle immagini, l'assegnazione di tag alle immagini, il rilevamento di oggetti, le colture intelligenti, il rilevamento delle persone e la funzionalità OCR di lettura, tutte disponibili tramite un'unica operazione Analizza immagine. L'OCR è ottimizzato per immagini generali non documentate in un'API sincrona ottimizzata per le prestazioni che semplifica l'incorporamento di esperienze basate su OCR nei flussi di lavoro.
Settembre 2022
Deprecazione delle anteprime di Visione di Azure AI 3.0/3.1
Le versioni di anteprima dell'API di lettura Visione di Azure AI 3.0 e 3.1 sono pianificate per essere ritirate il 31 gennaio 2023. I clienti sono invitati a fare riferimento alle procedure e agli avvii rapidi per iniziare a usare la versione disponibile a livello generale dell'API di lettura. Le versioni GA più recenti offrono i vantaggi seguenti:
- Modello OCR disponibile a livello generale più recente 2022
- Espansione significativa della copertura del linguaggio OCR, incluso il supporto per il testo scritto a mano
- Miglioramento della qualità OCR
Giugno 2022
Avvio di Vision Studio
Vision Studio è uno strumento dell'interfaccia utente che consente di esplorare, compilare e integrare funzionalità di Servizi cognitivi di Visione di Azure AI nelle applicazioni.
Vision Studio offre una piattaforma per provare diverse funzionalità del servizio e scoprire cosa restituiscono in modo visivo. Usando Studio, è possibile iniziare senza dover scrivere codice e usare, quindi, le librerie client e le API REST disponibili in un'applicazione.
Intelligenza artificiale responsabile per il viso
Nota sulla trasparenza di Viso
- La nota sulla trasparenza fornisce indicazioni per aiutare i clienti a migliorare l'accuratezza e l'equità dei propri sistemi incorporando una revisione umana significativa per rilevare e risolvere i casi di errori di identificazione errata o altri errori, fornendo supporto alle persone che ritengono che i risultati non siano corretti e identificando e risolvendo le fluttuazioni di accuratezza a causa di variazioni delle condizioni operative.
Ritiro degli attributi sensibili
- Abbiamo ritirato le funzionalità di analisi facciale che hanno lo scopo di dedurre gli stati emotivi e gli attributi di identità, ad esempio sesso, età, sorriso, capelli facciali, capelli e trucco.
- Le funzionalità di rilevamento facciale, tra cui il rilevamento della sfocatura, l'esposizione, gli occhiali, la testa, i punti di riferimento, il rumore, l'occlusione, il rettangolo di selezione facciale, rimarranno disponibili a livello generale e non richiedono un'applicazione.
Pacchetto Fairlearn e Dashboard equità di Microsoft
- Il pacchetto Fairlearn open source e Il dashboard di Equità di Microsoft mirano a supportare i clienti a misurare l'equità degli algoritmi di verifica facciale di Microsoft sui propri dati, consentendo loro di identificare e risolvere potenziali problemi di equità che potrebbero influire sui diversi gruppi demografici prima di distribuire la tecnologia.
Criteri di accesso limitato
- Nell'ambito dell'allineamento di Viso allo standard di intelligenza artificiale responsabile aggiornato, è stato implementato un nuovo criterio di accesso limitato per l'API Viso e Visione di Azure AI. I clienti esistenti hanno un anno per richiedere e ricevere l'approvazione per l'accesso continuo ai servizi di riconoscimento facciale in base ai casi d'uso forniti. Vedere i dettagli su Accesso limitato per Viso qui e per Visione di Azure AI qui.
Deprecazione di Visione di Azure AI 3.2-preview
Le versioni di anteprima dell'API 3.2 sono pianificate per essere ritirate a dicembre 2022. I clienti sono invitati a usare invece la versione disponibile a livello generale dell'API. Quando si esegue la migrazione dalle versioni di anteprima 3.2, tenere presenti le modifiche seguenti:
- Le chiamate API Analizza immagine e Lettura accettano ora un parametro facoltativo model-version che è possibile usare per specificare il modello di intelligenza artificiale da usare. Per impostazione predefinita, usano il modello più recente.
- Le chiamate api Analizza immagine e lettura restituiscono anche un campo
model-version
nelle risposte API riuscite. Questo campo indica quale modello è stato usato. - Le API di analisi delle immagini ora usano un formato di segnalazione errori diverso. Vedere la documentazione di riferimento API per informazioni su come modificare qualsiasi codice di gestione degli errori.
Maggio 2022
Il modello di API OCR (Lettura) è disponibile a livello generale
Il modello più recente dell'API OCR (Lettura) di Visione di Azure AI con 164 lingue supportate è ora disponibile a livello generale come servizio cloud e contenitore.
- Il supporto OCR per la stampa del testo si estende a 164 lingue, tra cui russo, arabo, hindi e altre lingue usando script cirillico, arabo e Devanagari.
- Il supporto OCR per il testo scritto a mano si espande a 9 lingue con inglese, cinese semplificato, francese, tedesco, italiano, giapponese, coreano, portoghese e spagnolo.
- Supporto migliorato per singoli caratteri, date scritte a mano, importi, nomi, altre entità comunemente presenti nelle ricevute e nelle fatture.
- Miglioramento dell'elaborazione di documenti PDF digitali.
- Il limite di dimensioni del file di input è aumentato da 10x a 500 MB.
- Miglioramenti delle prestazioni e della latenza.
- Disponibile come servizio cloud e contenitore Docker.
Vedere la guida pratica di OCR per informazioni su come usare il modello GA.
Febbraio 2022
L'API OCR (Read) Public Preview supporta 164 lingue
L'API OCR (Lettura) di Visione di Azure AI espande le lingue supportate fino alla versione 164 con l'anteprima più recente:
- Il supporto OCR per la stampa del testo si espande fino a 42 nuove lingue, tra cui arabo, hindi e altre lingue con script arabi e Devanagari.
- Il supporto OCR per il testo scritto a mano si espande in giapponese e coreano, oltre a inglese, cinese semplificato, francese, tedesco, italiano, portoghese e spagnolo.
- Miglioramenti che includono un supporto migliore per l'estrazione di date scritte a mano, importi, nomi e caselle di caratteri singoli.
- Miglioramenti generali delle prestazioni e della qualità dell'IA
Vedere la guida pratica di OCR per informazioni su come usare le nuove funzionalità di anteprima.
Nuovo attributo Qualità in Detection_01 e Detection_03
- Per aiutare i generatori di sistemi e i clienti a acquisire immagini di alta qualità necessarie per gli output di alta qualità dall'API Viso, stiamo introducendo un nuovo attributo di qualità QualityForRecognition per decidere se un'immagine è di qualità sufficiente per tentare il riconoscimento dei volti. Il valore è una classificazione informale per qualità bassa, media o alta. Il nuovo attributo è disponibile solo quando si usano combinazioni di modelli di rilevamento
detection_01
odetection_03
e modelli di riconoscimentorecognition_03
orecognition_04
. Per gli scenari di identificazione è consigliabile usare solo immagini di qualità "alta", mentre per gli scenari di identificazione è consigliabile una qualità superiore "media". Per altre informazioni sul nuovo attributo di qualità, vedere Rilevamento dei visi e attributi e come usarlo con Avvio rapido.
Settembre 2021
L'API OCR (Read) Public Preview supporta 122 lingue
L'API OCR (Lettura) di Visione artificiale espande le lingue supportate fino alla versione 122 con l'anteprima più recente:
- Supporto OCR per la stampa di testo in 49 nuove lingue, tra cui russo, bulgaro e altre lingue cirillico e più latine.
- Supporto OCR per testo scritto a mano in 6 nuove lingue che includono inglese, cinese semplificato, francese, tedesco, italiano, portoghese e spagnolo.
- Miglioramenti per l'elaborazione di pdf digitali e testo della zona leggibile (MRZ) nei documenti di identità.
- Miglioramenti generali delle prestazioni e della qualità dell'IA
Vedere la guida pratica di OCR per informazioni su come usare le nuove funzionalità di anteprima.
Agosto 2021
Espansione del linguaggio di assegnazione di tag alle immagini
La versione più recente (v3.2) del tagger image supporta ora i tag in 50 lingue. Per altre informazioni, vedere la pagina Supporto per le lingue.
Luglio 2021
Nuovi miglioramenti di HeadPose e punti di riferimento per Detection_03
- Il modello Detection_03 è stato aggiornato per supportare i punti di riferimento facciali.
- La caratteristica dei punti di riferimento in Detection_03 è molto più precisa, soprattutto nei punti di riferimento sul bulbo oculare che sono fondamentali per il tracciamento dello sguardo.
2021° maggio
Aggiornamento del contenitore Analisi spaziale
È stata rilasciata una nuova versione del contenitore Analisi spaziale che include un nuovo set di funzionalità. Questo contenitore Docker consente di analizzare i video in streaming in tempo reale per comprendere le relazioni spaziali tra le persone e i loro movimenti negli ambienti fisici.
Le operazioni di analisi spaziale possono ora essere configurate per rilevare l'orientamento di una persona.
- È possibile abilitare un classificatore di orientamento per le operazioni
personcrossingline
epersoncrossingpolygon
configurando il parametroenable_orientation
. L’impostazione è OFF per impostazione predefinita.
- È possibile abilitare un classificatore di orientamento per le operazioni
Le operazioni di analisi spaziale offrono ora anche la configurazione per rilevare la velocità di una persona durante la marcia/esecuzione
- La velocità può essere rilevata per le operazioni
personcrossingline
epersoncrossingpolygon
attivando il classificatoreenable_speed
, che è disattivato per impostazione predefinita. L'output si riflette negli outputspeed
,avgSpeed
eminSpeed
.
- La velocità può essere rilevata per le operazioni
Aprile 2021
Visione di Azure AI v3.2 disponibile a livello generale
L'API Visione di Azure AI v3.2 è ora disponibile a livello generale con gli aggiornamenti seguenti:
- Modello di assegnazione di tag alle immagini migliorato: analizza il contenuto visivo e genera tag pertinenti in base a oggetti, azioni e contenuto visualizzati nell'immagine. Questo modello è disponibile tramite l'API Immagine tag. Per altre informazioni, vedere la guida pratica e la panoramica dell'analisi delle immagini.
- Modello di moderazione del contenuto aggiornato: rileva la presenza di contenuto per adulti e fornisce flag per filtrare le immagini contenenti contenuto visivo per adulti, audaci e gory. Questo modello è disponibile tramite l'API Analizza. Per altre informazioni, vedere la guida pratica e la panoramica dell'analisi delle immagini.
- OCR (Lettura) disponibile per 73 lingue, tra cui cinese semplificato e tradizionale, giapponese, coreano e latino.
- OCR (Lettura) disponibile anche come contenitore senza distribuzione per la distribuzione locale.
Struttura dei dati PersonDirectory (anteprima)
- Per eseguire operazioni di riconoscimento volto, quali Identifica e Trova simile, i clienti dell'API Viso devono creare un elenco variegato di oggetti Persona. La nuova PersonDirectory è una struttura dei dati che contiene ID univoci, stringhe di nomi facoltative e stringhe di metadati utente facoltative per ogni identità di Persona aggiunta alla directory. Attualmente, l'API Viso offre la struttura LargePersonGroup, che ha una funzionalità simile, ma è limitata a un milione di identità. La struttura PersonDirectory può essere scalabile fino a 75 milioni di identità.
- Un'altra differenza fondamentale tra PersonDirectory e le strutture dei dati precedenti è che non sarà più necessario effettuare chiamate Training dopo avere aggiunto visi a un oggetto Persona. Il processo di aggiornamento viene eseguito automaticamente. Per altri dettagli, vedere Usare la struttura PersonDirectory.
Marzo 2021
Aggiornamento dell'anteprima pubblica di Visione di Azure AI 3.2
L’anteprima pubblica dell'API Visione di Azure AI v3.2 è stata aggiornata. La versione di anteprima include tutte le funzionalità di Visione di Azure AI insieme alle API lettura e analisi aggiornate.
Febbraio 2021
API Lettura v3.2 anteprima pubblica con supporto OCR per 73 lingue
L'API di lettura Visione di Azure AI v3.2 anteprima pubblica, disponibile come servizio cloud e contenitore Docker, include questi aggiornamenti:
- OCR per 73 lingue, tra cui cinese semplificato e tradizionale, giapponese, coreano e latino.
- Ordine di lettura naturale per l'output della riga di testo (solo lingue latine)
- Classificazione dello stile di scrittura manuale per le righe di testo insieme a un punteggio di attendibilità (solo lingue latine).
- Estrarre testo solo per le pagine selezionate per un documento a più pagine.
- Disponibile come contenitore senza distribuzione per la distribuzione locale.
Per altre informazioni, vedere la guida pratica per l'API Lettura.
Nuovo modello di rilevamento dell'API Viso
- Il nuovo modello Detection_03 è il modello di rilevamento più accurato attualmente disponibile. Se si è un nuovo cliente, è consigliabile usare questo modello. Detection_03 migliora sia il richiamo che la precisione sui visi più piccoli trovati all'interno delle immagini (64x64 pixel). Altri miglioramenti includono una riduzione complessiva dei falsi positivi e un miglioramento del rilevamento negli orientamenti dei visi ruotati. La combinazione di Detection_03 con il nuovo modello Recognition_04 fornisce anche una maggiore accuratezza del riconoscimento. Per altri dettagli, vedere Specificare un modello di rilevamento dei volti.
Nuovi attributi di Viso rilevabili
- L'attributo
faceMask
è disponibile con il modello Detection_03 più recente, insieme all'attributo aggiuntivo"noseAndMouthCovered"
che rileva se la maschera facciale è indossata come previsto, coprendo sia il naso che la bocca. Per usare la funzionalità di rilevamento della maschera più recente, gli utenti devono specificare il modello di rilevamento nella richiesta API: assegnare la versione del modello con il parametro detectionModel adetection_03
. Per altri dettagli, vedere Specificare un modello di rilevamento dei volti.
Nuovo modello di riconoscimento dell'API Viso
- Il nuovo modello Recognition_04 è il modello di riconoscimento più accurato attualmente disponibile. Se si è un nuovo cliente, è consigliabile usare questo modello per la verifica e l'identificazione. Migliora l'accuratezza del Recognition_03, incluso il riconoscimento migliorato per gli utenti che indossano copri-faccia (maschere chirurgiche, maschere N95, maschere in tessuto). È consigliabile registrare immagini di utenti che indossano copri-faccia, in quanto ciò ridurrà la qualità del riconoscimento. Ora i clienti possono creare esperienze utente sicure e senza problemi che rilevano se un utente indossa un copri-faccia con il modello Detection_03 più recente e lo riconosce con il modello Recognition_04 più recente. Per altri dettagli, vedere Specificare un modello di riconoscimento dei volti.
Gennaio 2021
Aggiornamento del contenitore Analisi spaziale
È stata rilasciata una nuova versione del contenitore Analisi spaziale che include un nuovo set di funzionalità. Questo contenitore Docker consente di analizzare i video in streaming in tempo reale per comprendere le relazioni spaziali tra le persone e i loro movimenti negli ambienti fisici.
- È ora possibile configurare le operazioni di analisi spaziale per rilevare se una persona sta indossando una protezione facciale, ad esempio una mascherina.
- È possibile abilitare un classificatore di mascherine per le operazioni
personcount
,personcrossingline
epersoncrossingpolygon
configurando il parametroENABLE_FACE_MASK_CLASSIFIER
. - Gli attributi
face_mask
eface_noMask
verranno restituiti come metadati con un punteggio di confidenza per ogni persona rilevata nel flusso video
- È possibile abilitare un classificatore di mascherine per le operazioni
- L'operazione personcrossingpolygon è stata estesa per consentire il calcolo del tempo di attesa trascorso da una persona in una zona. È possibile impostare il parametro
type
nella configurazione zona per l'operazione suzonedwelltime
e un nuovo evento di tipo personZoneDwellTimeEvent includerà il campodurationMs
popolato con il numero di millisecondi trascorso dalla persona nella zona. - Modifica che causa un'interruzione: l'evento personZoneEvent è stato rinominato in personZoneEnterExitEvent. Questo evento viene generato dall'operazione personcrossingpolygon quando una persona entra o esce dalla zona e fornisce informazioni direzionali con il lato numerato della zona incrociata.
- L'URL video può essere fornito come "Parametro privato/offuscato" in tutte le operazioni. L'offuscamento è facoltativo ora e funzionerà solo se
KEY
eIV
vengono forniti come variabili di ambiente. - La calibrazione è abilitata per impostazione predefinita per tutte le operazioni. Impostare
do_calibration: false
per disabilitarlo. - Aggiunta del supporto per la ricalibrazione automatica (per impostazione predefinita disabilitata) tramite il parametro
enable_recalibration
, vedere Operazioni di analisi spaziale per informazioni dettagliate - Parametri di calibrazione della fotocamera per
DETECTOR_NODE_CONFIG
. Per informazioni dettagliate, vedere Operazioni di analisi spaziale.
Attenuare la latenza
- Il team Viso ha pubblicato un nuovo articolo che illustra nei dettagli le possibili cause di latenza quando si usa il servizio e le possibili strategie di mitigazione. Vedere Attenuare la latenza durante l'uso del servizio Viso.
Dicembre 2020
Configurazione del cliente per l'archiviazione ID Viso
- Anche se il servizio Viso non archivia le immagini dei clienti, le funzionalità viso estratte verranno archiviate nel server. L'ID viso è un identificatore della funzionalità viso e verrà usato in Viso - Identifica, Viso - Verificae Viso - Trova simile. Le funzionalità viso archiviate avranno una scadenza e verranno eliminate 24 ore dopo la chiamata di rilevamento originale. I clienti possono ora determinare l'intervallo di tempo in cui questi ID Viso vengono memorizzati nella cache. Il valore massimo è ancora fino a 24 ore; tuttavia, è ora possibile impostare un valore minimo di 60 secondi. I nuovi intervalli di tempo per gli ID Viso memorizzati nella cache sono compresi tra 60 secondi e 24 ore. Ulteriori dettagli sono disponibili nel riferimento sull'API Viso - Rileva (il parametro faceIdTimeToLive).
Novembre 2020
App di registrazione viso di esempio
- Il team ha pubblicato un'app di registrazione viso di esempio per illustrare le procedure consigliate per stabilire un consenso significativo e creare sistemi di riconoscimento facciale ad alta precisione tramite registrazioni di alta qualità. L'esempio open source è disponibile nella guida Compilare un'app di registrazione e in GitHub, pronto per la distribuzione o la personalizzazione da parte degli sviluppatori.
Ottobre 2020
API Visione di Azure AI v3.1 DISPONIBILE a livello generale
L'API Visione di Azure AI disponibile a livello generale è stato aggiornata alla versione 3.1.
2020 settembre
Anteprima del contenitore Analisi spaziale
Il contenitore Analisi spaziale è ora disponibile in anteprima. La funzionalità Analisi spaziale di Visione di Azure AI consente di analizzare i video in streaming in tempo reale per comprendere le relazioni spaziali tra le persone e i loro movimenti negli ambienti fisici. Analisi spaziale è un contenitore Docker che è possibile usare in locale.
Aggiunta del riconoscimento ottico dei caratteri per il giapponese nell'API di lettura v3.1 (anteprima pubblica)
L'API di lettura v3.1 (anteprima pubblica) di Visione di Azure AI aggiunge queste funzionalità:
Riconoscimento ottico dei caratteri (OCR) per la lingua giapponese
Per ogni riga di testo, viene indicato se l'aspetto è in stile Scrittura manuale o Stampa, insieme a un punteggio di attendibilità (solo lingue latine).
Per un documento di più pagine è possibile estrarre il testo solo per le pagine o l'intervallo di pagine selezionati.
Questa versione di anteprima dell'API di lettura supporta le lingue inglese, olandese, francese, tedesco, italiano, giapponese, portoghese, cinese semplificato e spagnolo.
Per altre informazioni, vedere la guida pratica per l'API Lettura.
Agosto 2020
Crittografia gestita dal cliente dei dati inattivi
- Il servizio Viso crittografa automaticamente i dati quando vengono salvati in modo permanente nel cloud. La crittografia del servizio Viso protegge i dati per contribuire a soddisfare gli obblighi di sicurezza e conformità dell'organizzazione. Per impostazione predefinita, la sottoscrizione usa chiavi di crittografia gestite da Microsoft. È anche possibile gestire la sottoscrizione con le proprie chiavi con chiavi gestite dal cliente. Per altre informazioni, vedere Chiavi gestite dal cliente.
Luglio 2020
Aggiunta del riconoscimento ottico dei caratteri per il cinese semplificato nell'API di lettura v3.1 (anteprima pubblica)
L'API di lettura v3.1 (anteprima pubblica) di Visione di Azure AI aggiunge il supporto per il cinese semplificato.
- Questa versione di anteprima dell'API di lettura supporta le lingue inglese, olandese, francese, tedesco, italiano, portoghese, cinese semplificato e spagnolo.
Per altre informazioni, vedere la guida pratica per l'API Lettura.
Maggio 2020
API Visione di Azure AI v3.0 è ora in stato di disponibilità generale, con aggiornamenti per API Lettura:
- supporto per inglese, olandese, francese, tedesco, italiano, portoghese e spagnolo
- Miglioramento della precisione
- Punteggio di attendibilità per ogni parola estratta
- Nuovo formato di output
Per altre informazioni, vedere la panoramica di OCR.
Aprile 2020
Nuovo modello di riconoscimento dell'API Viso
- Il nuovo modello Recognition_03 è il modello più accurato attualmente disponibile. Se si è un nuovo cliente, è consigliabile usare questo modello. Recognition 03 fornisce una maggiore accuratezza per confronti di somiglianza e di corrispondenza delle persone. Ulteriori informazioni sono disponibili in Specificare un modello di riconoscimento dei volti.
Marzo 2020
- TLS 1.2 viene ora applicato per tutte le richieste HTTP a questo servizio. Per altre informazioni, vedere l'articolo sulla sicurezza di Servizi di Azure AI.
Gennaio 2020
Anteprima pubblica dell'API di lettura 3.0
È ora possibile usare la versione 3.0 dell'API di lettura per estrarre testo stampato o scritto a mano dalle immagini. Rispetto alle versioni precedenti, la 3.0 offre:
- Miglioramento della precisione
- Nuovo formato di output
- Punteggio di attendibilità per ogni parola estratta
- Supporto delle lingue spagnolo e inglese con il parametro di lingua
Per iniziare a usare la versione 3.0 dell'API, seguire l'argomento di avvio rapido sull'estrazione di testo.
2019 giugno
Nuovo modello di rilevamento dell'API Viso
- Il nuovo modello Detection_02 offre una maggiore precisione su volti piccoli, visi visti lateralmente, occlusi od offuscati. Usarlo tramite Viso - Rileva, FaceList - Aggiungi viso, LargeFaceList - Aggiungi viso, PersonGroup Person - Aggiungi viso e LargePersonGroup Person - Aggiungi viso specificando il nuovo nome del modello di rilevamento dei volti
detection_02
nel parametrodetectionModel
. Ulteriori dettagli sono disponibili in Come specificare un modello di rilevamento - Viso.
2019 aprile
Miglioramento dell'accuratezza degli attributi
- Miglioramento dell'accuratezza complessiva degli attributi
age
eheadPose
. L'attributoheadPose
viene aggiornato anche con il valorepitch
ora abilitato. Usare questi attributi specificandoli nel parametroreturnFaceAttributes
di Viso - RilevareturnFaceAttributes
.
Velocità di elaborazione migliorate
- Velocità migliorate in Viso - Rileva, FaceList - Aggiungi viso, LargeFaceList - Aggiungi viso, PersonGroup Person - Aggiungi viso e LargePersonGroup Person - Aggiungi viso.
marzo 2019
Nuovo modello di riconoscimento dell'API Viso
- Il modello Recognition 02_ha migliorato l'accuratezza. Usarlo tramite Viso - Rileva, FaceList - Crea, LargeFaceList - Crea, PersonGroup - Crea e LargePersonGroup - Crea specificando il nuovo nome del modello di riconoscimento del viso
recognition_02
nel parametrorecognitionModel
. Per altre informazioni, vedere Come specificare un modello di riconoscimento.
gennaio 2019
Funzionalità Snapshot viso
- Questa funzione consente al servizio di supportare la migrazione dei dati tra sottoscrizioni: Snapshot.
Importante
A partire dal 30 giugno 2023, l'API Snapshot Viso viene ritirata.
2018 ottobre
Messaggi API
- Perfezionata la descrizione per
status
,createdDateTime
,lastActionDateTime
elastSuccessfulTrainingDateTime
in PersonGroup - Get Training Status, LargePersonGroup - Get Training Status e LargeFaceList - Get Training Status.
maggio 2018
Miglioramento dell'accuratezza degli attributi
- L'attributo
gender
è stato migliorato significativamente, inoltre sono stati modificati anche gli attributiage
,glasses
,facialHair
,hair
emakeup
. Usarli tramite il parametro Viso - RilevareturnFaceAttributes
.
Aumento del limite sulle dimensioni dei file
- Il limite delle dimensioni del file di immagine di input è stato aumentato da 4 MB a 6 MB in Face - Detect, FaceList - Add Face, LargeFaceList - Add Face, PersonGroup Person - Add Face e LargePersonGroup Person - Add Face.
marzo 2018
Nuova struttura dei dati
- LargeFaceList e LargePersonGroup. Per altre informazioni, vedere Come ridimensionare per gestire più utenti registrati.
- Il parametro Viso - Identifica
maxNumOfCandidatesReturned
è stato aumentato da [1, 5] a [1, 100] e il valore predefinito è stato impostato su 10.
maggio 2017
Nuovi attributi di Viso rilevabili
- Sono stati aggiunti gli attributi
hair
,makeup
,accessory
,occlusion
,blur
,exposure
enoise
nel parametro Viso - RilevareturnFaceAttributes
. - PersonGroup e Face - Identify supportano 10.000 persone.
- È supportata la paginazione in PersonGroup Person - List con i parametri facoltativi:
start
etop
. - È supportata la concorrenza nell'aggiunta/nell'eliminazione di volti in FaceList diversi e persone diverse in PersonGroup.
marzo 2017
Nuovo attributo Viso rilevabile
- È stato aggiunto l'attributo
emotion
nel parametro Viso - RilevareturnFaceAttributes
.
Problemi risolti
- Non era possibile rilevare il viso con la restituzione di un rettangolo da Viso - Rileva come
targetFace
in FaceList - Aggiungi viso e Persona PersonGroup - Aggiungi viso. - Le dimensioni del viso rilevabili sono impostate per assicurarsi che non superino assolutamente 36x36 pixel a 4096x4096 pixel.
novembre 2016
Nuovo livello di sottoscrizione
- È stata aggiunta la sottoscrizione standard ad Archiviazione visi per archiviare visi persistenti aggiuntivi quando si usa PersonGroup Person - Add Face o FaceList - Add Face per l'identificazione o la ricerca di analogie. Il costo delle immagini archiviate è di 0,5 dollari per 1.000 visi e alla tariffa viene applicata la ripartizione proporzionale giornaliera. Le sottoscrizioni del livello gratuito continuano a essere limitate a un totale di 1.000 persone.
ottobre 2016
Messaggi API
- Il messaggio di errore che indica più di un viso in
targetFace
è cambiato da 'Sono presenti più di un viso nell'immagine' a 'È presente più di un viso nell'immagine' in FaceList - Add Face e PersonGroup Person - Aggiungi viso.
luglio 2016
Nuove funzionalità
- È supportata l'autenticazione dell'oggetto Face to Person in Face - Verify.
- È stato aggiunto il parametro
mode
facoltativo che consente la selezione di due modalità di lavoro:matchPerson
ematchFace
in Face - Find Similar, mentre il parametro predefinito èmatchPerson
. - È stato aggiunto il parametro
confidenceThreshold
facoltativo per consentire all'utente di impostare la soglia che definisce se un viso appartiene a un oggetto Person in Face - Identify. - Sono stati aggiunti i parametri
start
etop
facoltativi in PersonGroup - List per consentire all'utente di specificare il punto iniziale e il numero totale di PersonGroups all'elenco.
Modifiche da V1.0 a V0
- L'endpoint radice del servizio è stato aggiornato da
https://westus.api.cognitive.microsoft.com/face/v0/
ahttps://westus.api.cognitive.microsoft.com/face/v1.0/
. Sono state apportate modifiche a: Face - Detect, Face - Identify, Face - Find Similar e Face - Group. - Le dimensioni minime rilevabili per i visi sono state aggiornate a 36 x 36 pixel. I visi di dimensioni inferiori a 36 x 36 pixel non vengono rilevati.
- I dati di PersonGroup e Person in Viso V0 sono deprecati. Non è possibile accedere a tali dati con il servizio Viso V1.0.
- L'endpoint V0 dell'API Viso è deprecato dal 30 giugno 2016.