Udostępnij za pośrednictwem


Instalowanie i uruchamianie kontenerów

Ta zawartość dotyczy:checkmarkv3.0 (GA)checkmarkv3.1 (GA)checkmarkv4.0 (GA)

Azure AI Document Intelligence to usługa azure AI, która umożliwia tworzenie zautomatyzowanego oprogramowania do przetwarzania danych przy użyciu technologii uczenia maszynowego. Inteligencja Dokumentów umożliwia identyfikację i wyodrębnianie tekstu, par klucz/wartość, znaczników wyboru, danych tabel i nie tylko z dokumentów. Wyniki są dostarczane jako dane ustrukturyzowane, które .. /zawiera relacje w oryginalnym pliku. Kontenery przetwarzają tylko podane im dane i korzystają wyłącznie z zasobów, do których mają dostęp. Kontenery nie mogą przetwarzać danych z innych regionów.

Z tego artykułu dowiesz się, jak pobierać, instalować i uruchamiać kontenery analizy dokumentów. Kontenery umożliwiają uruchamianie usługi Analizy dokumentów we własnym środowisku. Kontenery doskonale nadają się do określonych wymagań w zakresie zabezpieczeń i zarządzania danymi.

  • Model układu jest obsługiwany przez kontenery analizy dokumentów w wersji 3.1.

  • Odczyt, Układ, Dokument ID, Paragon i Faktura są obsługiwane przez kontenery Inteligencji Dokumentu w wersji 3.1.

  • Read, Layout, General Document, Business Card i Custom są obsługiwane przez kontenery analizy dokumentów w wersji 3.0.

Obsługa wersji

Obsługa kontenerów jest obecnie dostępna w wersji v3.0: 2022-08-31 (GA) analizy dokumentów dla wszystkich modeli, dla modeli odczytu, v3.1 2023-07-31 (GA) układu, dokumentu identyfikatora, paragonu i faktury oraz v4.0 2024-11-30 (GA) układu:

Wymagania wstępne

Do rozpoczęcia pracy potrzebne jest aktywne konto platformy Azure. Jeśli nie masz, możesz utworzyć bezpłatne konto.

Do korzystania z kontenerów analizy dokumentów potrzebne są również następujące elementy:

Wymagane Purpose
Znajomość platformy Docker Musisz mieć podstawową wiedzę na temat pojęć związanych z platformą Docker, takich jak rejestry, repozytoria, kontenery i obrazy kontenerów, a także znajomość podstawowej dockerterminologii i poleceń.
Zainstalowany aparat platformy Docker
  • Musisz mieć zainstalowany silnik Docker na komputerze hostującym. Platforma Docker udostępnia pakiety, które konfigurują środowisko platformy Docker w systemach macOS, Windows i Linux. Aby uzyskać podstawowe informacje na temat platformy Docker i kontenerów, zapoznaj się z artykułem Docker overview (Przegląd platformy Docker).
  • Platforma Docker musi być skonfigurowana tak, aby umożliwić kontenerom łączenie się z platformą Azure i wysyłanie danych rozliczeniowych do platformy Azure.
  • W systemie Windows platforma Docker musi być również skonfigurowana do obsługi kontenerów systemu Linux .
Zasób analizy dokumentów Pojedyncza usługa Azure AI Document Intelligence lub zasób wielousługowy w portalu Azure. Aby korzystać z kontenerów, musisz mieć skojarzony klucz i identyfikator URI punktu końcowego. Obie wartości są dostępne na stronie Klucze analizy dokumentów i punkt końcowy w witrynie Azure Portal:
  • {FORM_RECOGNIZER_KEY}: jeden z dwóch dostępnych kluczy zasobów.
  • {FORM_RECOGNIZER_ENDPOINT_URI}: punkt końcowy zasobu używanego do śledzenia informacji rozliczeniowych.
Opcjonalnie Purpose
Interfejs wiersza polecenia platformy Azure (interfejs wiersza polecenia) Interfejs Azure CLI umożliwia tworzenie zasobów platformy Azure i zarządzanie nimi za pomocą zestawu poleceń dostępnych online. Jest ona dostępna do zainstalowania w środowiskach systemu Windows, macOS i Linux oraz może być uruchamiana w kontenerze platformy Docker i usłudze Azure Cloud Shell.

Wymagania dotyczące komputera hosta

Host to komputer oparty na architekturze x64 z uruchomionym kontenerem platformy Docker. Może to być komputer lokalny lub usługa hostingu platformy Docker na platformie Azure, taka jak:

Uwaga

Nie można wdrożyć i uruchomić kontenera Studio w usłudze Azure Kubernetes Service. Kontener studio jest obsługiwany tylko do uruchamiania na maszynach lokalnych.

Wymagania i zalecenia dotyczące kontenerów

Wymagane kontenery pomocnicze

W poniższej tabeli wymieniono co najmniej jeden kontener pomocniczy dla każdego pobranego kontenera analizy dokumentów. Aby uzyskać więcej informacji, zobacz sekcję Rozliczenia .

Kontener funkcji Obsługa kontenerów
Przeczytaj Niewymagane
Układ Niewymagane
Wizytówka Przeczytaj
Dokument ogólny Układ
Faktura Układ
Paragon Odczyt lub układ
Identyfikator dokumentu Przeczytaj
Szablon niestandardowy Układ

Uwaga

Minimalne i zalecane wartości są oparte na limitach platformy Docker, a nie na zasobach maszyny hosta.

Kontenery analizy dokumentów
Kontener Minimum Zalecane
Read 8 rdzenie, pamięć 10 GB 8 rdzenie, pamięć 24 GB
Layout 8 rdzenie, 16 GB pamięci 8 rdzenie, pamięć 24 GB
Business Card 8 rdzenie, 16 GB pamięci 8 rdzenie, pamięć 24 GB
General Document 8 rdzenie, pamięć 12 GB 8 rdzenie, pamięć 24 GB
ID Document 8 rdzenie, 8 GB pamięci 8 rdzenie, pamięć 24 GB
Invoice 8 rdzenie, 16 GB pamięci 8 rdzenie, pamięć 24 GB
Receipt 8 rdzenie, 11 GB pamięci 8 rdzenie, pamięć 24 GB
Custom Template 8 rdzenie, 16 GB pamięci 8 rdzenie, pamięć 24 GB
  • Każdy rdzeń musi być co najmniej 2,6 gigahertz (GHz) lub szybszy.
  • Rdzeń i pamięć odpowiadają --cpus ustawieniu i --memory , które są używane w ramach docker compose polecenia lub docker run .

Napiwek

Możesz użyć polecenia docker images , aby wyświetlić listę pobranych obrazów kontenerów. Na przykład następujące polecenie wyświetla identyfikator, repozytorium i tag każdego pobranego obrazu kontenera sformatowane jako tabela:

docker images --format "table {{.ID}}\t{{.Repository}}\t{{.Tag}}"

IMAGE ID         REPOSITORY                TAG
<image-id>       <repository-path/name>    <tag-name>

Uruchamianie kontenera za pomocą polecenia docker-compose up

  • Zastąp wartości {ENDPOINT_URI} i {API_KEY} identyfikatorem URI punktu końcowego zasobu oraz kluczem ze strony zasobu platformy Azure.

    Zrzut ekranu przedstawiający stronę kluczy i punktu końcowego witryny Azure Portal.

  • Upewnij się, że wartość EULA jest ustawiona na zaakceptuj.

  • EULANależy określić wartości , BillingiApiKey. W przeciwnym razie nie można uruchomić kontenera.

Ważne

Klucze są używane do uzyskiwania dostępu do zasobu analizy dokumentów. Nie udostępniaj kluczy. Przechowuj je bezpiecznie, na przykład przy użyciu usługi Azure Key Vault. Zalecamy również regularne ponowne generowanie tych kluczy. Tylko jeden klucz jest wymagany do wykonania wywołania interfejsu API. Podczas ponownego generowania pierwszego klucza można używać drugiego klucza, aby nadal uzyskiwać dostęp do usługi.

Poniższy przykładowy kod jest przykładem samodzielnego docker compose uruchamiania kontenera układu analizy dokumentów. Posługując się docker compose, używasz pliku YAML do skonfigurowania usług aplikacji. Następnie za pomocą docker-compose up polecenia utworzysz i uruchomisz wszystkie usługi z poziomu konfiguracji. Wprowadź wartości {FORM_RECOGNIZER_ENDPOINT_URI} i {FORM_RECOGNIZER_KEY} dla instancji kontenera układu.

version: "3.9"
services:
  azure-form-recognizer-layout:
    container_name: azure-form-recognizer-layout
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/layout-4.0
    environment:
      - EULA=accept
      - billing={FORM_RECOGNIZER_ENDPOINT_URI}
      - apiKey={FORM_RECOGNIZER_KEY}
    ports:
      - "5000:5000"
    networks:
      - ocrvnet
networks:
  ocrvnet:
    driver: bridge

Teraz możesz uruchomić usługę za pomocą polecenia docker compose :

docker-compose up

Uruchamianie kontenera za pomocą polecenia docker-compose up

  • Zastąp wartości {ENDPOINT_URI} i {API_KEY} identyfikatorem URI punktu końcowego zasobu oraz kluczem ze strony zasobu platformy Azure.

    Zrzut ekranu strony z kluczami i punktem końcowym w portalu Azure.

  • Upewnij się, że wartość EULA jest ustawiona na akceptuj.

  • EULANależy określić wartości , BillingiApiKey. W przeciwnym razie nie można uruchomić kontenera.

Ważne

Klucze są używane do uzyskiwania dostępu do zasobu analizy dokumentów. Nie udostępniaj kluczy. Przechowuj je bezpiecznie, na przykład przy użyciu usługi Azure Key Vault. Zalecamy również regularne ponowne generowanie tych kluczy. Tylko jeden klucz jest wymagany do wykonania wywołania interfejsu API. Podczas ponownego generowania pierwszego klucza można używać drugiego klucza, aby nadal uzyskiwać dostęp do usługi.

Poniższy przykładowy kod jest przykładem samodzielnego docker compose uruchamiania kontenera układu analizy dokumentów. Za pomocą docker composepolecenia użyjesz pliku YAML, aby skonfigurować usługi aplikacji. Następnie za pomocą docker-compose up polecenia utworzysz i uruchomisz wszystkie usługi z poziomu konfiguracji. Wprowadź wartości {FORM_RECOGNIZER_ENDPOINT_URI} i {FORM_RECOGNIZER_KEY} dla instancji kontenera układu.

version: "3.9"
services:
  azure-form-recognizer-layout:
    container_name: azure-form-recognizer-layout
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/layout-3.1
    environment:
      - EULA=accept
      - billing={FORM_RECOGNIZER_ENDPOINT_URI}
      - apiKey={FORM_RECOGNIZER_KEY}
    ports:
      - "5000:5000"
    networks:
      - ocrvnet
networks:
  ocrvnet:
    driver: bridge

Teraz możesz uruchomić usługę, używając polecenia docker compose.

docker-compose up

Tworzenie pliku docker compose

  1. Nadaj temu plikowi nazwę docker-compose.yml

  2. Poniższy przykładowy kod jest przykładem samodzielnego docker compose uruchamiania razem kontenerów układu analizy dokumentów, programu Studio i szablonu niestandardowego. Za pomocą docker compose używasz pliku YAML do konfigurowania usług aplikacji. Następnie za pomocą docker-compose up polecenia utworzysz i uruchomisz wszystkie usługi z poziomu konfiguracji.

version: '3.3'
services:
  nginx:
    image: nginx:alpine
    container_name: reverseproxy
    depends_on:
      - layout
      - custom-template
    volumes:
      - ${NGINX_CONF_FILE}:/etc/nginx/nginx.conf
    ports:
      - "5000:5000"
  layout:
    container_name: azure-cognitive-service-layout
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/layout-3.0:latest
    environment:
      eula: accept
      apikey: ${FORM_RECOGNIZER_KEY}
      billing: ${FORM_RECOGNIZER_ENDPOINT_URI}
      Logging:Console:LogLevel:Default: Information
      SharedRootFolder: /share
      Mounts:Shared: /share
      Mounts:Output: /logs
    volumes:
      - type: bind
        source: ${SHARED_MOUNT_PATH}
        target: /share
      - type: bind
        source: ${OUTPUT_MOUNT_PATH}
        target: /logs
    expose:
      - "5000"

  custom-template:
    container_name: azure-cognitive-service-custom-template
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/custom-template-3.0:latest
    restart: always
    depends_on:
      - layout
    environment:
      AzureCognitiveServiceLayoutHost: http://azure-cognitive-service-layout:5000
      eula: accept
      apikey: ${FORM_RECOGNIZER_KEY}
      billing: ${FORM_RECOGNIZER_ENDPOINT_URI}
      Logging:Console:LogLevel:Default: Information
      SharedRootFolder: /share
      Mounts:Shared: /share
      Mounts:Output: /logs
    volumes:
      - type: bind
        source: ${SHARED_MOUNT_PATH}
        target: /share
      - type: bind
        source: ${OUTPUT_MOUNT_PATH}
        target: /logs
    expose:
      - "5000"

  studio:
    container_name: form-recognizer-studio
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/studio:3.0
    environment:
      ONPREM_LOCALFILE_BASEPATH: /onprem_folder
      STORAGE_DATABASE_CONNECTION_STRING: /onprem_db/Application.db
    volumes:
      - type: bind
        source: ${FILE_MOUNT_PATH} # path to your local folder
        target: /onprem_folder
      - type: bind
        source: ${DB_MOUNT_PATH} # path to your local folder
        target: /onprem_db
    ports:
      - "5001:5001"
    user: "1000:1000" # echo $(id -u):$(id -g)

Tworzenie pliku docker compose

  1. Nadaj temu plikowi nazwę docker-compose.yml

  2. Poniższy przykładowy kod jest przykładem samodzielnego docker compose uruchamiania razem kontenerów układu analizy dokumentów, programu Studio i szablonu niestandardowego. Za pomocą docker compose używasz pliku YAML do skonfigurowania usług aplikacji. Następnie za pomocą docker-compose up polecenia utworzysz i uruchomisz wszystkie usługi z poziomu konfiguracji.

version: '3.3'
services:
  nginx:
    image: nginx:alpine
    container_name: reverseproxy
    depends_on:
      - layout
      - custom-template
    volumes:
      - ${NGINX_CONF_FILE}:/etc/nginx/nginx.conf
    ports:
      - "5000:5000"
  layout:
    container_name: azure-cognitive-service-layout
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/layout-3.1:latest
    environment:
      eula: accept
      apikey: ${FORM_RECOGNIZER_KEY}
      billing: ${FORM_RECOGNIZER_ENDPOINT_URI}
      Logging:Console:LogLevel:Default: Information
      SharedRootFolder: /share
      Mounts:Shared: /share
      Mounts:Output: /logs
    volumes:
      - type: bind
        source: ${SHARED_MOUNT_PATH}
        target: /share
      - type: bind
        source: ${OUTPUT_MOUNT_PATH}
        target: /logs
    expose:
      - "5000"

  custom-template:
    container_name: azure-cognitive-service-custom-template
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/custom-template-3.1:latest
    restart: always
    depends_on:
      - layout
    environment:
      AzureCognitiveServiceLayoutHost: http://azure-cognitive-service-layout:5000
      eula: accept
      apikey: ${FORM_RECOGNIZER_KEY}
      billing: ${FORM_RECOGNIZER_ENDPOINT_URI}
      Logging:Console:LogLevel:Default: Information
      SharedRootFolder: /share
      Mounts:Shared: /share
      Mounts:Output: /logs
    volumes:
      - type: bind
        source: ${SHARED_MOUNT_PATH}
        target: /share
      - type: bind
        source: ${OUTPUT_MOUNT_PATH}
        target: /logs
    expose:
      - "5000"

  studio:
    container_name: form-recognizer-studio
    image: mcr.microsoft.com/azure-cognitive-services/form-recognizer/studio:3.1
    environment:
      ONPREM_LOCALFILE_BASEPATH: /onprem_folder
      STORAGE_DATABASE_CONNECTION_STRING: /onprem_db/Application.db
    volumes:
      - type: bind
        source: ${FILE_MOUNT_PATH} # path to your local folder
        target: /onprem_folder
      - type: bind
        source: ${DB_MOUNT_PATH} # path to your local folder
        target: /onprem_db
    ports:
      - "5001:5001"
    user: "1000:1000" # echo $(id -u):$(id -g)

Kontener szablonu niestandardowego i kontener układu mogą używać kolejek usługi Azure Storage lub kolejek w pamięci. Zmienne środowiskowe Storage:ObjectStore:AzureBlob:ConnectionString i queue:azure:connectionstring muszą być ustawione tylko, jeśli korzystasz z kolejek usługi Azure Storage. W przypadku uruchamiania lokalnego usuń te zmienne.

Upewnij się, że usługa jest uruchomiona

Aby upewnić się, że usługa działa. Uruchom te polecenia w powłoce systemu Ubuntu.

$cd <folder containing the docker-compose file>

$source .env

$docker-compose up

Kontenery szablonów niestandardowych wymagają kilku różnych konfiguracji i obsługują inne opcjonalne konfiguracje.

Ustawienie Wymagane opis
EULA Tak Przykład akceptacji licencji: Eula=accept
Rozliczenia Tak Identyfikator URI punktu końcowego rozliczeń zasobu FR
ApiKey Tak Klucz punktu końcowego zasobu FR
Queue:Azure:ConnectionString Nie. Parametry połączenia kolejki platformy Azure
Storage:ObjectStore:AzureBlob:ConnectionString Nie. Łańcuch połączenia Azure Blob
HealthCheck:MemoryUpperboundInMB Nie. Próg pamięci dla raportowania złej kondycji dla utrzymania. Wartość domyślna: taka sama jak zalecana pamięć
CzasŻyciaPrzechowywaniaWWMinutach Nie. TTL czas trwania usuwania wszystkich plików pośrednich i końcowych. Ustawienie domyślne: Dwa dni, TTL można ustawić w zakresie od pięciu minut do siedmiu dni
Zadanie:MaxRunningTimeSpanInMinutes Nie. Maksymalny czas działania traktowania żądania jako przekroczenie limitu czasu. Ustawienie domyślne: 60 minut
HTTP_PROXY_BYPASS_URLS Nie. Określ adresy URL dla pomijania serwera proxy Przykład: HTTP_PROXY_BYPASS_URLS = abc.com, xyz.com
AzureCognitiveServiceReadHost (Paragon, Tylko Kontenery IdDocument) Tak Określ identyfikator URI kontenera odczytu— przykład: AzureCognitiveServiceReadHost=http://onprem-frread:5000
AzureCognitiveServiceLayoutHost (tylko dokument, kontenery faktur) Tak Określ identyfikator URI kontenera układu: AzureCognitiveServiceLayoutHost=http://onprem-frlayout:5000

Trenowanie modelu za pomocą programu Document Intelligence Studio

  • Zbierz zestaw co najmniej pięciu formularzy tego samego typu. Te dane służą do trenowania modelu i testowania formularza. Możesz użyć przykładowego zestawu danych (pobierz i wyodrębnij sample_data.zip).

  • Po potwierdzeniu, że kontenery są uruchomione, otwórz przeglądarkę i przejdź do punktu końcowego, w którym wdrożono kontenery. Jeśli to wdrożenie jest na maszynie lokalnej, punktem końcowym jest [http://localhost:5001](http://localhost:5001).

  • Wybierz kafelek niestandardowego modelu wyodrębniania.

  • Create project Wybierz opcję.

  • Podaj nazwę projektu i opcjonalnie opis

  • W kroku "Skonfiguruj zasób" podaj punkt końcowy dla niestandardowego modelu szablonu. Jeśli kontenery zostały wdrożone na komputerze lokalnym, użyj tego adresu URL [http://localhost:5000](http://localhost:5000).

  • Podaj podfolder miejsca, w którym znajdują się dane szkoleniowe w folderze plików.

  • Na koniec utwórz projekt

Teraz powinien zostać utworzony projekt gotowy do etykietowania. Przekaż dane szkoleniowe i rozpocznij etykietowanie. Jeśli dopiero zaczynasz etykietowanie, zobacz zbudowanie i przeszkolenie niestandardowego modelu.

Trenowanie przy użyciu interfejsu API

Jeśli planujesz bezpośrednio wywołać interfejs API w celu trenowania modelu, niestandardowy interfejs API trenowania modelu szablonu wymaga pliku zip zakodowanego w base64, który zawiera treść twojego projektu etykietowania. Możesz pominąć pliki PDF lub obrazy i przesłać tylko pliki JSON.

Gdy zestaw danych jest oznaczony i pliki *.ocr.json, *.labels.json i fields.json dodane do archiwum zip, użyj poleceń programu PowerShell, aby wygenerować ciąg zakodowany w formacie base64.

$bytes = [System.IO.File]::ReadAllBytes("<your_zip_file>.zip")
$b64String = [System.Convert]::ToBase64String($bytes, [System.Base64FormattingOptions]::None)

Użyj interfejsu API budowy modelu, aby wysłać żądanie.


  POST http://localhost:5000/formrecognizer/documentModels:build?api-version=2023-07-31

  {
      "modelId": "mymodel",
      "description": "test model",
      "buildMode": "template",

      "base64Source": "<Your base64 encoded string>",
      "tags": {
         "additionalProp1": "string",
         "additionalProp2": "string",
         "additionalProp3": "string"
       }
  }

Sprawdź, czy usługa jest uruchomiona

Istnieje kilka sposobów sprawdzania, czy kontener jest uruchomiony:

  • Kontener udostępnia stronę główną pod adresem \ jako wizualne potwierdzenie działania kontenera.

  • Możesz otworzyć ulubioną przeglądarkę internetową i przejść do zewnętrznego adresu IP i uwidocznić port danego kontenera. Użyj wymienionych adresów URL żądań, aby zweryfikować, czy kontener jest uruchomiony. Wymienione przykładowe adresy URL żądań to http://localhost:5000, ale określony kontener może się różnić. Pamiętaj, że przechodzisz do zewnętrznego adresu IP twojego kontenera i odsłoniętego portu.

    Adres URL żądania Cel
    http:// localhost:5000/ Kontener zawiera stronę główną.
    http:// localhost:5000/ready Żądanie get zapewnia weryfikację, że kontener jest gotowy do akceptowania zapytania względem modelu. To żądanie może służyć do sond aktywności i gotowości dla platformy Kubernetes.
    http:// localhost:5000/status Zażądano polecenia GET. To żądanie sprawdza, czy klucz api-key używany do uruchamiania kontenera jest prawidłowy bez powodowania zapytania punktu końcowego. To żądanie może służyć do sond gotowości i gotowości platformy Kubernetes.
    http:// localhost:5000/swagger Kontener zawiera pełen zestaw dokumentacji dla punktów końcowych oraz funkcję Wypróbuj. Dzięki tej funkcji możesz wprowadzić ustawienia w formularzu HTML opartym na sieci Web i utworzyć zapytanie bez konieczności pisania kodu. Po powrocie zapytania zostanie udostępnione przykładowe polecenie CURL, aby zademonstrować wymagane nagłówki HTTP i format treści.

Zrzut ekranu przedstawiający stronę powitalną kontenerów platformy Azure.

Zatrzymaj kontenery

Aby zatrzymać kontenery, użyj następującego polecenia:

docker-compose down

Rozliczenia

Kontenery analizy dokumentów wysyłają informacje rozliczeniowe na platformę Azure przy użyciu zasobu analizy dokumentów na koncie platformy Azure.

Zapytania do kontenera są rozliczane w warstwie cenowej zasobu platformy Azure używanego dla interfejsu API Key. Rozliczenia są obliczane dla każdego wystąpienia kontenera używanego do przetwarzania dokumentów i obrazów.

Jeśli wystąpi następujący błąd: Kontener nie jest w prawidłowym stanie. Sprawdzanie poprawności subskrypcji nie powiodło się, a stan "OutOfQuota" interfejsu API jest poza limitem przydziału. Jest to wskaźnik, że kontenery nie są komunikacją z punktem końcowym rozliczeń.

Łączenie się z platformą Azure

Do uruchomienia kontenera potrzebne są wartości argumentów rozliczeniowych. Te wartości umożliwiają kontenerowi łączenie się z punktem końcowym rozliczeń. Kontener raportuje użycie co około 10 do 15 minut. Jeśli kontener nie łączy się z platformą Azure w dozwolonym przedziale czasu, kontener będzie nadal działać, ale nie obsługuje zapytań, dopóki punkt końcowy rozliczeń nie zostanie przywrócony. Próba nawiązania połączenia jest podejmowana 10 razy w tym samym przedziale czasu od 10 do 15 minut. Jeśli nie może nawiązać połączenia z punktem końcowym rozliczeń w ciągu 10 prób, kontener przestanie obsługiwać żądania. Zobacz Często zadawane pytania dotyczące kontenera usługi Azure AI, aby uzyskać przykład informacji wysyłanych do firmy Microsoft na potrzeby rozliczeń.

Spory dotyczące rozliczeń

Polecenie docker-compose up uruchamia kontener, gdy wszystkie trzy z następujących opcji są dostarczane z prawidłowymi wartościami:

Opcja opis
ApiKey Klucz zasobu usług Azure AI używany do śledzenia informacji rozliczeniowych.
Wartość tej opcji musi być ustawiona na klucz dla przydzielonego zasobu określonego w Billing.
Billing Punkt końcowy zasobu usług AI platformy Azure używany do śledzenia informacji rozliczeniowych.
Wartość tej opcji musi być ustawiona na identyfikator URI punktu końcowego aprowizowanego zasobu platformy Azure.
Eula Wskazuje, że zaakceptowano licencję dla kontenera.
Wartość tej opcji należy ustawić tak, aby akceptowała.

Aby uzyskać więcej informacji na temat tych opcji, zobacz Konfigurowanie kontenerów.

Podsumowanie

I już! W tym artykule przedstawiono pojęcia i przepływy pracy dotyczące pobierania, instalowania i uruchamiania kontenerów analizy dokumentów. Podsumowując:

  • Analiza dokumentów udostępnia siedem kontenerów systemu Linux dla platformy Docker.
  • Obrazy kontenerów są pobierane z mcr.
  • Obrazy kontenerów działają w Dockerze.
  • Informacje o rozliczeniach należy określić podczas tworzenia kontenera.

Ważne

Kontenery sztucznej inteligencji platformy Azure nie mają licencji na uruchamianie bez nawiązywania połączenia z platformą Azure na potrzeby pomiarów. Klienci muszą umożliwić kontenerom zawsze komunikowanie informacji rozliczeniowych z usługą pomiarów. Kontenery sztucznej inteligencji platformy Azure nie wysyłają danych klientów (na przykład obrazu lub tekstu analizowanego) do firmy Microsoft.

Następne kroki