Udostępnij za pośrednictwem


Cele dotyczące skalowalności i wydajności dla usług Azure Files i Azure File Sync

Usługa Azure Files oferuje w pełni zarządzane udziały plików w chmurze, które są dostępne za pośrednictwem protokołów systemu plików server Message Block (SMB) i sieciowego systemu plików (NFS). W tym artykule omówiono cele dotyczące skalowalności i wydajności usług Azure Files i Azure File Sync.

Cele wymienione tutaj mogą mieć wpływ na inne zmienne we wdrożeniu. Na przykład wydajność operacji we/wy dla pliku może mieć wpływ na zachowanie klienta SMB i przez dostępną przepustowość sieci. Należy przetestować wzorzec użycia, aby określić, czy skalowalność i wydajność usługi Azure Files spełniają twoje wymagania.

Dotyczy

Model zarządzania Model rozliczania Warstwa multimediów Nadmiarowość SMB NFS
Microsoft.Storage Aprowizowana wersja 2 HDD (standardowa) Lokalne (LRS) Tak Nie.
Microsoft.Storage Aprowizowana wersja 2 HDD (standardowa) Strefa (ZRS) Tak Nie.
Microsoft.Storage Aprowizowana wersja 2 HDD (standardowa) Geo (GRS) Tak Nie.
Microsoft.Storage Aprowizowana wersja 2 HDD (standardowa) Strefa geograficzna (GZRS) Tak Nie.
Microsoft.Storage Aprowizowana wersja 1 SSD (premium) Lokalne (LRS) Tak Tak
Microsoft.Storage Aprowizowana wersja 1 SSD (premium) Strefa (ZRS) Tak Tak
Microsoft.Storage Płatność zgodnie z rzeczywistym użyciem HDD (standardowa) Lokalne (LRS) Tak Nie.
Microsoft.Storage Płatność zgodnie z rzeczywistym użyciem HDD (standardowa) Strefa (ZRS) Tak Nie.
Microsoft.Storage Płatność zgodnie z rzeczywistym użyciem HDD (standardowa) Geo (GRS) Tak Nie.
Microsoft.Storage Płatność zgodnie z rzeczywistym użyciem HDD (standardowa) Strefa geograficzna (GZRS) Tak Nie.

Cele skalowania usługi Azure Files

Udziały plików platformy Azure są wdrażane na kontach magazynu, które są obiektami najwyższego poziomu reprezentującymi udostępnioną pulę magazynu. Ta pula magazynu może służyć do wdrażania wielu udziałów plików. W związku z tym należy wziąć pod uwagę trzy kategorie: konta magazynu, udziały plików platformy Azure i pojedyncze pliki.

Cele skalowania konta magazynu

Cele skalowania konta magazynu mają zastosowanie na poziomie konta magazynu. Istnieją dwa główne typy kont magazynu dla usługi Azure Files:

  • Konta magazynu FileStorage: konta magazynu FileStorage umożliwiają wdrażanie udziałów plików platformy Azure przy użyciu aprowizowanego modelu rozliczeń. Konta FileStorage mogą być używane tylko do przechowywania udziałów plików platformy Azure; na koncie FileStorage nie można wdrożyć żadnych innych zasobów magazynu (kontenerów obiektów blob, kolejek, tabel itp.).

  • Konta magazynu ogólnego przeznaczenia w wersji 2 (GPv2): konta magazynu GPv2 umożliwiają wdrażanie udziałów plików z płatnością zgodnie z rzeczywistym użyciem na sprzęcie opartym na hdd. Oprócz przechowywania udziałów plików platformy Azure konta magazynu GPv2 mogą przechowywać inne zasoby magazynu, takie jak kontenery obiektów blob, kolejki lub tabele.

Atrybut Aprowizowany dysk SSD w wersji 1 Hdd aprowizowane w wersji 2 HDD z płatnością zgodnie z rzeczywistym użyciem
Rodzaj konta magazynu FileStorage FileStorage StorageV2
Jednostki SKU
  • Premium_LRS
  • Premium_ZRS
  • StandardV2_LRS
  • StandardV2_ZRS
  • StandardV2_GRS
  • StandardV2_GZRS
  • Standard_LRS
  • Standard_ZRS
  • Standard_GRS
  • Standard_GZRS
Liczba kont magazynu na region na subskrypcję 250 250 250
Maksymalna pojemność magazynu 100 TiB 4 PiB 5 PiB
Maksymalna liczba udziałów plików 1024 (zalecane do użycia co najmniej 50) 50 Nieograniczone (zalecane do użycia co najmniej 50)
Maksymalna liczba operacji we/wy na sekundę 102 400 operacji we/wy na sekundę 50 000 operacji we/wy na sekundę 20 000 operacji we/wy na sekundę
Maksymalna przepływność 10 340 MiB / s 5120 MiB / s
  • Wybierz regiony:
    • Ruch przychodzący: 7680 MiB /s
    • Ruch wychodzący: 25 600 MiB / s
  • Wartość domyślna:
    • Ruch przychodzący: 3200 MiB /s
    • Ruch wychodzący: 6400 MiB /s
Maksymalna liczba reguł sieci wirtualnej 200 200 200
Maksymalna liczba reguł adresów IP 200 200 200
Operacje odczytu zarządzania 800 na 5 minut 800 na 5 minut 800 na 5 minut
Operacje zapisu zarządzania 10 na sekundę/1200 na godzinę 10 na sekundę/1200 na godzinę 10 na sekundę/1200 na godzinę
Operacje listy zarządzania 100 na 5 minut 100 na 5 minut 100 na 5 minut

Wybrane regiony ze zwiększoną maksymalną przepływnością dla dysków HDD z płatnością zgodnie z rzeczywistym użyciem

Następujące regiony mają zwiększoną maksymalną przepływność dla kont magazynu z płatnością zgodnie z rzeczywistym użyciem (StorageV2):

  • Azja Wschodnia
  • Southeast Asia
  • Australia Wschodnia
  • Brazylia Południowa
  • Kanada Środkowa
  • Chiny Wschodnie 2
  • Chiny Północne 3
  • Europa Północna
  • West Europe
  • Francja Środkowa
  • Niemcy Środkowo-Zachodnie
  • Indie Środkowe
  • Japonia Wschodnia
  • Indie Zachodnie (Jio)
  • Korea Środkowa
  • Norwegia Wschodnia
  • Północna Republika Południowej Afryki
  • Szwecja Środkowa
  • Północne Zjednoczone Emiraty Arabskie
  • Południowe Zjednoczone Królestwo
  • Central US
  • East US
  • Wschodnie stany USA 2
  • US Gov Wirginia
  • US Gov Arizona
  • Północno-środkowe stany USA
  • South Central US
  • Zachodnie stany USA
  • Zachodnie stany USA 2
  • Zachodnie stany USA 3

Cele skalowania udziałów plików platformy Azure

Cele skalowania udziałów plików platformy Azure mają zastosowanie na poziomie udziału plików.

Atrybut Aprowizowany dysk SSD w wersji 1 Hdd aprowizowane w wersji 2 HDD z płatnością zgodnie z rzeczywistym użyciem
Jednostka aprowizacji magazynu 1 GiB 1 GiB Nie dotyczy
Jednostka aprowizacji operacji we/wy na sekundę Nie dotyczy 1 we/wy na sekundę Nie dotyczy
Jednostka aprowizacji przepływności Nie dotyczy 1 MiB /s Nie dotyczy
Minimalny rozmiar magazynu 100 GiB (aprowizowana) 32 GiB (aprowizowana) 0 bajtów
Maksymalny rozmiar magazynu 100 TiB 256 TiB 100 TiB
Maksymalna liczba plików Nieograniczony Nieograniczony Nieograniczony
Maksymalna liczba operacji we/wy na sekundę 102 400 operacji we/wy na sekundę (zależne od aprowizacji) 50 000 operacji we/wy na sekundę (zależne od aprowizacji) 20 000 operacji we/wy na sekundę
Maksymalna przepływność 10 340 MiB /s (zależne od aprowizacji) 5120 operacji we/wy na sekundę (zależne od aprowizacji) Maksymalnie limity kont magazynu
Maksymalna liczba migawek udziałów 200 migawek 200 migawek 200 migawek
Maksymalna długośćnazwy pliku 3 (pełna nazwa ścieżki, w tym wszystkie katalogi, nazwy plików i znaki ukośnika odwrotnego) 2048 znaków 2048 znaków 2048 znaków
Maksymalna długość pojedynczego składnikapathname 2 (w ścieżce \A\B\C\D każda litera reprezentuje katalog lub plik, który jest pojedynczym składnikiem) 255 znaków 255 znaków 255 znaków
Limit linków twardych (tylko system plików NFS) 178 Brak Brak
Maksymalna liczba kanałów SMB Multichannel 100 Brak Brak
Maksymalna liczba przechowywanych zasad dostępu na udział plików 5 5 5

3 Usługa Azure Files wymusza niektóre reguły nazewnictwa dla nazw katalogów i plików.

Wartości docelowe skalowania plików

Cele skalowania plików mają zastosowanie do poszczególnych plików przechowywanych w udziałach plików platformy Azure.

Atrybut Aprowizowany dysk SSD w wersji 1 Hdd aprowizowane w wersji 2 HDD z płatnością zgodnie z rzeczywistym użyciem
Maksymalna wielkość pliku 4 TiB 4 TiB 4 TiB
Maksymalna liczba operacji we/wy na sekundę danych na plik 8000 operacji we/wy na sekundę 1000 operacji we/wy na sekundę 1000 operacji we/wy na sekundę
Maksymalna przepływność na plik 1024 MiB / s 60 MiB /s 60 MiB /s
Maksymalna liczba współbieżnych dojść dla katalogu głównego 10 000 dojść 10 000 dojść 10 000 dojść
Maksymalna liczba współbieżnych dojść na plik i katalog 2000 dojść 2000 dojść 2000 dojść

Wskazówki dotyczące określania rozmiaru usługi Azure Files dla usługi Azure Virtual Desktop

Popularnym przypadkiem użycia usługi Azure Files jest przechowywanie kontenerów profilu użytkownika i obrazów dysków dla usługi Azure Virtual Desktop przy użyciu dołączania plików FSLogix lub App. W przypadku wdrożeń usługi Azure Virtual Desktop na dużą skalę można zabrakło dojść do katalogu głównego lub dla pliku/katalogu, jeśli używasz pojedynczego udziału plików platformy Azure. W tej sekcji opisano sposób obsługi używanych przez różne typy obrazów dysków i zawiera wskazówki dotyczące określania rozmiaru w zależności od używanej technologii.

FSLogix

Jeśli używasz programu FSLogix z usługą Azure Virtual Desktop, kontenery profilu użytkownika to pliki wirtualnego dysku twardego (VHD) lub wirtualnego dysku twardego funkcji Hyper-V (VHDX), a nie kontekst systemu. Każdy użytkownik otworzy jeden uchwyt katalogu głównego, który powinien być udziałem plików. Usługa Azure Files może obsługiwać maksymalnie 10 000 użytkowników przy założeniu, że masz udział plików () + katalog profilu (\\storageaccount.file.core.windows.net\sharename%sid%_%username%) i kontener profilu (profile_%username.vhd(x)).

Jeśli osiągniesz limit 10 000 współbieżnych dojść dla katalogu głównego lub użytkownicy widzą słabą wydajność, spróbuj użyć dodatkowego udziału plików platformy Azure i rozpowszechnić kontenery między udziałami.

Ostrzeżenie

Chociaż usługa Azure Files może obsługiwać maksymalnie 10 000 równoczesnych użytkowników z jednego udziału plików, ważne jest, aby prawidłowo przetestować obciążenia pod kątem rozmiaru i typu utworzonego udziału plików. Wymagania mogą się różnić w zależności od użytkowników, rozmiaru profilu i obciążenia.

Jeśli na przykład masz 2400 równoczesnych użytkowników, potrzebujesz 2400 dojść w katalogu głównym (jeden dla każdego użytkownika), co jest poniżej limitu 10 000 otwartych dojść. W przypadku użytkowników FSLogix osiągnięcie limitu 2000 otwartych dojść do plików i katalogów jest bardzo mało prawdopodobne. Jeśli masz jeden kontener profilów FSLogix na użytkownika, będziesz używać tylko dwóch dojść do plików/katalogów: jeden dla katalogu profilu i jeden dla pliku kontenera profilu. Jeśli użytkownicy mają dwa kontenery (profil i ODFC), potrzebujesz jednego dodatkowego dojścia dla pliku ODFC.

Dołączanie aplikacji za pomocą systemu cimFS

Jeśli używasz dołączania aplikacji MSIX lub dołączania aplikacji do dynamicznie dołączania aplikacji, możesz użyć złożonego systemu plików obrazów (CimFS) lub plików VHD/VHDX dla obrazów dysków. Tak czy inaczej, limity skalowania są na maszynę wirtualną instalowania obrazu, a nie na użytkownika. Liczba użytkowników nie ma znaczenia podczas obliczania limitów skalowania. Po uruchomieniu maszyny wirtualnej instaluje obraz dysku, nawet jeśli nie ma żadnych użytkowników.

Jeśli używasz dołączania aplikacji z systemem cimFS, obrazy dysków zużywają tylko dojścia do plików obrazów dysku. Nie używają dojść do katalogu głównego ani katalogu zawierającego obraz dysku. Jednak ponieważ obraz CimFS jest kombinacją pliku .cim i co najmniej dwóch innych plików, dla każdej maszyny wirtualnej instalowania obrazu dysku należy wykonać jedną obsługę dla trzech plików w katalogu. Jeśli więc masz 100 maszyn wirtualnych, będziesz potrzebować 300 dojść do plików.

Może zabraknie dojść do plików, jeśli liczba maszyn wirtualnych na aplikację przekroczy 2000. W takim przypadku użyj dodatkowego udziału plików platformy Azure.

Dołączanie aplikacji przy użyciu dysku VHD/VHDX

Jeśli używasz dołączania aplikacji z plikami VHD/VHDX, pliki są instalowane w kontekście systemu, a nie w kontekście użytkownika i są udostępniane i tylko do odczytu. Więcej niż jeden uchwyt w pliku VHDX może być używany przez system łączenia. Aby zachować limity skalowania usługi Azure Files, liczba maszyn wirtualnych pomnożonych przez liczbę aplikacji musi być mniejsza niż 10 000, a liczba maszyn wirtualnych na aplikację nie może przekroczyć 2000. Więc ograniczenie jest w zależności od tego, który trafisz jako pierwszy.

W tym scenariuszu można osiągnąć limit dla każdego pliku/katalogu z 2000 instalacji pojedynczego dysku VHD/VHDX. Jeśli udział zawiera wiele plików VHD/VHDX, najpierw można osiągnąć limit katalogu głównego. Na przykład 100 maszyn wirtualnych instalowania 100 udostępnionych plików VHDX osiągnie limit 10 000 obsługi katalogu głównego.

W innym przykładzie 100 maszyn wirtualnych, które uzyskują dostęp do 20 aplikacji, będzie wymagać 2000 dojść katalogu głównego (100 x 20 = 20000), które mieści się w granicach limitu 10 000 dla dojścia katalogu głównego. Potrzebujesz również dojścia do plików i uchwytu katalogu/folderu dla każdej maszyny wirtualnej instalowania obrazu VHD(X), więc 200 dojść w tym przypadku (100 dojść do plików + 100 dojść do katalogów), co jest wygodnie poniżej limitu 2000 dojść na plik/katalog.

Jeśli osiągasz limity maksymalnej liczby współbieżnych dojść dla katalogu głównego lub dla każdego pliku/katalogu, użyj dodatkowego udziału plików platformy Azure.

Cele skalowania usługi Azure File Sync

W poniższej tabeli przedstawiono, które obiekty docelowe są miękkie, reprezentujące przetestowaną granicę firmy Microsoft i twarde, wskazujące wymuszoną maksymalną wartość:

Zasób Cel Limit twardy
Usługi synchronizacji magazynu na region 100 usług synchronizacji magazynu Tak
Usługi synchronizacji magazynu na subskrypcję 15 usług synchronizacji magazynu Tak
Grupy synchronizacji na usługę synchronizacji magazynu 200 grup synchronizacji Tak
Zarejestrowane serwery na usługę synchronizacji magazynu 100 serwerów Tak
Prywatne punkty końcowe na usługę synchronizacji magazynu 100 prywatnych punktów końcowych Tak
Punkty końcowe w chmurze na grupę synchronizacji 1 punkt końcowy w chmurze Tak
Punkty końcowe serwera na grupę synchronizacji 100 punktów końcowych serwera Tak
Punkty końcowe serwera na serwer 30 punktów końcowych serwera Tak
Obiekty systemu plików (katalogi i pliki) na grupę synchronizacji 100 milionów obiektów Nie
Maksymalna liczba obiektów systemu plików (katalogów i plików) w katalogu (niecykliczne) 5 milionów obiektów Tak
Maksymalny rozmiar deskryptora zabezpieczeń obiektu (katalogów i plików) 64 KiB Tak
Rozmiar pliku 100 GiB Nie
Minimalny rozmiar pliku, który może być warstwowy Na podstawie rozmiaru klastra systemu plików (dwukrotność rozmiaru klastra systemu plików). Jeśli na przykład rozmiar klastra systemu plików to 4 KiB, minimalny rozmiar pliku to 8 KiB. Tak

Uwaga

Punkt końcowy usługi Azure File Sync może być skalowany w górę do rozmiaru udziału plików platformy Azure. Jeśli zostanie osiągnięty limit rozmiaru udziału plików platformy Azure, synchronizacja nie będzie mogła działać.

Metryki wydajności usługi Azure File Sync

Ponieważ agent usługi Azure File Sync działa na maszynie z systemem Windows Server, która łączy się z udziałami plików platformy Azure, efektywna wydajność synchronizacji zależy od wielu czynników w infrastrukturze: Windows Server i podstawowej konfiguracji dysku, przepustowości sieci między serwerem a usługą Azure Storage, rozmiarem pliku, całkowitym rozmiarem zestawu danych i działaniem w zestawie danych. Ponieważ funkcja Azure File Sync działa na poziomie pliku, właściwości wydajności rozwiązania opartego na technologii Azure File Sync powinny być mierzone przez liczbę obiektów (plików i katalogów) przetwarzanych na sekundę.

W przypadku funkcji Azure File Sync wydajność ma kluczowe znaczenie na dwóch etapach:

  1. Wstępna jednorazowa aprowizacja: Aby zoptymalizować wydajność wstępnej aprowizacji, zapoznaj się z tematem Dołączanie przy użyciu usługi Azure File Sync w celu uzyskania szczegółów optymalnego wdrożenia.
  2. Trwająca synchronizacja: Po początkowym zainicjowaniu danych w udziałach plików platformy Azure funkcja Azure File Sync utrzymuje wiele punktów końcowych w synchronizacji.

Uwaga

Gdy wiele punktów końcowych serwera w tej samej grupie synchronizacji jest synchronizowanych w tym samym czasie, walczą o zasoby usługi w chmurze. W związku z tym wydajność przekazywania ma wpływ na wydajność. W skrajnych przypadkach niektóre sesje synchronizacji nie będą mieć dostępu do zasobów i zakończy się niepowodzeniem. Jednak te sesje synchronizacji zostaną wznowione wkrótce i ostatecznie powiedzą się po zmniejszeniu przeciążenia.

Wyniki testów wewnętrznych

Aby ułatwić zaplanowanie wdrożenia dla każdego etapu (początkowa jednorazowa aprowizacja i ciągła synchronizacja), poniżej przedstawiono wyniki zaobserwowane podczas testów wewnętrznych w systemie z następującą konfiguracją:

Konfiguracja systemu Szczegóły
Procesor CPU 64 rdzenie wirtualne z pamięcią podręczną L3 o wielkości 64 MiB
Memory (Pamięć) 128 GiB
Dysk Dyski SAS z macierzą RAID 10 i pamięcią podręczną podtrzymywaną bateryjnie
Sieć Sieć 1 Gb/s
Obciążenie Serwer plików ogólnego przeznaczenia

Wstępna jednorazowa aprowizacja

Wstępna jednorazowa aprowizacja Szczegóły
Liczba obiektów 25 mln obiektów
Rozmiar zestawu danych ~4,7 TiB
Średni rozmiar pliku ~200 KiB (największy plik: 100 GiB)
Wstępne wyliczanie zmian w chmurze 80 obiektów na sekundę
Przepływność przekazywania 20 obiektów na sekundę na grupę synchronizacji
Przepływność pobierania przestrzeni nazw 400 obiektów na sekundę

Początkowa wyliczenie zmiany w chmurze: po utworzeniu nowej grupy synchronizacji początkowa wyliczenie zmiany w chmurze jest pierwszym krokiem, który jest wykonywany. W tym procesie system wylicza wszystkie elementy w udziale plików platformy Azure. W trakcie tego procesu nie będzie żadnych działań synchronizacji. Żadne elementy nie zostaną pobrane z punktu końcowego chmury do punktu końcowego serwera, a żadne elementy nie zostaną przekazane z punktu końcowego serwera do punktu końcowego chmury. Działanie synchronizacji zostanie wznowione po zakończeniu początkowego wyliczania zmian w chmurze.

Wydajność to 80 obiektów na sekundę. Możesz oszacować czas ukończenia początkowej wyliczenia zmiany w chmurze, określając liczbę elementów w udziale w chmurze i używając następującej formuły, aby uzyskać czas w dniach.

Czas (w dniach) dla początkowego wyliczenia w chmurze = (liczba obiektów w punkcie końcowym w chmurze)/(80 * 60 * 60 * 24)

Początkowa synchronizacja danych z systemu Windows Server do udziału plików platformy Azure: wie wdrożeń usługi Azure File Sync rozpoczyna się od pustego udziału plików platformy Azure, ponieważ wszystkie dane są w systemie Windows Server. W takich przypadkach początkowa wyliczenie zmiany w chmurze jest szybka, a większość czasu poświęca na synchronizowanie zmian z systemu Windows Server z udziałami plików platformy Azure.

Podczas synchronizacji przekazuje dane do udziału plików platformy Azure, nie ma przestoju na lokalnym serwerze plików, a administratorzy mogą skonfigurować limity sieciowe, aby ograniczyć przepustowość używaną do przekazywania danych w tle.

Synchronizacja początkowa jest zwykle ograniczona przez początkową szybkość przekazywania wynoszącą 20 plików na sekundę na grupę synchronizacji. Klienci mogą oszacować czas przekazywania wszystkich swoich danych na platformę Azure przy użyciu następującej formuły, aby uzyskać czas w dniach:

Czas (w dniach) przekazywania plików do grupy synchronizacji = (liczba obiektów w punkcie końcowym serwera)/(20 * 60 * 60 * 24)

Podzielenie danych na wiele punktów końcowych serwera i grup synchronizacji może przyspieszyć początkowe przekazywanie danych, ponieważ przekazywanie można wykonać równolegle dla wielu grup synchronizacji w tempie 20 elementów na sekundę każda. W związku z tym dwie grupy synchronizacji będą działać z łączną szybkością równą 40 elementów na sekundę. Łączny czas do ukończenia to szacowany czas dla grupy synchronizacji z największą liczbą plików do synchronizacji.

Przepływność pobierania przestrzeni nazw: po dodaniu nowego punktu końcowego serwera do istniejącej grupy synchronizacji agent usługi Azure File Sync nie pobiera żadnej zawartości pliku z punktu końcowego chmury. Najpierw synchronizuje on pełną przestrzeń nazw, a następnie wyzwala wycofanie w tle w celu pobrania plików w całości albo, jeśli włączono obsługę warstw w chmurze, do zasad obsługi warstw w chmurze ustawionych w punkcie końcowym serwera.

Bieżąca synchronizacja

Bieżąca synchronizacja Szczegóły
Liczba zsynchronizowanych obiektów 125 000 obiektów (współczynnik zmian danych ~1%)
Rozmiar zestawu danych 50 GiB
Średni rozmiar pliku ~500 KiB
Przepływność przekazywania 20 obiektów na sekundę na grupę synchronizacji
Przepływność pełnego pobierania* 60 obiektów na sekundę

*Jeśli obsługa warstw w chmurze jest włączona, prawdopodobnie zauważysz lepszą wydajność, ponieważ pobierane są tylko niektóre dane pliku. Usługa Azure File Sync pobiera dane buforowanych plików tylko wtedy, gdy zostaną zmienione w dowolnym punkcie końcowym. W przypadku wszystkich plików warstwowych lub nowo utworzonych agent nie pobiera danych pliku, a zamiast tego synchronizuje przestrzeń nazw tylko ze wszystkimi punktami końcowymi serwera. Agent obsługuje również częściowe pobieranie plików warstwowych w miarę uzyskiwania dostępu do nich przez użytkownika.

Uwaga

Te liczby nie są wskazaniem wydajności, która zostanie osiągnięta. Rzeczywista wydajność zależy od wielu czynników, jak opisano na początku tej sekcji.

W ogólnym przewodniku dotyczącym wdrażania należy pamiętać o kilku kwestiach:

  • Przepływność obiektu jest w przybliżeniu skalowana proporcjonalnie do liczby grup synchronizacji na serwerze. Podzielenie danych na wiele grup synchronizacji na serwerze zapewnia lepszą przepływność, która jest również ograniczona przez serwer i sieć.
  • Przepływność obiektu jest odwrotnie proporcjonalna do przepływności MiB na sekundę. W przypadku mniejszych plików będziesz mieć większą przepływność w zakresie liczby przetworzonych obiektów na sekundę, ale niższej przepływności MiB na sekundę. Z drugiej strony w przypadku większych plików uzyskasz mniej przetworzonych obiektów na sekundę, ale wyższą przepływność MiB na sekundę. Przepływność MiB na sekundę jest ograniczona przez cele skalowania usługi Azure Files.

Zobacz też