Udostępnij za pośrednictwem


Przyrostowe kopiowanie nowych i zmienionych plików na podstawie funkcji LastModifiedDate przy użyciu narzędzia do kopiowania danych

DOTYCZY: Azure Data Factory Azure Synapse Analytics

Napiwek

Wypróbuj usługę Data Factory w usłudze Microsoft Fabric — rozwiązanie analityczne typu all-in-one dla przedsiębiorstw. Usługa Microsoft Fabric obejmuje wszystko, od przenoszenia danych do nauki o danych, analizy w czasie rzeczywistym, analizy biznesowej i raportowania. Dowiedz się, jak bezpłatnie rozpocząć nową wersję próbną !

W tym samouczku utworzysz fabrykę danych przy użyciu witryny Azure Portal. Następnie użyjesz narzędzia do kopiowania danych, aby utworzyć potok, który przyrostowo kopiuje tylko nowe i zmienione pliki z usługi Azure Blob Storage do usługi Azure Blob Storage. Używa LastModifiedDate go do określenia plików do skopiowania.

Po wykonaniu kroków opisanych w tym miejscu usługa Azure Data Factory przeskanuje wszystkie pliki w magazynie źródłowym, zastosuje filtr plików według LastModifiedDate, a następnie skopiuje do magazynu docelowego tylko pliki, które są nowe lub zostały zaktualizowane od czasu ostatniego. Należy pamiętać, że jeśli usługa Data Factory skanuje dużą liczbę plików, nadal należy oczekiwać długich czasów trwania. Skanowanie plików jest czasochłonne, nawet jeśli ilość skopiowanych danych zostanie zmniejszona.

Uwaga

Jeśli jesteś nowym użytkownikiem usługi Data Factory, zobacz Wprowadzenie do usługi Azure Data Factory.

W tym samouczku wykonasz następujące zadania:

  • Tworzenie fabryki danych.
  • Tworzenie potoku za pomocą narzędzia do kopiowania danych.
  • Monitorowanie uruchomień potoku i działań.

Wymagania wstępne

  • Subskrypcja platformy Azure: jeśli nie masz subskrypcji platformy Azure, przed rozpoczęciem utwórz bezpłatne konto.
  • Konto usługi Azure Storage: użyj usługi Blob Storage dla magazynów danych źródłowych i ujścia. Jeśli nie masz konta usługi Azure Storage, postępuj zgodnie z instrukcjami w temacie Tworzenie konta magazynu.

Tworzenie dwóch kontenerów w usłudze Blob Storage

Przygotuj magazyn obiektów blob na potrzeby samouczka, wykonując następujące czynności:

  1. Utwórz kontener o nazwie source. Do wykonania tego zadania można użyć różnych narzędzi, takich jak Eksplorator usługi Azure Storage.

  2. Utwórz kontener o nazwie destination.

Tworzenie fabryki danych

  1. W okienku po lewej stronie wybierz pozycję Utwórz zasób. Wybierz pozycję Integracja z usługą>Data Factory:

    Wybieranie fabryki danych

  2. Na stronie Nowa fabryka danych w polu Nazwa wprowadź wartość ADFTutorialDataFactory.

    Nazwa Twojej fabryki danych musi być globalnie unikatowa. Może zostać wyświetlony następujący komunikat o błędzie:

    Nowy komunikat o błędzie fabryki danych dla zduplikowanej nazwy.

    Jeśli zostanie wyświetlony komunikat o błędzie dotyczącym wartości nazwy, wprowadź inną nazwę dla fabryki danych. Na przykład użyj nazwy twojanazwaADFTutorialDataFactory. Artykuł Data Factory naming rules (Zasady nazewnictwa fabryki danych) zawiera zasady nazewnictwa artefaktów usługi Data Factory.

  3. W obszarze Subskrypcja wybierz subskrypcję platformy Azure, w której utworzysz nową fabrykę danych.

  4. W obszarze Grupa zasobów wykonaj jedną z następujących czynności:

    • Wybierz pozycję Użyj istniejącej , a następnie wybierz istniejącą grupę zasobów na liście.

    • Wybierz pozycję Utwórz nową , a następnie wprowadź nazwę grupy zasobów.

    Informacje na temat grup zasobów znajdują się w artykule Using resource groups to manage your Azure resources (Używanie grup zasobów do zarządzania zasobami platformy Azure).

  5. W obszarze Wersja wybierz pozycję V2.

  6. W obszarze Lokalizacja wybierz lokalizację fabryki danych. Na liście są wyświetlane tylko obsługiwane lokalizacje. Magazyny danych (na przykład Usługi Azure Storage i Azure SQL Database) i obliczenia (na przykład Usługa Azure HDInsight), których używa fabryka danych, mogą znajdować się w innych lokalizacjach i regionach.

  7. Wybierz pozycję Utwórz.

  8. Po utworzeniu fabryki danych zostanie wyświetlona strona główna fabryki danych.

  9. Aby otworzyć interfejs użytkownika usługi Azure Data Factory na osobnej karcie, wybierz pozycję Otwórz na kafelku Otwórz usługę Azure Data Factory Studio :

    Strona główna usługi Azure Data Factory z kafelkiem Otwórz usługę Azure Data Factory Studio.

Tworzenie potoku za pomocą narzędzia do kopiowania danych

  1. Na stronie głównej usługi Azure Data Factory wybierz kafelek Pozyskiwanie , aby otworzyć narzędzie do kopiowania danych:

    Zrzut ekranu przedstawiający stronę główną usługi ADF.

  2. Na stronie Właściwości wykonaj następujące czynności:

    1. W obszarze Typ zadania wybierz pozycję Wbudowane zadanie kopiowania.

    2. W obszarze Harmonogram zadań lub harmonogram zadań wybierz pozycję Okno wirowania.

    3. W obszarze Cykl wprowadź wartość 15 minut.

    4. Wybierz Dalej.

    Strona kopiowania właściwości danych

  3. Na stronie Źródłowy magazyn danych wykonaj następujące kroki:

    1. Wybierz pozycję + Nowe połączenie , aby dodać połączenie.

    2. Wybierz pozycję Azure Blob Storage z galerii, a następnie wybierz pozycję Kontynuuj:

      Wybieranie usługi Azure Blog Storage

    3. Na stronie Nowe połączenie (Azure Blob Storage) wybierz swoją subskrypcję platformy Azure z listy subskrypcji platformy Azure i konto magazynu z listy Nazwa konta usługi Storage. Przetestuj połączenie, a następnie wybierz pozycję Utwórz.

    4. Wybierz nowo utworzone połączenie w bloku Połączenie .

    5. W sekcji Plik lub folder wybierz pozycję Przeglądaj i wybierz folder źródłowy, a następnie wybierz przycisk OK.

    6. W obszarze Zachowanie ładowania pliku wybierz pozycję Ładowanie przyrostowe: LastModifiedDate i wybierz pozycję Kopia binarna.

    7. Wybierz Dalej.

    Zrzut ekranu przedstawiający stronę

  4. Na stronie Docelowy magazyn danych wykonaj następujące kroki:

    1. Wybierz utworzone połączenie AzureBlobStorage. Jest to to samo konto magazynu co źródłowy magazyn danych.

    2. W sekcji Ścieżka folderu wyszukaj i wybierz folder docelowy, a następnie wybierz przycisk OK.

    3. Wybierz Dalej.

    Zrzut ekranu przedstawiający stronę

  5. Na stronie Ustawienia w obszarze Nazwa zadania wprowadź wartość DeltaCopyFromBlobPipeline, a następnie wybierz pozycję Dalej. Usługa Data Factory tworzy potok o określonej nazwie zadania.

    Zrzut ekranu przedstawiający stronę Ustawienia.

  6. Na stronie Podsumowanie przejrzyj ustawienia, a następnie wybierz pozycję Dalej.

    Strona podsumowania

  7. Na stronie Wdrażanie wybierz pozycję Monitorowanie, aby monitorować potok (zadanie).

    Strona Wdrażanie

  8. Zwróć uwagę, że karta Monitor po lewej stronie jest automatycznie wybrana. Aplikacja przełącza się na kartę Monitorowanie . Zostanie wyświetlony stan potoku. Wybierz pozycję Odśwież, aby odświeżyć listę. Wybierz link w obszarze Nazwa potoku, aby wyświetlić szczegóły uruchomienia działania lub ponownie uruchomić potok.

    Odśwież listę i wyświetl szczegóły przebiegu działania

  9. W potoku istnieje tylko jedno działanie (działanie kopiowania), więc zobaczysz tylko jeden wpis. Aby uzyskać szczegółowe informacje na temat operacji kopiowania, na stronie Uruchomienia działania wybierz link Szczegóły (ikona okularów) w kolumnie Nazwa działania. Aby uzyskać szczegółowe informacje o właściwościach, zobacz działanie Kopiuj omówienie.

    działanie Kopiuj w potoku

    Ponieważ na koncie usługi Blob Storage nie ma żadnych plików w kontenerze źródłowym, nie zobaczysz żadnych plików skopiowanych do kontenera docelowego na koncie:

    Brak plików w kontenerze źródłowym lub kontenerze docelowym

  10. Utwórz pusty plik tekstowy i nadaj mu nazwę file1.txt. Przekaż ten plik tekstowy do kontenera źródłowego na koncie magazynu. Możesz użyć różnych narzędzi do wykonywania tych zadań, takich jak Eksplorator usługi Azure Storage.

    Tworzenie file1.txt i przekazywanie go do kontenera źródłowego

  11. Aby wrócić do widoku Uruchomienia potoku, wybierz link Wszystkie uruchomienia potoku w menu linku do stron nadrzędnych na stronie Uruchomienia działania i poczekaj na automatyczne wyzwolenie tego samego potoku.

  12. Po zakończeniu drugiego uruchomienia potoku wykonaj te same kroki, o których wspomniano wcześniej, aby przejrzeć szczegóły przebiegu działania.

    Zobaczysz, że jeden plik (file1.txt) został skopiowany z kontenera źródłowego do kontenera docelowego konta usługi Blob Storage:

    file1.txt został skopiowany z kontenera źródłowego do kontenera docelowego

  13. Utwórz kolejny pusty plik tekstowy i nadaj mu nazwę file2.txt. Przekaż ten plik tekstowy do kontenera źródłowego na koncie usługi Blob Storage.

  14. Powtórz kroki 11 i 12 dla drugiego pliku tekstowego. Zobaczysz, że podczas tego uruchomienia potoku skopiowano tylko nowy plik (file2.txt) z kontenera źródłowego do kontenera docelowego konta magazynu.

    Możesz również sprawdzić, czy skopiowano tylko jeden plik, używając Eksplorator usługi Azure Storage do skanowania plików:

    Skanowanie plików przy użyciu Eksplorator usługi Azure Storage

Przejdź do następującego samouczka, aby dowiedzieć się, jak przekształcać dane przy użyciu klastra Apache Spark na platformie Azure: