Freigeben über


Importieren von Geschäftsdaten mit Dem Azure-Blobimport (Vorschau)

Wichtig

Dieses Feature ist nur für Kunden in der öffentlichen Vorschau verfügbar. Features in der Vorschauversion sind möglicherweise nicht vollständig und können Änderungen durchlaufen, bevor sie in der breiteren Version verfügbar werden.

Das Hochladen von Geschäftsdaten in Viva Insights hilft Ihnen zu verstehen, wie die Copilot-Nutzung die Geschäftsergebnisse beeinflusst, die für Ihre organization am wichtigsten sind. Geschäftsergebnisse können Produktivitätsmetriken sowohl auf Aufgaben- als auch auf Auftragsebene enthalten, z. B. die Anzahl der von Ihrem Vertriebsteam gesendeten E-Mails oder die Anzahl der abgeschlossenen Deals. Weitere Informationen finden Sie in unserer separaten Dokumentation zum Copilot-Geschäftsergebnis (Copilot Business Impact).

Sie können Geschäftsdaten in die Advanced Insights-App der Microsoft Viva Insights auf zwei Arten hochladen: über einzelne .csv Dateien, die Sie als Insights-Administrator direkt in Viva Insights hochladen, oder über einen Azure-Blobimport, den Sie, Ihr Quellsystemadministrator und Ihr Azure Mitwirkender-Setup einrichten.

In diesem Artikel wird die zweite Option behandelt: Azure-Blobimport.

Bei einem Azure-Blobimport erstellt der Besitzer oder Mitwirkender des Speicherkontos Ihres Azure-Abonnements (mit rollenbasiertem Access Control Administrator) ein neues Speicherkonto mit Blobcontainer auf dem Azure-Portal, und Ihr Quellsystemadministrator konfiguriert einen regelmäßigen Export einer .csv-Datei an den Speicherort des Blobcontainers. Anschließend können Sie Viva Insights einrichten, um Geschäftsdaten automatisch aus der .csv-Datei an diesem Speicherort zu pullen.

Workflow

  1. Einstellung:

    1. Der Besitzer des Azure-Abonnements erstellt einen sicheren Blobcontainer auf dem Azure-Portal. Der Blobspeicherort sollte für vertrauliche Geschäftsdaten sicher sein und im Azure-Abonnement des Kunden eingerichtet werden.

    2. Wenn die Azure-Mitwirkender die Dienstprinzipalautorisierung bevorzugt, autorisiert der Azure-Mitwirkender den Dienstprinzipal und stellt die Blob-URL für den Insights-Administrator und den Quellsystemadministrator bereit, indem er sie auf sichere Weise freigibt. Wenn die Azure-Mitwirkender die Dienstprinzipalautorisierung nicht bevorzugt, wird eine SAS-URL generiert und dem Insights-Administrator und dem Quellsystemadministrator bereitgestellt.

    3. Der Quellsystemadministrator bereitet die Daten in einer .csv-Datei vor und konfiguriert einen regelmäßigen Export der Datei aus dem HR-Quellsystem in den Blobcontainer.

    4. Der Insights-Administrator gibt die URL in die Viva Insights-App ein, um den Import aus dem Azure-Blobspeicherort zu aktivieren. Die Insights-Admin lädt auch die Zuordnungsdatei für die Geschäftsdaten hoch.

  2. Validierung: Viva Insights überprüft die Daten. (Wenn die Überprüfung nicht erfolgreich ist, können Sie aus einigen Optionen wählen, die unter Überprüfungsfehler beschrieben werden.)

  3. Verarbeitung: Viva Insights verarbeitet die Daten. (Wenn die Verarbeitung nicht erfolgreich ist, können Sie aus einigen Optionen wählen, die unter Verarbeitungsfehler beschrieben werden.)

    Nachdem die Daten erfolgreich überprüft und verarbeitet wurden, ist der gesamte Datenimporttask abgeschlossen.

Videotutorial

Setup

1. Erstellen eines sicheren Blobcontainers

Gilt für: Azure-Abonnementbesitzer mit mindestens Berechtigungen für Mitwirkender an Storage-Blobdaten auf Kontoebene

  1. Öffnen Sie einen Browser, und melden Sie sich beim Azure-Portal Ihrer organization an.

  2. Wählen Sie unter Azure-Dienstedie Option Speicherkonten aus.

  3. Wählen Sie oben links unter Speicherkonten die Option Erstellen aus, um ein neues Speicherkonto einzurichten.

  4. Verwenden Sie unter Projektdetails die Standardeinstellungen.

  5. Geben Sie unter Instanzdetails einen Speicherkontonamen ein, und wählen Sie Ihre Region aus. Verwenden Sie für den primären Dienst ein Gen 2-Speicherkonto, das hierarchischen Namespace unterstützt. Erfahren Sie mehr über das Erstellen eines Azure-Speicherkontos.

  6. Für Leistung und Redundanz können Sie die Standardeinstellungen verwenden, es sei denn, Sie müssen Änderungen vornehmen.

  7. Wählen Sie unten Weiter aus, um zum Abschnitt Erweitert zu wechseln.

  8. Wählen Sie auf der Seite Erweitert die Option Sichere Übertragung für REST-API-Vorgänge erforderlich und Speicherkontoschlüsselzugriff aktivieren aus. Wählen Sie für "Tls-Mindestversion" mindestens Version 1.2 aus. Wählen Sie Hierarchischen Namespace aktivieren aus.

  9. Für alle anderen erweiterten Einstellungen können Sie die Standardeinstellungen verwenden, es sei denn, Sie müssen Änderungen vornehmen.

  10. Wählen Sie unten Weiter: Netzwerk aus.

  11. Wählen Sie unter Netzwerkkonnektivitätdie Option Öffentlichen Zugriff aus allen Netzwerken aktivieren aus.

  12. Wählen Sie unter Netzwerkrouting Ihre Routingpräferenz aus.

  13. Wählen Sie unten Weiter: Datenschutz aus.

  14. Auf der Seite Datenschutz können Sie die Standardeinstellungen verwenden, es sei denn, Sie müssen Änderungen vornehmen.

  15. Wählen Sie unten Weiter: Verschlüsselung aus.

  16. Auf der Seite Verschlüsselung können Sie die Standardeinstellungen verwenden, es sei denn, Sie müssen Änderungen vornehmen.

  17. Wählen Sie unten Weiter: Tags aus.

  18. Optional: Fügen Sie dem Konto Tags hinzu.

  19. Wählen Sie unten Weiter: Überprüfen aus.

  20. Überprüfen Sie Ihre Auswahl. Wählen Sie dann unten links Erstellen aus.

  21. Auf der nächsten Seite wird eine Meldung mit der Meldung "Bereitstellung wird ausgeführt" angezeigt. Nach Abschluss der Bereitstellung werden Ihr Speicherkonto und die zugehörigen Einstellungen angezeigt.

  22. Wählen Sie links unter Datenspeicher die Option Container aus.

  23. Um einen neuen Container zu erstellen, wählen Sie oben Container aus. Geben Sie dann auf der rechten Seite einen Namen für den Container ein, z. B. "myCustomData". Wählen Sie unten Erstellen aus.

2. Autorisieren des Blobcontainers

Gilt für: Azure-Abonnementbesitzer mit mindestens Berechtigungen für Mitwirkender an Storage-Blobdaten auf Kontoebene

Als Nächstes müssen Sie eine Blob-SAS-URL erstellen oder workplace Analytics-Dienstprinzipal autorisieren. Die Dienstprinzipalautorisierung ist der empfohlene und sicherere Ansatz. Das Blob-SAS-Token verfügt über keine integrierten Überwachungsfunktionen. Führen Sie die unten angegebenen Schritte für die von Ihnen ausgewählte Methode aus.

Für die Dienstprinzipalautorisierung

  1. Wählen Sie im linken Bereich Access Control aus.

  2. Wählen Sie oben Rollenzuweisungen aus. Wählen Sie Hinzufügen und dann Rollenzuweisung hinzufügen aus.

  3. Suchen Sie in der Liste der Rollen nach Mitwirkender an Storage-Blobdaten, und wählen Sie diese Option aus.

  4. Wählen Sie neben Mitglieder die Option Mitglieder auswählen aus. Geben Sie im Suchfeld auf der rechten Seite Workplace Analytics ein, und wählen Sie es aus.

  5. Wählen Sie unten links Überprüfen + zuweisen aus.

  6. Wählen Sie im linken Bereich unter Datenspeicher die Option Container aus.

  7. Wählen Sie den Speichercontainer aus, den Sie in den obigen Schritten erstellt haben.

  8. Wählen Sie im linken Bereich unter Einstellungen die Option Eigenschaften aus.

  9. Kopieren Sie die URL, und geben Sie sie sicher für den Insights-Administrator weiter.

  10. Informieren Sie den Quellsystemadministrator, wer die Daten in diesem Container auffüllt. Sie benötigen Zugriff auf Mitwirkender an Storage-Blobdaten.

Für SAS-URL-Autorisierung

  1. Wenn der von Ihnen erstellte neue Speichercontainer angezeigt wird, wählen Sie ihn aus. Wählen Sie dann links unter Einstellungendie Option Zugriffsrichtlinie aus.

  2. Wählen Sie unter Gespeicherte Zugriffsrichtlinien die Option Richtlinie hinzufügen aus. Geben Sie einen eindeutigen Bezeichner an, z. B. "BlobStoreVivaInsights". Wählen Sie Lese - und Listenberechtigungen aus. Wählen Sie eine Startzeit für einige Minuten in der Vergangenheit und eine Endzeit in einem Jahr aus. Wählen Sie OK aus.

  3. Wählen Sie links unter Einstellungen die Option Freigegebene Zugriffstoken aus.

  4. Sie können die Standardoption unter Signaturschlüssel verwenden. Wählen Sie unter Gespeicherte Zugriffsrichtlinie die oben erstellte Richtlinie aus. Dadurch werden das Ablauffenster und die Berechtigungsliste automatisch aufgefüllt.

  5. Für Zulässige IP-Adressen und Zulässige Protokolle können Sie die Standardeinstellungen verwenden.

  6. Wählen Sie SAS-Token und URL generieren aus.

  7. Kopieren Sie die Blob-SAS-URL, und geben Sie sie sicher für den Insights-Administrator weiter.

  8. Informieren Sie den Quellsystemadministrator, wer die Daten in diesem Container auffüllt. Sie benötigen Zugriff auf Mitwirkender an Storage-Blobdaten.

3. Einrichten von Viva Insights zum Importieren von Daten aus dem Blobspeicherort

Gilt für: Insights-Administrator

Geschäftsdaten verfügen wahrscheinlich über unterschiedliche Datenquellen und werden möglicherweise nach unterschiedlichen Zeitplänen aktualisiert. Metriken zur Kundenzufriedenheit und Vertriebsaktivität können beispielsweise unterschiedliche Quellsysteme und Quelladministratoren aufweisen. Sie sollten jeweils eine separate Blobverbindung einrichten, die Viva Insights als "Datasets" bezeichnet.

  1. Starten Sie den Import von einer von zwei Stellen in der Advanced Insights-App: der Seite Datenhub ; oder Geschäftsdatenseite unter Plattformeinrichtung.

    • Vom Datenhub:

      1. Wählen Sie im rechten Bereich unter Geschäftsdatenquellen die Option Azure-Blobimport aus.
      2. Klicken Sie auf Start.
    • Auf der Seite Geschäftsdaten :

      1. Wählen Sie Datenquellen verwalten und dann Azure-Blobimport aus.
      2. Klicken Sie auf Start.
  2. Geben Sie auf der Seite Azure Blob Connection unter Verbindungsname einen eindeutigen Namen für den Import ein.

  3. Wählen Sie unter Autorisierungstypdie Option Dienstprinzipalautorisierung oder SAS-URL-Autorisierung aus. Ihre Auswahl hängt von der Autorisierungsmethode ab, die von Ihrem Azure Mitwirkender oben in Schritt 2 verwendet wird.

  4. Geben Sie die Blob-SAS-URL oder die Blob-URL für den Import ein, der Ihnen vom Azure-Mitwirkender in Schritt 2 bereitgestellt wird.

  5. Laden Sie eine metadata.json-Datei mit den unten beschriebenen Eingaben hoch:

    • Geben Sie für inkrementelle Uploads und einfachen Zugriff auf diese Daten einen "Datasetnamen" und "Datasettyp" für dieses Dataset ein. Sie können beispielsweise zwei verschiedene Datasets aus Ihrem Vertriebsteam zur Kundenzufriedenheit und Kontobindung hochladen. Sie können diesen Datasets den Typ "Sales" zuweisen und sie "CSAT" und "Konto" nennen. Analysten können diese Daten ermitteln, indem sie beim Einrichten von Abfragen nach ihrem Namen und Typ suchen. Der Name und typ des Datasets dürfen keine Leerzeichen enthalten.

    • "Dataset type": Der Name der Datenkategorie, z. B. "Vertriebsdaten". Sie können jeden eindeutigen Typ mit Ausnahme dieser reservierten Systemtypen zuweisen: "Survey", "CRM," "Person", "Signal", "AnalystUploadedData", "UserSkills", "HeirarchicalSkills", "RelatedSkills", "SkillsLibrary", "ManagerHierarchy", "Learning", "None", "InteractiveExplorationPersonOutput", "None"

    • "Dataset name": Eindeutiger Name, der eine bestimmte Tabelle in der Datenkategorie darstellt. Falls Ihr Datasettyp "SalesData" heißt, könnte ein Beispieldataset "Deals", "Inventory" oder "Orders" sein.

    • "IsBootstrap": Dies ist standardmäßig auf False festgelegt. Legen Sie nur dann auf True fest, wenn Sie eine zuvor hochgeladene Tabelle überschreiben möchten (siehe Datasetname).

    • "ColumnMap": Fügen Sie zusätzlich zu den erforderlichen Feldern von PersonId und StartDate die benutzerdefinierten Felder aus Ihrer .csv-Datei ein. Für benutzerdefinierte Felder müssen Sie einen Namen und einen Datentyp einschließen.

      • Die für die Quellspalten "BusinessMetric1", "BusinessMetric2" und "BusinessMetric3" verwendeten Bezeichnungen sollten mit den Namen der Spalten in Ihrer .csv-Datei übereinstimmen.

      • Die Eigenschaft "name" sollte die Namen darstellen, die in der Berichtsausgabe widerzuspiegeln sein sollen. Stellen Sie sicher, dass die von Ihnen ausgewählten Bezeichnungen diesen Regeln entsprechen.

      • Sie haben zwei Optionen zum Angeben des "Typs":

        • Geben Sie "int32" ein, wenn Ihre Datenwerte aus ganzen Zahlen bestehen.
        • Geben Sie "double" ein, wenn Ihre Datenwerte Dezimalstellen enthalten.

    Hinweis

    Sie müssen numerische Geschäftsergebnisdaten hochladen, die in jedem der Berichte in Advanced Insights verwendet werden.

    Hier sehen Sie eine Beispielmetadatendatei:

    { 
      "DatasetType": "SalesData", 
      "IsBootstrap": "false", 
      "properties": { 
        "DatasetName":  "Deals" 
      }, 
      "ColumnMap": { 
        "StartDate": { 
          "name": "StartDate", 
          "type": "DateTime_MMDDYYYY" 
        }, 
        "PersonId": { 
          "name": "PersonId", 
          "type": "EmailType" 
        }, 
        "BusinessMetric1": { 
          "name": " Metric1", 
          "type": "int32" 
        }, 
        "BusinessMetric2": { 
          "name": " Metric2", 
          "type": "int32" 
        }, 
        "BusinessMetric3": { 
          "name": " Metric3", 
          "type": "double" 
        } 
      } 
    }
    

    Angenommen, Ihr Quellsystemadministrator verwendet "PipelineGenerated", um die Anzahl der erstellten Deals zu erfassen. Der Code würde wie folgt sein:

    "PipelineGenerated": { 
    
    "name": "DealsCreated", 
    
    "type": "int32" 
    
    } 
    

    Wenn Sie Ihre Daten hochladen, werden die Daten als "PipelineGenerated" des Ganzzahltyps aufgezeichnet. Stellen Sie sicher, dass Sie ein numerisches Ergebnis hochladen. Erfahren Sie mehr darüber, wie Sie Ihre Geschäftsdatendatei einrichten.

  6. Wählen Sie Senden aus.

  7. Wenn eine Fehlermeldung angezeigt wird, überprüfen Sie, ob Sie alle oben beschriebenen Schritte ausgeführt haben, und stellen Sie sicher, dass die eingegebene Blob-SAS-URL oder Blob-URL korrekt ist. Wählen Sie Wiederholen aus.

4. Vorbereiten der Geschäftsdatendatei und Senden an den Blobspeicher

Gilt für: Azure-Abonnementbesitzer mit mindestens Berechtigungen für Mitwirkender an Storage-Blobdaten auf Kontoebene

Aufgabe 1: Vorbereiten der Daten

Erstellen Sie zunächst eine separate .csv datei für jedes Dataset. Im Beispiel .csv Vorlage finden Sie Datenstruktur und Richtlinien, um häufige Probleme wie zu viele oder zu wenige eindeutige Werte, redundante Felder, ungültige Datenformate und vieles mehr zu vermeiden.  Erfahren Sie mehr über Dateiregeln und Validierungsfehler.

Strukturieren Sie die Daten auf diese Weise:

  • Hinzufügen aller Felder, die Sie der Datei importieren möchten

  • Pflichtfelder sind "PersonId" und "StartDate"

  • Alle Geschäftsdaten sollten monatlich und pro Person erfasst werden.

  • "StartDate" sollte die Daten eines Monats darstellen, und das Datum sollte den ersten des Monats darstellen. Beispielsweise sollte Januar 2024 als 1.01.2024 dargestellt werden. Es werden mindestens drei Monate Geschäftsdaten empfohlen.

  • Fügen Sie eine Spalte für jede Geschäftsergebnismetrik hinzu, die Sie analysieren möchten.

  • Sie müssen numerische Geschäftsergebnisdaten hochladen, die in jedem der Berichte in Advanced Insights verwendet werden.

Hinweis

Dateien, die vor der Verbindungserstellung und dem Hochladen der Zuordnung gelöscht werden, werden nicht von Viva Insights abgerufen. Stellen Sie daher sicher, dass Sie zuerst die Verbindung herstellen, bevor Sie die Datei löschen.

Aufgabe 2: Exportieren von Daten aus Dem Quellsystem in den Blobspeicher

Erforderliche Ressource: die in der vorherigen Aufgabe erstellte .csv-Datei

Exportieren Sie die Geschäftsdaten in der von Ihnen gewünschten Häufigkeit programmgesteuert aus Ihrem Quellsystem als .csv-Datei in Ihren Blobspeicher. Alternativ können Sie die .csv-Datei manuell im Azure-Portal in den Blobspeicher hochladen.

5. Validierung

Gilt für: Insights-Administrator

Nachdem der Quellsystemadministrator die Daten exportiert und Sie den Import eingerichtet haben, beginnt die App mit der Überprüfung. In den meisten Fällen sollte die Dateiüberprüfung schnell abgeschlossen werden.

Nach Abschluss dieser Phase ist die Überprüfung entweder erfolgreich oder fehlgeschlagen. Je nach Ergebnis erhalten Sie entweder eine erfolgreiche status oder einen Fehler status in der Tabelle "Importverlauf" in Geschäftsdaten. 

Informationen dazu, was als Nächstes geschieht, finden Sie im entsprechenden Abschnitt:

Überprüfung erfolgreich

Nach erfolgreicher Überprüfung beginnt Viva Insights mit der Verarbeitung Ihrer neuen Daten. Die Verarbeitung kann zwischen einigen Stunden und einem Tag dauern. Während der Verarbeitung wird in der Importverlaufstabelle der status "Verarbeitung" angezeigt.

Nach Abschluss der Verarbeitung ist sie entweder erfolgreich oder fehlgeschlagen. Je nach Ergebnis finden Sie in der Importverlaufstabelle entweder die status "Erfolg" oder "Fehler".

Die Verarbeitung ist erfolgreich.

Wenn Sie die status "Success" in der Tabelle Importverlauf finden, ist der Uploadvorgang abgeschlossen. Nachdem Sie die status "Success" erhalten haben, können Sie:

  • Wählen Sie das Ansichtssymbol (Auge) aus, um eine Zusammenfassung der Validierungsergebnisse anzuzeigen.

  • Wählen Sie das Zuordnungssymbol aus, um die Zuordnungseinstellungen für den Workflow anzuzeigen.

Fehler bei der Verarbeitung

Wenn bei der Verarbeitung ein Fehler auftritt, finden Sie in der Tabelle Importverlauf den status "Verarbeitungsfehler". Damit die Verarbeitung erfolgreich ist, muss der Quellsystemadministrator Fehler korrigieren und die Daten erneut an Viva Insights pushen.

Hinweis

Verarbeitungsfehler sind im Allgemeinen auf Back-End-Fehler zurückzuführen. Wenn dauerhafte Verarbeitungsfehler auftreten und Sie die Daten in Ihrer importierten Datei korrigiert haben, melden Sie ein Supportticket bei uns an.

Fehler bei der Überprüfung

Wenn die Datenüberprüfung fehlschlägt, wird in der Tabelle Importverlauf die status "Überprüfung fehlgeschlagen" angezeigt. Damit die Überprüfung erfolgreich ist, muss der Quellsystemadministrator Fehler korrigieren und die Daten erneut an den Blobspeicher senden. Wählen Sie unter Aktionen das Downloadsymbol aus, um ein Fehlerprotokoll herunterzuladen. Senden Sie dieses Protokoll an den Quellsystemadministrator, damit er weiß, was vor dem erneuten Senden der Daten korrigiert werden muss.

Der Quellsystemadministrator kann den folgenden Abschnitt hilfreich finden, um Datenfehler in seiner Exportdatei zu beheben.

Informationen zu Fehlern in Daten

Gilt für: Quellsystemadministrator

Wenn eine Datenzeile oder Spalte einen ungültigen Wert für ein Attribut aufweist, schlägt der gesamte Import fehl, bis der Datenquellenadministrator die Quelldaten korrigiert.

Im Folgenden finden Sie einige importspezifische Fehler, die auftreten können, wenn Ihre Dateien nicht richtig formatiert sind:

  • Die .csv Datei ist leer. Fügen Sie eine nicht leere .csv-Datei hinzu, und laden Sie sie erneut hoch.

  • Wenn eine ZIP-Datei an den Blobspeicherort hochgeladen wird, laden Sie stattdessen eine .csv hoch.

  • Wenn Pflichtfelder in der .json-Datei fehlen, überprüfen Sie die Zuordnungsdatei, und laden Sie sie erneut hoch.

  • Die Quellspalte ist keinem unterstützten Datentyp zugeordnet. Ordnen Sie einem unterstützten Datentyp zu, und laden Sie die Datei erneut hoch.

  • Die Headernamen in der .csv-Datei stimmen nicht mit den Feldern überein, die Sie in der .json-Datei zugeordnet haben. Stellen Sie sicher, dass die .json-Datei die gleichen Felder wie die .csv-Datei enthält, und laden Sie die .zip Datei erneut hoch.

  • Die Anzahl der Header in der .csv-Datei stimmt nicht mit den Feldern überein, die Sie in der .json-Datei zugeordnet haben. Stellen Sie sicher, dass die .json-Datei die gleichen Felder wie die .csv-Datei enthält, und laden Sie die .zip Datei erneut hoch.

  • Ihre .csv-Datei ist einem NULL- oder leeren Feld in Ihrer .json-Datei zugeordnet. Ordnen Sie es einem nicht leeren Feld zu, und laden Sie die .zip Datei erneut hoch.

  • Erfahren Sie mehr über andere Dateiregeln und Validierungsfehler.

Angehaltener Zustand

Wenn in der Tabelle "Importverlauf" die status "Angehalten" angezeigt wird oder Wenn Sie Datenquellen verwalten auswählen, bedeutet dies, dass Ihre Autorisierungsanmeldeinformationen abgelaufen sind oder der Zugriff widerrufen wurde. Sie müssen Ihre Anmeldeinformationen aktualisieren und die Datenquelle erneut verbinden.

Hinzufügen neuer Daten und Verwalten von Datasets

Gilt für: Insights-Administrator

Nachdem Sie Den Datenimport eingerichtet haben, führen Sie die folgenden Schritte aus, um einem vorhandenen Dataset neue Daten hinzuzufügen, ein neues Dataset zu erstellen, automatisierte Importe zu deaktivieren und vieles mehr.

  1. Wählen Sie auf der Seite Geschäftsdaten die Option Datenquellen verwalten aus.

  2. Wählen Sie unter Azure-Blobdie Option Verwalten aus.

    • Um ein neues Dataset hinzuzufügen, wählen Sie Dataset hinzufügen aus, und führen Sie den oben in Schritt 3 beschriebenen Prozess aus.

    • Um ein Dataset zu löschen, wählen Sie neben dem Dataset, das Sie löschen möchten, das Papierkorbsymbol aus.

    • Um Änderungen an einem vorhandenen Dataset vorzunehmen, wählen Sie das Einstellungssymbol aus.

    • Um einem vorhandenen Dataset neue Daten hinzuzufügen, wählen Sie das Plussymbol neben dem Dataset aus.

    Auf der nächsten Seite können Sie den Verbindungsnamen, die Blob-SAS-URL oder die Blob-URL bearbeiten. Wenn Sie die SAS-URL oder den URI aktualisieren, wird der neue Speicherort für zukünftige Datenaktualisierungen verwendet.

    Sie können automatisierte Importe auch aktivieren oder deaktivieren. Wenn Sie fertig sind, klicken Sie auf Speichern.

    Wenden Sie sich an ihren Quellsystemadministrator, um die Geschäftsdaten mithilfe der vorhandenen Blob-SAS-URL oder Blob-URL zu ersetzen oder zu bearbeiten. Wenn Sie Daten in Viva Insights importieren, führen Sie entweder eine vollständige oder eine inkrementelle Aktualisierung durch. Wenn Sie Felder löschen möchten, können Sie dazu eine vollständige Aktualisierung verwenden.

Aktualisierungstypen

Vollständig

Wenn Sie eine vollständige Aktualisierung durchführen, ersetzen Sie alle Ihre Geschäftsdaten in Viva Insights, d. h., Sie überschreiben, was Sie bereits importiert haben. Die erforderlichen Felder sind PersonId und StartDate.

Sie können eine vollständige Aktualisierung verwenden, um Felder zu löschen, da Felder, die Sie weglassen, nicht in Ihren Daten angezeigt werden. Das Löschen von Daten wird im nächsten Abschnitt behandelt.

Löschen von Feldern mit vollständigen Aktualisierungen

Um Felder mit einer vollständigen Aktualisierung zu löschen, exportieren Sie Ihre Daten als .csv, die alle Felder mit Ausnahme der Felder enthält, die Sie löschen möchten. Da eine vollständige Aktualisierung vorhandene Daten ersetzt, erhalten Sie am Ende jedes Feld mit Ausnahme der Felder, die Sie beim Import ausgelassen haben.

Inkrementell

Führen Sie eine inkrementelle Aktualisierung durch, wenn Sie geschäftsdaten, die Sie bereits in Viva Insights hochgeladen haben, nur neue Informationen hinzufügen möchten. Mit einer inkrementellen Aktualisierung können Sie neue Geschäftsdaten für vorhandene Mitarbeiter hinzufügen oder vorhandene Geschäftsdaten bearbeiten.

Angeben einer vollständigen oder inkrementellen Aktualisierung
  1. Wechseln Sie metadata.json zu Zeile 3.

  2. Aktualisieren Sie die "IsBootstrap"Eigenschaft : auf eine der folgenden Eigenschaften:

    • Verwenden Sie "IsBootstrap" : "true"für eine vollständige Aktualisierung .

    • Verwenden Sie "IsBootstrap" : "false"für eine inkrementelle Aktualisierung .

Wenn Ihre Importoption ausgeführt wird, beginnt Viva Insights, Ihre Daten entweder als vollständige oder inkrementelle Aktualisierung zu verarbeiten, je nachdem, was Sie hier in metadata.json angegeben haben.

Wichtig

Stellen Sie sicher, dass Sie alle Felder aus metadata.json löschen, die Sie nicht in Ihre data.csv-Datei einschließen. Wenn ihre metadata.json-Datei mehr Felder enthält als in Ihrer data.csv-Datei (oder umgekehrt), schlägt die Verarbeitung für Den Import fehl.

Felder, die in data.csv für vollständige und inkrementelle Aktualisierungen eingeschlossen werden sollen

Sowohl vollständige als auch inkrementelle Aktualisierungen sollten denselben Satz erforderlicher Felder enthalten: PersonId und StartDate. Der StartDate-Wert sollte an monatlichen Grenzen ausgerichtet werden. Entfernen Sie alle Felder, die in Ihrem .csv nicht vorhanden sind, aus Der Metadatendatei .json.