Delen via


Aanbevolen procedures voor beveiligde code

In Azure Machine Learning kunt u bestanden en inhoud van elke bron uploaden naar Azure. Inhoud in Jupyter-notebooks of scripts die u laadt, kan mogelijk gegevens lezen uit uw sessies, toegang krijgen tot gevoelige gegevens binnen uw organisatie in Azure of namens u schadelijke processen uitvoeren.

Belangrijk

Voer alleen notebooks of scripts uit van vertrouwde bronnen. Bijvoorbeeld, waar u of uw beveiligingsteam het notitieblok of script hebben beoordeeld.

Mogelijke bedreigingen

Ontwikkeling met Azure Machine Learning omvat vaak webomgevingen, zoals notebooks of de Azure Machine Learning-studio. Wanneer u webgebaseerde ontwikkelomgevingen gebruikt, zijn de mogelijke bedreigingen:

  • Cross-site scripting (XSS)

    • DOM-injectie: Dit type aanval kan de gebruikersinterface wijzigen die wordt weergegeven in de browser. Door bijvoorbeeld te wijzigen hoe de knop Uitvoeren zich gedraagt in een Jupyter Notebook.
    • Toegangstoken of cookies: XSS-aanvallen hebben ook toegang tot lokale opslag- en browsercookies. Uw Microsoft Entra-verificatietoken wordt opgeslagen in de lokale opslag. Een XSS-aanval kan dit token gebruiken om NAMENS u API-aanroepen uit te voeren en de gegevens vervolgens naar een extern systeem of API te verzenden.
  • Aanvraagvervalsing op meerdere sites (CSRF):deze aanval kan de URL van een afbeelding of koppeling vervangen door de URL van een schadelijk script of API. Wanneer de afbeelding is geladen of op een koppeling is geklikt, wordt er een aanroep naar de URL uitgevoerd.

Azure Machine Learning-studio notitieblokken

Azure Machine Learning-studio biedt een gehoste notebookervaring in uw browser. Cellen in een notebook kunnen HTML-documenten of -fragmenten uitvoeren die schadelijke code bevatten. Wanneer de uitvoer wordt weergegeven, kan de code worden uitgevoerd.

Mogelijke bedreigingen:

  • Cross-site scripting (XSS)
  • Aanvraagvervalsing op meerdere sites (CSRF)

Oplossingen die worden geboden door Azure Machine Learning:

  • Uitvoer van codecellen wordt in een sandbox geplaatst in een iframe. Het iframe voorkomt dat het script toegang heeft tot de bovenliggende DOM, cookies of sessieopslag.
  • De inhoud van Markdown-cellen wordt opgeschoond met behulp van de dompurify-bibliotheek. Hierdoor worden schadelijke scripts niet uitgevoerd met Markdown-cellen.
  • Afbeeldings-URL en Markdown-koppelingen worden verzonden naar een eindpunt dat eigendom is van Microsoft, waarmee wordt gecontroleerd op schadelijke waarden. Als er een schadelijke waarde wordt gedetecteerd, weigert het eindpunt de aanvraag.

Aanbevolen acties:

  • Controleer of u de inhoud van bestanden vertrouwt voordat u uploadt naar de studio. U moet bevestigen dat u vertrouwde bestanden uploadt.
  • Wanneer u een koppeling selecteert om een externe toepassing te openen, wordt u gevraagd de toepassing te vertrouwen.

Azure Machine Learning-rekeninstantie

Azure Machine Learning-rekenproces host Jupyter en JupyterLab. Wanneer u een van beide gebruikt, kan code in notebookcellen HTML-documenten of -fragmenten uitvoeren die schadelijke code bevatten. Wanneer de uitvoer wordt weergegeven, kan de code worden uitgevoerd. Dezelfde bedreigingen gelden wanneer u RStudio of Posit Workbench (voorheen RStudio Workbench) gebruikt die wordt gehost op een rekenproces.

Mogelijke bedreigingen:

  • Cross-site scripting (XSS)
  • Aanvraagvervalsing op meerdere sites (CSRF)

Oplossingen die worden geboden door Azure Machine Learning:

  • Geen. Jupyter en JupyterLab zijn opensource-toepassingen die worden gehost op het Azure Machine Learning-rekenproces.

Aanbevolen acties:

  • Controleer of u de inhoud van bestanden vertrouwt voordat u uploadt. U moet bevestigen dat u vertrouwde bestanden uploadt.

Beveiligingsproblemen of problemen melden

Azure Machine Learning komt in aanmerking voor het Microsoft Azure Bounty-programma. U vindt meer informatie op https://www.microsoft.com/msrc/bounty-microsoft-azure.