Sdílet prostřednictvím


Použití modelů založených na Azure Machine Learning

Sjednocená data v Dynamics 365 Customer Insights - Data jsou zdrojem pro vytváření modelů strojového učení, které mohou generovat další obchodní poznatky. Řešení Customer Insights - Data je integrováno s Azure Machine Learning, abyste mohli používat vaše vlastní modely.

Předpoklady

Nastavení pracovního prostoru Azure Machine Learning

  1. V části zabývající se vytvořením pracovního prostoru Azure Machine Learning najdete různé možnosti vytvoření pracovního prostoru. Pro nejlepší výkon vytvořte pracovní prostor v oblasti Azure, která je geograficky nejblíže vašemu prostředí Customer Insights.

  2. Ke svému pracovnímu prostoru přistupujte prostřednictvím Azure Machine Learning Studio. Existuje několik způsobů interakce s vaším pracovním prostorem.

Práce s návrhářem Azure Machine Learning

Návrhář Azure Machine Learning poskytuje vizuální plátno, kde můžete přetahovat datové sady a moduly. Dávkový kanál vytvořený v návrháři lze integrovat do aplikace Customer Insights - Data, pokud je odpovídajícím způsobem nakonfigurována.

Práce s Azure Machine Learning SDK

Datoví vědci a vývojáři AI používají Azure Machine Learning SDK k vytvoření pracovních postupů strojového učení. V současné době nelze modely vytrénované pomocí SDK integrovat přímo. Pro integraci s Customer Insights - Data je vyžadován dávkový odvozovací kanál, který tento model spotřebovává.

Požadavky na dávkový kanál pro integraci s Customer Insights - Data

Konfigurace datové sady

Vytváření datových sady pro použití dat tabulky z Customer Insights ve vašem dávkovém odvozovacím kanálu. Zaregistrujte tyto datové sady v pracovním prostoru. V současné době podporujeme pouze tabulkové datové sady ve formátu CSV. Parametrizujte datové sady, které odpovídají datům tabulky, jako parametr kanálu.

  • Parametry datové sady v návrháři

    V návrháři otevřete Výběr sloupců v datové sadě a vyberte Nastavit jako parametr kanálu, kde zadáte název parametru.

    Parametrizace datové sady v návrháři.

  • Parametr datové sady v SDK (Python)

    HotelStayActivity_dataset = Dataset.get_by_name(ws, name='Hotel Stay Activity Data')
    HotelStayActivity_pipeline_param = PipelineParameter(name="HotelStayActivity_pipeline_param", default_value=HotelStayActivity_dataset)
    HotelStayActivity_ds_consumption = DatasetConsumptionConfig("HotelStayActivity_dataset", HotelStayActivity_pipeline_param)
    

Dávkový odvozovací kanál

  • V návrháři tréninkový kanál použijte k vytvoření nebo aktualizaci odvozovacího kanálu. V současné době jsou podporovány pouze dávkové odvozovací kanály.

  • Pomocí sady SDK publikujte kanál v koncovém bodě. V současné době se Customer Insights - Data integruje s výchozím kanálem v koncovém bodu dávkového kanálu v pracovním prostoru Azure Machine Learning.

    published_pipeline = pipeline.publish(name="ChurnInferencePipeline", description="Published Churn Inference pipeline")
    pipeline_endpoint = PipelineEndpoint.get(workspace=ws, name="ChurnPipelineEndpoint") 
    pipeline_endpoint.add_default(pipeline=published_pipeline)
    

Importu dat kanálu

  • Návrhář poskytuje modul exportu dat, který umožňuje export výstupu kanálu do úložiště Azure. V současné době musí modul používat typ úložiště dat Azure Blob Storage a parametrizovat Úložiště dat a relativní Cestu. Systém přepíše oba tyto parametry během provádění kanálu datovým úložištěm a cestou, která je pro aplikaci přístupná.

    Konfigurace modulu exportu dat.

  • Při psaní výstupu odvození pomocí kódu můžete výstup odeslat na cestu v rámci registrovaného datového úložiště v pracovním prostoru. Pokud jsou cesta a datové úložiště parametrizovány v kanálu, aplikace Customer Insights může číst a importovat výstup odvození. V současné době je podporován jeden tabulkový výstup ve formátu CSV. Cesta musí zahrnovat adresář a název souboru.

    # In Pipeline setup script
        OutputPathParameter = PipelineParameter(name="output_path", default_value="HotelChurnOutput/HotelChurnOutput.csv")
        OutputDatastoreParameter = PipelineParameter(name="output_datastore", default_value="workspaceblobstore")
    ...
    # In pipeline execution script
        run = Run.get_context()
        ws = run.experiment.workspace
        datastore = Datastore.get(ws, output_datastore) # output_datastore is parameterized
        directory_name =  os.path.dirname(output_path)  # output_path is parameterized.
    
        # Datastore.upload() or Dataset.File.upload_directory() are supported methods to uplaod the data
        # datastore.upload(src_dir=<<working directory>>, target_path=directory_name, overwrite=False, show_progress=True)
        output_dataset = Dataset.File.upload_directory(src_dir=<<working directory>>, target = (datastore, directory_name)) # Remove trailing "/" from directory_name