Použití modelů založených na Azure Machine Learning
Sjednocená data v Dynamics 365 Customer Insights - Data jsou zdrojem pro vytváření modelů strojového učení, které mohou generovat další obchodní poznatky. Řešení Customer Insights - Data je integrováno s Azure Machine Learning, abyste mohli používat vaše vlastní modely.
Předpoklady
- Přístup k Customer Insights - Data
- Aktivní předplatné Azure Enterprise
- Sjednocené profily zákazníka
- Export tabulek do úložiště Azure Blob nakonfigurován
Nastavení pracovního prostoru Azure Machine Learning
V části zabývající se vytvořením pracovního prostoru Azure Machine Learning najdete různé možnosti vytvoření pracovního prostoru. Pro nejlepší výkon vytvořte pracovní prostor v oblasti Azure, která je geograficky nejblíže vašemu prostředí Customer Insights.
Ke svému pracovnímu prostoru přistupujte prostřednictvím Azure Machine Learning Studio. Existuje několik způsobů interakce s vaším pracovním prostorem.
Práce s návrhářem Azure Machine Learning
Návrhář Azure Machine Learning poskytuje vizuální plátno, kde můžete přetahovat datové sady a moduly. Dávkový kanál vytvořený v návrháři lze integrovat do aplikace Customer Insights - Data, pokud je odpovídajícím způsobem nakonfigurována.
Práce s Azure Machine Learning SDK
Datoví vědci a vývojáři AI používají Azure Machine Learning SDK k vytvoření pracovních postupů strojového učení. V současné době nelze modely vytrénované pomocí SDK integrovat přímo. Pro integraci s Customer Insights - Data je vyžadován dávkový odvozovací kanál, který tento model spotřebovává.
Požadavky na dávkový kanál pro integraci s Customer Insights - Data
Konfigurace datové sady
Vytváření datových sady pro použití dat tabulky z Customer Insights ve vašem dávkovém odvozovacím kanálu. Zaregistrujte tyto datové sady v pracovním prostoru. V současné době podporujeme pouze tabulkové datové sady ve formátu CSV. Parametrizujte datové sady, které odpovídají datům tabulky, jako parametr kanálu.
Parametry datové sady v návrháři
V návrháři otevřete Výběr sloupců v datové sadě a vyberte Nastavit jako parametr kanálu, kde zadáte název parametru.
Parametr datové sady v SDK (Python)
HotelStayActivity_dataset = Dataset.get_by_name(ws, name='Hotel Stay Activity Data') HotelStayActivity_pipeline_param = PipelineParameter(name="HotelStayActivity_pipeline_param", default_value=HotelStayActivity_dataset) HotelStayActivity_ds_consumption = DatasetConsumptionConfig("HotelStayActivity_dataset", HotelStayActivity_pipeline_param)
Dávkový odvozovací kanál
V návrháři tréninkový kanál použijte k vytvoření nebo aktualizaci odvozovacího kanálu. V současné době jsou podporovány pouze dávkové odvozovací kanály.
Pomocí sady SDK publikujte kanál v koncovém bodě. V současné době se Customer Insights - Data integruje s výchozím kanálem v koncovém bodu dávkového kanálu v pracovním prostoru Azure Machine Learning.
published_pipeline = pipeline.publish(name="ChurnInferencePipeline", description="Published Churn Inference pipeline") pipeline_endpoint = PipelineEndpoint.get(workspace=ws, name="ChurnPipelineEndpoint") pipeline_endpoint.add_default(pipeline=published_pipeline)
Importu dat kanálu
Návrhář poskytuje modul exportu dat, který umožňuje export výstupu kanálu do úložiště Azure. V současné době musí modul používat typ úložiště dat Azure Blob Storage a parametrizovat Úložiště dat a relativní Cestu. Systém přepíše oba tyto parametry během provádění kanálu datovým úložištěm a cestou, která je pro aplikaci přístupná.
Při psaní výstupu odvození pomocí kódu můžete výstup odeslat na cestu v rámci registrovaného datového úložiště v pracovním prostoru. Pokud jsou cesta a datové úložiště parametrizovány v kanálu, aplikace Customer Insights může číst a importovat výstup odvození. V současné době je podporován jeden tabulkový výstup ve formátu CSV. Cesta musí zahrnovat adresář a název souboru.
# In Pipeline setup script OutputPathParameter = PipelineParameter(name="output_path", default_value="HotelChurnOutput/HotelChurnOutput.csv") OutputDatastoreParameter = PipelineParameter(name="output_datastore", default_value="workspaceblobstore") ... # In pipeline execution script run = Run.get_context() ws = run.experiment.workspace datastore = Datastore.get(ws, output_datastore) # output_datastore is parameterized directory_name = os.path.dirname(output_path) # output_path is parameterized. # Datastore.upload() or Dataset.File.upload_directory() are supported methods to uplaod the data # datastore.upload(src_dir=<<working directory>>, target_path=directory_name, overwrite=False, show_progress=True) output_dataset = Dataset.File.upload_directory(src_dir=<<working directory>>, target = (datastore, directory_name)) # Remove trailing "/" from directory_name