แชร์ผ่าน


ใช้โมเดลของ Azure Machine Learning

ข้อมูลที่รวมเข้าด้วยกันใน Dynamics 365 Customer Insights- Data เป็นแหล่งที่มาสำหรับการสร้างโมเดลการเรียนรู้เกี่ยวกับเครื่องที่สามารถสร้างข้อมูลเชิงลึกทางธุรกิจเพิ่มเติม Customer Insights - Data ผสานรวมกับ Azure Machine Learning เพื่อใช้โมเดลที่คุณกำหนดเอง

ข้อกำหนดเบื้องต้น

ตั้งค่าพื้นที่ทำงานของ Azure Machine Learning

  1. ดู สร้างพื้นที่ทำงานของ Azure Machine Learning สำหรับตัวเลือกต่างๆ ในการสร้างพื้นที่ทำงาน เพื่อประสิทธิภาพที่ดีที่สุด ให้สร้างพื้นที่ทำงานในภูมิภาค Azure ที่ตั้งอยู่ใกล้เคียงกับสภาพแวดล้อม Customer Insights ของคุณมากที่สุด

  2. เข้าถึงพื้นที่ทำงานของคุณผ่าน Azure Machine Learning Studio วิธีการทำงาน กับพื้นที่ทำงานของคุณมีหลายวิธี

ทำงานกับตัวออกแบบ Azure Machine Learning

ตัวออกแบบ Azure Machine Learning มีพื้นที่ทำงานการแสดงผลด้วยภาพที่คุณสามารถลากและวางชุดข้อมูลและโมดูลต่างๆ ไปป์ไลน์ชุดงานที่สร้างจากตัวออกแบบสามารถรวมเข้ากับ Customer Insights - Data ได้หากมีการกำหนดค่าตามนั้น

การทำงานกับ Azure Machine Learning SDK

นักวิทยาศาสตร์ข้อมูลและนักพัฒนา AI ใช้ Azure Machine Learning SDK เพื่อสร้างเวิร์กโฟลว์การเรียนรู้เกี่ยวกับเครื่อง ขณะนี้ โมเดลที่ฝึกโดยใช้ SDK ไม่สามารถรวมเข้าได้โดยตรง ไปป์ไลน์การอนุมานแบบชุดงานที่ใช้โมเดลนั้นจำเป็นสำหรับการผสานรวมกับ Customer Insights - Data

ข้อกำหนดไปป์ไลน์แบบชุดงานที่จะรวมเข้ากับ Customer Insights - Data

การกำหนดค่าชุดข้อมูล

สร้างชุดข้อมูลเพื่อใช้ข้อมูลตารางจาก Customer Insights สำหรับไปป์ไลน์การอนุมานแบบชุดงานของคุณ ลงทะเบียนชุดข้อมูลเหล่านี้ในพื้นที่ทำงาน ขณะนี้เรารองรับ ชุดข้อมูลแบบตาราง ในรูปแบบ .csv เท่านั้น กำหนดพารามิเตอร์ชุดข้อมูลที่สอดคล้องกับข้อมูลตารางเป็นพารามิเตอร์ไปป์ไลน์

  • ชุดข้อมูลพารามิเตอร์ในตัวออกแบบ

    ในตัวออกแบบ ให้เปิด เลือกคอลัมน์ในชุดข้อมูล และเลือก ตั้งเป็นพารามิเตอร์ไปป์ไลน์ ที่คุณระบุชื่อสำหรับพารามิเตอร์

    การกำหนดพารามิเตอร์ชุดข้อมูลในตัวออกแบบ

  • พารามิเตอร์ชุดข้อมูลใน SDK (Python)

    HotelStayActivity_dataset = Dataset.get_by_name(ws, name='Hotel Stay Activity Data')
    HotelStayActivity_pipeline_param = PipelineParameter(name="HotelStayActivity_pipeline_param", default_value=HotelStayActivity_dataset)
    HotelStayActivity_ds_consumption = DatasetConsumptionConfig("HotelStayActivity_dataset", HotelStayActivity_pipeline_param)
    

ไปป์ไลน์การอนุมานแบบชุดงาน

  • ในตัวออกแบบ ใช้ไปป์ไลน์การฝึกเพื่อสร้างหรือปรับปรุงไปป์ไลน์การอนุมานได้ ขณะนี้รองรับเฉพาะไปป์ไลน์การอนุมานแบบชุดงานเท่านั้น

  • เมื่อใช้ SDK เผยแพร่ไปป์ไลน์ไปยังจุดสิ้นสุดได้ ปัจจุบัน Customer Insights - Data รวมเข้ากับไปป์ไลน์เริ่มต้นในจุดสิ้นสุดไปป์ไลน์แบบชุดงานในพื้นที่ทำงาน Machine Learning

    published_pipeline = pipeline.publish(name="ChurnInferencePipeline", description="Published Churn Inference pipeline")
    pipeline_endpoint = PipelineEndpoint.get(workspace=ws, name="ChurnPipelineEndpoint") 
    pipeline_endpoint.add_default(pipeline=published_pipeline)
    

นำเข้าข้อมูลไปป์ไลน์

  • ผู้ออกแบบมี โมดูลส่งออกข้อมูล ที่อนุญาตให้ส่งออกผลลัพธ์ของไปป์ไลน์ไปยังที่เก็บข้อมูล Azure ปัจจุบัน โมดูลดังกล่าวต้องใช้ที่เก็บข้อมูลชนิด ที่เก็บข้อมูล Azure Blob และกำหนดพารามิเตอร์ ที่เก็บข้อมูล และ พาธ แบบสัมพันธ์ ระบบจะแทนที่พารามิเตอร์ทั้งคู่นี้ในระหว่างการดำเนินการไปป์ไลน์กับที่เก็บข้อมูลและพาธที่สามารถเข้าถึงไปยังแอปพลิเคชัน

    การกำหนดค่าโมดูลส่งออกข้อมูล

  • เมื่อเขียนผลลัพธ์การอนุมานโดยใช้โค้ด อัปโหลดผลลัพธ์ไปยังพาธภายใน ที่เก็บข้อมูลที่ลงทะเบียน ในพื้นที่ทำงาน หากพาธและที่เก็บข้อมูลมีการกำหนดพารามิเตอร์ในไปป์ไลน์ Customer Insights สามารถอ่านและนำเข้าเอาต์พุตการอนุมานได้ ปัจจุบันรองรับผลลัพธ์แบบตารางเดียวในรูปแบบ csv เท่านั้น พาธต้องมีไดเรกทอรีและชื่อไฟล์

    # In Pipeline setup script
        OutputPathParameter = PipelineParameter(name="output_path", default_value="HotelChurnOutput/HotelChurnOutput.csv")
        OutputDatastoreParameter = PipelineParameter(name="output_datastore", default_value="workspaceblobstore")
    ...
    # In pipeline execution script
        run = Run.get_context()
        ws = run.experiment.workspace
        datastore = Datastore.get(ws, output_datastore) # output_datastore is parameterized
        directory_name =  os.path.dirname(output_path)  # output_path is parameterized.
    
        # Datastore.upload() or Dataset.File.upload_directory() are supported methods to uplaod the data
        # datastore.upload(src_dir=<<working directory>>, target_path=directory_name, overwrite=False, show_progress=True)
        output_dataset = Dataset.File.upload_directory(src_dir=<<working directory>>, target = (datastore, directory_name)) # Remove trailing "/" from directory_name