Invocar modelos do Azure Machine Learning
O azure_ml
esquema permite que seu banco de dados interaja com os recursos de modelos de aprendizado de máquina personalizados. Ao utilizar o esquema, você pode integrar perfeitamente seu banco de dados PostgreSQL com os azure_ml
serviços do Azure Machine Learning. Essa integração permite que você implante e forneça modelos de aprendizado de máquina diretamente do seu banco de dados, tornando a inferência em tempo real eficiente e escalável.
Inferência em tempo real com o azure_ml
esquema
Quando você usa a azure_ai
extensão, o azure_ml
esquema fornece uma função para executar inferência em tempo real diretamente do banco de dados. A inference
função dentro desse esquema foi projetada para facilitar a realização de previsões ou a geração de saídas usando um modelo treinado do Azure Machine Learning. Quando você implanta um modelo, a função de inferência permite que você invoque o modelo e obtenha previsões sobre novos dados.
azure_ml.inference(jsonb,integer,boolean,text)
A inference()
função espera os seguintes parâmetros de entrada:
Parâmetro | Type | Predefinido | Description |
---|---|---|---|
input | jsonb |
Um objeto JSON que contém o input_data objeto necessário para interagir com modelos do Azure Machine Learning. |
|
timeout_ms | integer |
NULL::integer |
O tempo limite... |
throw_on_error | boolean |
true |
desc... |
deployment_name | text |
NULL::text |
(Opcional) Nome da implantação do modelo a ser direcionada no ponto de extremidade especificado do Azure Machine Learning. |
Os pontos de extremidade de inferência do Aprendizado de Máquina do Azure esperam um objeto JSON (JavaScript Object Notation) como entrada. No entanto, a estrutura deste objeto depende do modelo subjacente. Por exemplo, um modelo de regressão treinado para prever preços diários de aluguel de imóveis de curto prazo na área de Seattle, dados dados informações específicas como o bairro, CEP, número de quartos e número de banheiros, tem a seguinte forma:
{
"input_data": {
"columns": [
"host_is_superhost",
"host_has_profile_pic",
"host_identity_verified",
"neighbourhood_group_cleansed",
"zipcode",
"property_type",
"room_type",
"accommodates",
"bathrooms",
"bedrooms",
"beds"
],
"index": [0],
"data": [["False", "False", "False", "Central Area", "98122", "House", "Entire home/apt", 4, 1.5, 3, 3]]
}
}
A estrutura de objeto de entrada esperada pode ser recuperada examinando a definição de Swagger associada ao seu ponto de extremidade implantado. Esta definição especifica as ServiceInput
estruturas e ServiceOutput
que você pode usar para determinar suas entradas e saídas.
Configurar uma conexão com o Azure Machine Learning
Antes de usar a função para executar inferência azure_ml.inference()
em tempo real, você deve configurar a extensão com seu ponto de extremidade e chave de pontuação do Azure Machine Learning. O valor for azure_ml.scoring_endpoint
é o ponto de extremidade REST para seu modelo implantado. O valor para azure_ml.endpoint_key
pode ser a chave primária ou secundária para este ponto de extremidade.
SELECT azure_ai.set_setting('azure_ml.scoring_endpoint', '{endpoint}');
SELECT azure_ai.set_setting('azure_ml.endpoint_key','{api-key}');