Introducción
La verdadera eficacia de los modelos de lenguaje grande (LLM) se encuentra en su aplicación. Tanto si quiere usar LLM para clasificar páginas web en categorías como para crear un bot de chat con los datos. Para aprovechar la eficacia de los LLM disponibles, debe crear una aplicación que combine los orígenes de datos con los LLM y genere la salida deseada.
Para desarrollar, probar, ajustar e implementar aplicaciones con LLM, puede usar el flujo de avisos, accesible en Estudio de Azure Machine Learning e Inteligencia artificial de Azure Studio.
Nota:
A lo largo de este módulo, el objetivo consiste en comprender y explorar el flujo de avisos. El contenido se aplica a la experiencia de flujo de avisos tanto en Azure Machine Learning como en Inteligencia artificial de Azure Studio.
El flujo de avisos toma una solicitud como entrada, que en el contexto de los LLM hace referencia a la consulta proporcionada a la aplicación LLM para generar una respuesta. Es el texto o conjunto de instrucciones que se proporcionan a la aplicación LLM, que pide a esta que genere la salida o realice una tarea específica.
Por ejemplo, cuando quiere usar un modelo de generación de texto, la solicitud podría ser una frase o un párrafo que inicie el proceso de generación. En el contexto de un modelo de respuesta a preguntas, la solicitud podría ser una consulta que solicita información sobre un tema determinado. A menudo, la eficacia de la solicitud depende de la forma en la que transmite la intención del usuario y el resultado deseado.
El flujo de avisos permite crear flujos, lo que hace referencia a la secuencia de acciones o pasos que se realizan para lograr una tarea o funcionalidad específica. Un flujo representa el proceso o canalización general que incorpora la interacción con el LLM para abordar un caso de uso determinado. El flujo encapsula todo el recorrido desde la recepción de la entrada hasta la generación de la salida o la realización de una acción deseada.