Procedimientos para implementar Clústeres de macrodatos de SQL Server en Kubernetes
Se aplica a: SQL Server 2019 (15.x)
Importante
El complemento Clústeres de macrodatos de Microsoft SQL Server 2019 se va a retirar. La compatibilidad con Clústeres de macrodatos de SQL Server 2019 finalizará el 28 de febrero de 2025. Todos los usuarios existentes de SQL Server 2019 con Software Assurance serán totalmente compatibles con la plataforma, y el software se seguirá conservando a través de actualizaciones acumulativas de SQL Server hasta ese momento. Para más información, consulte la entrada de blog sobre el anuncio y Opciones de macrodatos en la plataforma Microsoft SQL Server.
El clúster de macrodatos de SQL Server se implementa como contenedores de Docker en un clúster de Kubernetes. Esta es una introducción a los pasos de instalación y configuración:
- Configure un clúster de Kubernetes en una sola máquina virtual, un clúster de máquinas virtuales, en Azure Kubernetes Service (AKS), Red Hat OpenShift o Red Hat OpenShift en Azure (ARO).
- Instale la herramienta de configuración de clúster CLI de datos de Azure (
azdata
) en el equipo cliente. - Implemente un clúster de macrodatos de SQL Server en un clúster de Kubernetes.
Configuraciones probadas
Vea Configuraciones probadas para obtener una lista completa de las distintas plataformas validadas por Kubernetes para implementar Clústeres de macrodatos de SQL Server.
Ediciones de SQL Server
Edición | Notas |
---|---|
Enterprise Estándar Desarrollador |
La edición del clúster de macrodatos la determina la edición de la instancia maestra de SQL Server. En el momento de la implementación, se implementa de forma predeterminada la edición Developer. Puede cambiar la edición después de la implementación. Vea Configuración de la instancia maestra de SQL Server. |
Kubernetes
Configuración del clúster de Kubernetes
Si ya tiene un clúster de Kubernetes que cumple los requisitos previos anteriores, puede ir directamente al paso de implementación. En esta sección se da por supuesto que tiene un conocimiento básico de los conceptos de Kubernetes. Para obtener información detallada sobre Kubernetes, consulte la documentación de Kubernetes.
Puede optar por implementar Kubernetes de estas maneras:
Implementar Kubernetes en: | Descripción | Vínculo |
---|---|---|
Azure Kubernetes Services (AKS) | Un servicio de contenedor de Kubernetes administrado en Azure. | Instrucciones |
Una o varias máquinas (kubeadm ) |
Un clúster de Kubernetes implementado en máquinas físicas o virtuales mediante kubeadm |
Instrucciones |
Red Hat OpenShift en Azure | Una oferta administrada de OpenShift que se ejecuta en Azure. | Instrucciones |
Red Hat OpenShift | Una plataforma de aplicaciones de Kubernetes empresarial de nube híbrida. | Instrucciones |
Sugerencia
También puede crear un script de la implementación de AKS y un clúster de macrodatos en un único paso. Para obtener más información, vea cómo realizar este procedimiento en un script de Python o en un cuaderno de Azure Data Studio.
Comprobación de la configuración de Kubernetes
Ejecute el comando kubectl
para ver la configuración del clúster. Asegúrese de que kubectl apunta al contexto de clúster correcto.
kubectl config view
Importante
Si va a implementar en un clúster de Kubernetes de varios nodos que ha arrancado mediante kubeadm
, antes de iniciar la implementación del clúster de macrodatos, asegúrese de que los relojes estén sincronizados en todos los nodos de Kubernetes a los que se destina la implementación. El clúster de macrodatos tiene propiedades de estado integradas para varios servicios que son sensibles al tiempo y los sesgos de reloj pueden dar lugar a un estado incorrecto.
Después de haber configurado el clúster de Kubernetes, puede continuar con la implementación de un nuevo clúster de macrodatos de SQL Server. Si va a actualizar desde una versión anterior, vea Procedimientos para actualizar Clústeres de macrodatos de SQL Server.
Cómo asegurarse de que ha configurado el almacenamiento
La mayoría de las implementaciones de clúster de macrodatos deben tener almacenamiento persistente. En este momento, debe asegurarse de tener un plan sobre cómo va a proporcionar almacenamiento persistente en el clúster de Kubernetes antes de la implementación.
- Si implementa en AKS, no es necesario realizar ninguna configuración de almacenamiento. AKS proporciona clases de almacenamiento integradas con aprovisionamiento dinámico. Puede personalizar la clase de almacenamiento (
default
omanaged-premium
) en el archivo de configuración de implementación. Los perfiles integrados usan una clase de almacenamientodefault
. - Si va a realizar la implementación en un clúster de Kubernetes que se ha implementado mediante
kubeadm
, deberá asegurarse de tener suficiente espacio de almacenamiento para un clúster de la escala deseada disponible y configurado para su uso. Si quiere personalizar la forma en que se usa el almacenamiento, debe hacerlo antes de continuar. Vea Persistencia de los datos con un clúster de macrodatos de SQL Server en Kubernetes.
Instalación de las herramientas de macrodatos de SQL Server 2019
Antes de implementar un clúster de macrodatos de SQL Server 2019, instale primero las herramientas de macrodatos:
- CLI de datos de Azure (
azdata
) kubectl
- Azure Data Studio
- Extensión de virtualización de datos para Azure Data Studio
- CLI de Azure (si se implementa en AKS)
Introducción a la implementación
La mayoría de la configuración del clúster de macrodatos se define en un archivo de configuración de implementación JSON. Puede usar un perfil de implementación predeterminado para clústeres de AKS o Kubernetes creados con kubeadm
, o bien puede personalizar un archivo de configuración de implementación propio para usarlo durante la instalación. Por motivos de seguridad, la configuración de autenticación se pasa mediante variables de entorno.
En las secciones siguientes se proporcionan más detalles sobre cómo configurar las implementaciones del clúster de macrodatos, así como ejemplos de personalizaciones comunes. Además, puede editar en todo momento el archivo de configuración de implementación personalizado con un editor (por ejemplo, VS Code).
Configuraciones predeterminadas
Las opciones de implementación del clúster de macrodatos se definen en archivos de configuración JSON. Puede iniciar la personalización de la implementación del clúster desde los perfiles de implementación integrados que están disponibles en CLI de datos de Azure (azdata
).
Nota
Las imágenes de contenedor necesarias para la implementación de clústeres de macrodatos se hospedan en el Registro de contenedor de Microsoft (mcr.microsoft.com
) en el repositorio mssql/bdc
. De forma predeterminada, esta configuración ya está incluida en el archivo de configuración control.json
en cada uno de los perfiles de implementación que se incluyen con CLI de datos de Azure (azdata
). Además, la etiqueta de imagen de contenedor de cada versión también se rellena previamente en el mismo archivo de configuración. Si necesita extraer las imágenes de contenedor en un registro de contenedor privado propio y modificar la configuración del repositorio o el registro de contenedores, siga las instrucciones del artículo Instalación sin conexión.
Ejecute este comando para encontrar las plantillas disponibles:
azdata bdc config list -o table
Las plantillas siguientes están disponibles desde SQL Server 2019 CU5:
Perfil de implementación | Entorno de Kubernetes |
---|---|
aks-dev-test |
Implemente un clúster de macrodatos de SQL Server en Azure Kubernetes Service (AKS). |
aks-dev-test-ha |
Implemente un clúster de macrodatos de SQL Server en Azure Kubernetes Service (AKS). Los servicios críticos como la instancia maestra de SQL Server y el nodo de nombre de HDFS se configuran para lograr alta disponibilidad. |
aro-dev-test |
Implemente un clúster de macrodatos de SQL Server en Red Hat OpenShift en Azure para desarrollo y pruebas. Introducido en SQL Server 2019 CU5. |
aro-dev-test-ha |
Implemente un clúster de macrodatos de SQL Server con alta disponibilidad en un clúster de Red Hat OpenShift para desarrollo y pruebas. Introducido en SQL Server 2019 CU5. |
kubeadm-dev-test |
Implemente un clúster de macrodatos de SQL Server en un clúster de Kubernetes creado con kubeadm mediante una o varias máquinas virtuales o físicas. |
kubeadm-prod |
Implemente un clúster de macrodatos de SQL Server en un clúster de Kubernetes creado con kubeadm mediante una o varias máquinas virtuales o físicas. Use esta plantilla para permitir que los servicios de clúster de macrodatos se integren con Active Directory. Los servicios críticos como la instancia maestra de SQL Server y el nodo de nombre de HDFS se implementan en una configuración de alta disponibilidad. |
openshift-dev-test |
Implemente un clúster de macrodatos de SQL Server en un clúster de Red Hat OpenShift para desarrollo y pruebas. Introducido en SQL Server 2019 CU5. |
openshift-prod |
Implemente un clúster de macrodatos de SQL Server con alta disponibilidad en un clúster de Red Hat OpenShift. Introducido en SQL Server 2019 CU5. |
Puede implementar un clúster de macrodatos mediante la ejecución de azdata bdc create
. Esto le pedirá que elija una de las configuraciones predeterminadas y después le guiará por la implementación.
La primera vez que ejecute CLI de datos de Azure (azdata
), debe incluir --accept-eula=yes
para aceptar el contrato de licencia para el usuario final (CLUF).
azdata bdc create --accept-eula=yes
En este escenario, se le pide la configuración que no forme parte de la configuración predeterminada, como las contraseñas.
Importante
El nombre predeterminado del clúster de macrodatos es mssql-cluster
. Es importante saberlo para ejecutar cualquiera de los comandos de kubectl
que especifican el espacio de nombres de Kubernetes con el parámetro -n
.
Configuraciones personalizadas
También es posible personalizar la implementación para acomodar las cargas de trabajo que planea ejecutar. No puede cambiar la escala (el número de réplicas) ni la configuración de almacenamiento para los servicios de clúster de macrodatos después de las implementaciones, por lo que debe planear cuidadosamente la configuración de implementación para evitar problemas de capacidad. Para personalizar la implementación, siga estos pasos:
Comience con uno de los perfiles de implementación estándar que coincidan con su entorno de Kubernetes. Puede usar el comando
azdata bdc config list
para enumerarlos:azdata bdc config list
Para personalizar la implementación, cree una copia del perfil de implementación con el comando
azdata bdc config init
. Por ejemplo, el comando siguiente crea una copia de los archivos de configuración de implementación deaks-dev-test
en un directorio de destino denominadocustom
:azdata bdc config init --source aks-dev-test --target custom
Sugerencia
--target
especifica un directorio que contiene los archivos de configuración,bdc.json
ycontrol.json
, en función del parámetro--source
.Para personalizar la configuración del perfil de configuración de implementación, puede editar el archivo de configuración de implementación en una herramienta adecuada para editar archivos JSON, como VS Code. Para la automatización con scripts, también puede editar el perfil de implementación personalizado con el comando
azdata bdc config
. Por ejemplo, el comando siguiente modifica un perfil de implementación personalizado para cambiar el nombre del clúster implementado del valor predeterminado (mssql-cluster
) atest-cluster
:azdata bdc config replace --config-file custom/bdc.json --json-values "metadata.name=test-cluster"
Sugerencia
También puede pasar el nombre del clúster en el momento de la implementación con el parámetro --name del comando
azdata create bdc
. Los parámetros del comando tienen prioridad sobre los valores de los archivos de configuración.Una herramienta útil para buscar rutas de acceso JSON es JSONPath Online Evaluator.
Además de pasar pares clave-valor, también puede proporcionar valores JSON insertados o pasar archivos de revisión JSON. Para más información, consulte Configuración de opciones de implementación de recursos y servicios de clúster de macrodatos.
Pase el archivo de configuración personalizado a
azdata bdc create
. Tenga en cuenta que debe establecer las variables de entorno necesarias; de lo contrario, el terminal le solicitará los valores:azdata bdc create --config-profile custom --accept-eula yes
Advertencia
El parámetro imagePullPolicy
debe establecerse como en "Always"
el archivo control.json del perfil de implementación.
Para obtener más información sobre la estructura de un archivo de configuración de implementación, vea la Referencia del archivo de configuración de implementación. Para más ejemplos de configuración, consulte Configuración de opciones de implementación para Clústeres de macrodatos.
Variables de entorno
Las siguientes variables de entorno se usan para la configuración de seguridad que no se almacena en un archivo de configuración de implementación. Tenga en cuenta que la configuración de Docker, excepto las credenciales, se puede establecer en el archivo de configuración.
Variable de entorno | Requisito | Descripción |
---|---|---|
AZDATA_USERNAME |
Requerido | El nombre de usuario para el administrador de clústeres de macrodatos de SQL Server. En la instancia maestra de SQL Server se crea un inicio de sesión de sysadmin con el mismo nombre. Como procedimiento de seguridad recomendado, la cuenta sa está deshabilitada. A partir de SQL Server 2019 (15.x) CU 5, al implementar un nuevo clúster con autenticación básica todos los puntos de conexión incluida la puerta de enlace utilizan AZDATA_USERNAME y AZDATA_PASSWORD . Los puntos de conexión de los clústeres que se actualizan a CU 5 continúan usando root como nombre de usuario para conectarse al punto de conexión de puerta de enlace. Este cambio no se aplica a las implementaciones que utilizan la autenticación de Active Directory. Consulte Credenciales para acceder a los servicios a través del punto de conexión de puerta de enlace en las notas de la versión. |
AZDATA_PASSWORD |
Obligatorio | La contraseña para la cuenta de usuario que se ha creado antes. En los clústeres implementados antes de SQL Server 2019 CU5, se usa la misma contraseña para el usuario root , a fin de proteger la puerta de enlace Knox y HDFS. |
ACCEPT_EULA |
Obligatorio para el primer uso de CLI de datos de Azure (azdata ) |
Establecido en "Sí". Cuando se establece como una variable de entorno, aplica el CLUF a SQL Server y CLI de datos de Azure (azdata ). Si no se establece como variable de entorno, puede incluir --accept-eula=yes en el primer uso del comando de la CLI de datos de Azure (azdata ). |
DOCKER_USERNAME |
Opcional | Nombre de usuario para acceder a las imágenes de contenedor en caso de que se almacenen en un repositorio privado. Consulte el tema Implementaciones sin conexión para obtener más información sobre cómo usar un repositorio privado de Docker para la implementación del clúster de macrodatos. |
DOCKER_PASSWORD |
Opcional | Contraseña para acceder al repositorio privado anterior. |
Estas variables de entorno se deben establecer antes de llamar a azdata bdc create
. Si no se establece ninguna variable, se le pedirá que lo haga.
En el ejemplo siguiente se muestra cómo establecer las variables de entorno para Linux (Bash) y Windows (PowerShell):
export AZDATA_USERNAME=admin
export AZDATA_PASSWORD=<password>
export ACCEPT_EULA=yes
SET AZDATA_USERNAME=admin
SET AZDATA_PASSWORD=<password>
Nota
En los clústeres implementados antes de SQL Server 2019 CU5, debe utilizar el usuario root
para la puerta de enlace Knox con la contraseña anterior. root
es el único usuario que se admite en esta autenticación básica (nombre de usuario y contraseña).
A partir de SQL Server 2019 (15.x) CU 5, al implementar un nuevo clúster con autenticación básica todos los puntos de conexión incluida la puerta de enlace utilizan AZDATA_USERNAME
y AZDATA_PASSWORD
. Los puntos de conexión de los clústeres que se actualizan a CU 5 continúan usando root
como nombre de usuario para conectarse al punto de conexión de puerta de enlace. Este cambio no se aplica a las implementaciones que utilizan la autenticación de Active Directory. Consulte Credenciales para acceder a los servicios a través del punto de conexión de puerta de enlace en las notas de la versión.
Para conectarse a SQL Server con autenticación básica, utilice los mismos valores que las variables de entorno AZDATA_USERNAME y AZDATA_PASSWORD.
Después de establecer las variables de entorno, debe ejecutar azdata bdc create
para desencadenar la implementación. En este ejemplo se usa el perfil de configuración de clúster creado anteriormente:
azdata bdc create --config-profile custom --accept-eula yes
Tenga en cuenta las directrices siguientes:
- Asegúrese de incluir la contraseña entre comillas dobles si contiene algún carácter especial. Puede establecer
AZDATA_PASSWORD
en el valor que quiera, pero asegúrese de que la contraseña sea suficientemente compleja y no use los caracteres!
,&
ni'
. Tenga en cuenta que los delimitadores de comillas dobles solo funcionan en los comandos de Bash. - El inicio de sesión de
AZDATA_USERNAME
es un administrador del sistema en la instancia maestra de SQL Server que se crea durante la configuración. Después de crear el contenedor de SQL Server, la variable de entornoAZDATA_PASSWORD
especificada se reconoce mediante la ejecución deecho $AZDATA_PASSWORD
en el contenedor. Por motivos de seguridad, cambie la contraseña como procedimiento recomendado.
Instalación desatendida
En una implementación desatendida, debe establecer todas las variables de entorno necesarias, usar un archivo de configuración y llamar al comando azdata bdc create
con el parámetro --accept-eula yes
. En los ejemplos de la sección anterior se muestra la sintaxis de una instalación desatendida.
Supervisa la implementación.
Durante el arranque del clúster, la ventana de comandos del cliente devuelve el estado de la implementación. Durante el proceso de implementación, debería ver una serie de mensajes en los que está esperando el pod del controlador:
Waiting for cluster controller to start.
Después de 15 a 30 minutos, se le notificará que el pod del controlador se está ejecutando:
Cluster controller endpoint is available at 11.111.111.11:30080.
Cluster control plane is ready.
Importante
La implementación completa puede tardar mucho tiempo debido al tiempo necesario para descargar las imágenes de contenedor de los componentes del clúster de macrodatos. Pero no debería tardar muchas horas. Si tiene problemas con la implementación, vea Supervisión y solución de problemas de Clústeres de macrodatos de SQL Server.
Cuando finalice la implementación, la salida le notificará que se ha realizado correctamente:
Cluster deployed successfully.
Sugerencia
El nombre predeterminado del clúster de macrodatos implementado es mssql-cluster
a menos que una configuración personalizada lo haya modificado.
Recuperación de puntos de conexión
Una vez que el script de implementación se haya completado de forma correcta, puede seguir los pasos siguientes para obtener las direcciones de los puntos de conexión externos del clúster de macrodatos.
Después de la implementación, busque la dirección IP del punto de conexión del controlador desde la salida estándar de la implementación o mediante el examen de la salida de EXTERNAL-IP del comando
kubectl
siguiente:kubectl get svc controller-svc-external -n <your-big-data-cluster-name>
Sugerencia
Si no ha cambiado el nombre predeterminado durante la implementación, use
-n mssql-cluster
en el comando anterior.mssql-cluster
es el nombre predeterminado del clúster de macrodatos.Inicie sesión en el clúster de macrodatos con azdata login. Establezca el parámetro
--endpoint
en la dirección IP externa del punto de conexión del controlador.azdata login --endpoint https://<ip-address-of-controller-svc-external>:30080 --username <user-name>
Especifique el nombre de usuario y la contraseña que ha configurado para el administrador del clúster de macrodatos (AZDATA_USERNAME y AZDATA_PASSWORD) durante la implementación.
Sugerencia
Si es el administrador del clúster de Kubernetes y tiene acceso al archivo de configuración del clúster (el archivo kube config), puede configurar el contexto actual para que apunte al clúster de Kubernetes de destino. En este caso, puede iniciar sesión con
azdata login -n <namespaceName>
, dondenamespace
es el nombre del clúster de macrodatos. Si no se especifican en el comando de inicio de sesión, se le solicitarán las credenciales.Ejecute azdata bdc endpoint list para obtener una lista con una descripción de cada punto de conexión y los valores correspondientes de dirección IP y puerto.
azdata bdc endpoint list -o table
En la lista siguiente, se muestra un resultado de ejemplo de este comando:
Description Endpoint Ip Name Port Protocol ------------------------------------------------------ --------------------------------------------------------- -------------- ----------------- ------ ---------- Gateway to access HDFS files, Spark https://11.111.111.111:30443 11.111.111.111 gateway 30443 https Spark Jobs Management and Monitoring Dashboard https://11.111.111.111:30443/gateway/default/sparkhistory 11.111.111.111 spark-history 30443 https Spark Diagnostics and Monitoring Dashboard https://11.111.111.111:30443/gateway/default/yarn 11.111.111.111 yarn-ui 30443 https Application Proxy https://11.111.111.111:30778 11.111.111.111 app-proxy 30778 https Management Proxy https://11.111.111.111:30777 11.111.111.111 mgmtproxy 30777 https Log Search Dashboard https://11.111.111.111:30777/kibana 11.111.111.111 logsui 30777 https Metrics Dashboard https://11.111.111.111:30777/grafana 11.111.111.111 metricsui 30777 https Cluster Management Service https://11.111.111.111:30080 11.111.111.111 controller 30080 https SQL Server Master Instance Front-End 11.111.111.111,31433 11.111.111.111 sql-server-master 31433 tcp HDFS File System Proxy https://11.111.111.111:30443/gateway/default/webhdfs/v1 11.111.111.111 webhdfs 30443 https Proxy for running Spark statements, jobs, applications https://11.111.111.111:30443/gateway/default/livy/v1 11.111.111.111 livy 30443 https
También puede obtener todos los puntos de conexión de servicio implementados para el clúster si ejecuta el comando kubectl
siguiente:
kubectl get svc -n <your-big-data-cluster-name>
Comprobación del estado del clúster
Después de la implementación, puede comprobar el estado del clúster con el comando azdata bdc status show.
azdata bdc status show
Sugerencia
Para ejecutar los comandos de estado, primero debe iniciar sesión con el comando azdata login
, que se ha mostrado en la sección sobre puntos de conexión anterior.
Este es un resultado de ejemplo de este comando:
Bdc: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Servicename State Healthstatus Details
sql ready healthy -
hdfs ready healthy -
spark ready healthy -
control ready healthy -
gateway ready healthy -
app ready healthy -
Sql Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
master ready healthy StatefulSet master is healthy
compute-0 ready healthy StatefulSet compute-0 is healthy
data-0 ready healthy StatefulSet data-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Hdfs Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
nmnode-0 ready healthy StatefulSet nmnode-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
sparkhead ready healthy StatefulSet sparkhead is healthy
Spark Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
sparkhead ready healthy StatefulSet sparkhead is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Control Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
controldb ready healthy -
control ready healthy -
metricsdc ready healthy DaemonSet metricsdc is healthy
metricsui ready healthy ReplicaSet metricsui is healthy
metricsdb ready healthy StatefulSet metricsdb is healthy
logsui ready healthy ReplicaSet logsui is healthy
logsdb ready healthy StatefulSet logsdb is healthy
mgmtproxy ready healthy ReplicaSet mgmtproxy is healthy
Gateway Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
gateway ready healthy StatefulSet gateway is healthy
App Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
appproxy ready healthy ReplicaSet appproxy is healthy
También puede obtener un estado más detallado con los comandos siguientes:
- azdata bdc control status show devuelve el estado de mantenimiento de todos los componentes asociados al servicio de administración de control
azdata bdc control status show
Salida del ejemplo:
Control: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Resources: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
controldb ready healthy -
control ready healthy -
metricsdc ready healthy DaemonSet metricsdc is healthy
metricsui ready healthy ReplicaSet metricsui is healthy
metricsdb ready healthy StatefulSet metricsdb is healthy
logsui ready healthy ReplicaSet logsui is healthy
logsdb ready healthy StatefulSet logsdb is healthy
mgmtproxy ready healthy ReplicaSet mgmtproxy is healthy
azdata bdc sql status show
devuelve el estado de mantenimiento de todos los recursos que tienen un servicio de SQL Server
azdata bdc sql status show
Salida del ejemplo:
Sql: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Resources: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
master ready healthy StatefulSet master is healthy
compute-0 ready healthy StatefulSet compute-0 is healthy
data-0 ready healthy StatefulSet data-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Importante
Cuando se usa el parámetro --all
, la salida de estos comandos contiene direcciones URL a los paneles de Kibana y Grafana para un análisis más detallado.
Además de usar CLI de datos de Azure (azdata
), también puede utilizar Azure Data Studio para buscar información de los puntos de conexión y el estado. Para obtener más información sobre cómo ver el estado del clúster con CLI de datos de Azure (azdata
) y Azure Data Studio, vea Procedimientos para ver el estado de un clúster de macrodatos.
Conectarse al clúster
Para obtener más información sobre cómo conectarse al clúster de macrodatos, consulte Conexión a un clúster de macrodatos de SQL Server con Azure Data Studio.
Pasos siguientes
Para más información sobre la implementación del clúster de macrodatos de SQL Server, consulte los recursos siguientes: