Compartilhar via


Tratamento de erros no Azure Databricks

Aplica-se a: verificação marcada como sim SQL do Databricks verificação marcada como sim Databricks Runtime 12.2 e versões posteriores

Componentes do erro

Quando o Azure Databricks gera um erro, este inclui os seguintes componentes:

  • Classe do erro

    Uma cadeia de caracteres descritiva, legível por humanos, exclusiva para a condição de erro.

    Algumas classes de erro incluem subclasses.

    Por exemplo: TABLE_OR_VIEW_NOT_FOUND e INCOMPLETE_TYPE_DEFINITION. MATRIZ.

    Para obter uma lista de todas as classes de erros, confira Classes de Erros.

  • SQLSTATE

    Uma cadeia de caracteres de cinco caracteres de comprimento, agrupando classes de erros em um formato padrão compatível com muitos produtos e APIs.

    Por exemplo: '42P01'

    Para obter uma lista completa de todos os SQLSTATEs usados pelo Azure Databricks, confira SQLSTATEs.

  • Mensagem parametrizada

    Uma mensagem de erro com espaços reservados para os parâmetros.

    Por exemplo: TABLE_OR_VIEW_NOT_FOUND inclui a seguinte mensagem:

    The table or view <relationName> cannot be found.
    

    Você pode usar a mensagem parametrizada para renderizar uma mensagem de erro mapeando os valores dos parâmetros da mensagem para as tags de parâmetro <parameter>.

  • Parâmetros da mensagem

    Um mapa de parâmetros e valores que fornecem informações adicionais sobre o erro. Por exemplo: 'relationName' -> 'main.default.tab1'.

  • Message

    A mensagem de erro completamente renderizada, incluindo a classe do erro e o SQLSTATE, com os parâmetros preenchidos. Por exemplo:

    [TABLE_OR_VIEW_NOT_FOUND] The table or view `does_not_exist` cannot be found. Verify the spelling and correctness of the schema and catalog.
    If you did not qualify the name with a schema, verify the current_schema() output, or qualify the name with the correct schema and catalog.
    To tolerate the error on drop use DROP VIEW IF EXISTS or DROP TABLE IF EXISTS. SQLSTATE: 42P01; line 1 pos 14;
    'Project [*]
    +- 'UnresolvedRelation [does_not_exist], [], false
    

Aviso

A mensagem e a mensagem parametrizada não são estáveis entre nas diversas versões. O texto da mensagem pode ser alterado ou traduzido sem aviso prévio. Para lidar programaticamente com uma condição de erro, use, alternativamente, a classe do erro, o SQLSTATE e os parâmetros da mensagem.

Como lidar com as condições de erro

Aplica-se a: verificação marcada como sim Databricks SQL marca de seleção positiva Databricks Runtime 14.2 e superior

Importante

Esse recurso está em uma versão prévia.

O Azure Databricks fornece APIs específicas por idioma para lidar com as condições de erro.

Python

Para 9 Python, use pySparkException

  • PySparkException.getErrorClass(): retorna a classe de erro da exceção como uma cadeia de caracteres.
  • PySparkException.getMessageParameters(): retorna os parâmetros da mensagem da exceção como um dicionário.
  • PySparkException.getSqlState(): retorna o SQLSTATE da expressão como uma cadeia de caracteres.

Scala

Para o Scala, use SparkThrowable

  • getErrorClass(): retorna uma classe de erro como uma cadeia de caracteres.
  • getMessageParameters(): retorna os parâmetros de uma mensagem como um mapa.
  • getSqlState(): retorna um SQLSTATE como uma cadeia de caracteres.

Exemplos

  • Captura qualquer exceção e mostra a classe de erro, os parâmetros da mensagem e o SQLSTATE. Mostra também a mensagem de erro padrão

    Scala

    import org.apache.spark.SparkThrowable
    
    try {
      spark.sql("SELECT * FROM does_not_exist").show()
    }
    catch {
      case ex: SparkThrowable =>
        println("Error Class       : " + ex.getErrorClass)
        println("Message parameters: " + ex.getMessageParameters())
        println("SQLSTATE          : " + ex.getSqlState)
        println(ex)
    }
    

    Python

    from pyspark.errors import PySparkException
    
    try:
      spark.sql("SELECT * FROM does_not_exist").show()
    except PySparkException as ex:
      print("Error Class       : " + ex.getErrorClass())
      print("Message parameters: " + str(ex.getMessageParameters()))
      print("SQLSTATE          : " + ex.getSqlState())
      print(ex)
    

    Result

      Error Class       : TABLE_OR_VIEW_NOT_FOUND
      Message parameters: {'relationName': '`does_not_exist`'}
      SQLSTATE          : 42P01
      [TABLE_OR_VIEW_NOT_FOUND] The table or view `does_not_exist` cannot be found. Verify the spelling and correctness of the schema and catalog.
      If you did not qualify the name with a schema, verify the current_schema() output, or qualify the name with the correct schema and catalog.
      To tolerate the error on drop use DROP VIEW IF EXISTS or DROP TABLE IF EXISTS. SQLSTATE: 42P01; line 1 pos 14;
      'Project [*]
      +- 'UnresolvedRelation [does_not_exist], [], false
    
  • Captura apenas o SQLSTATE 42P01 e mostra uma mensagem personalizada:

    Scala

    import org.apache.spark.SparkThrowable
    
    try {
      spark.sql("SELECT * FROM does_not_exist").show()
    }
    catch {
      case ex: SparkThrowable if (ex.getSqlState == "42P01") =>
        println("I'm so sorry, but I cannot find: " + ex.getMessageParameters().get("relationName"))
    }
    

    Python

    from pyspark.errors import PySparkException
    
    try:
      spark.sql("SELECT * FROM does_not_exist").show()
    except PySparkException as ex:
      if (ex.getSqlState() == "42P01"):
        print("I'm so sorry, but I cannot find: " + ex.getMessageParameters()['relationName'])
      else:
        raise
    

    Result

    I'm so sorry, but I cannot find: `does_not_exist`
    
  • Captura apenas a classe de erro TABLE_OR_VIEW_NOT_FOUND e mostra uma mensagem personalizada:

    Scala

    import org.apache.spark.SparkThrowable
    
    try {
      spark.sql("SELECT * FROM does_not_exist").show()
    }
    catch {
      case ex: SparkThrowable if (ex.getErrorClass == "TABLE_OR_VIEW_NOT_FOUND") =>
        println("I'm so sorry, but I cannot find: " + ex.getMessageParameters().get("relationName"))
    }
    

    Python

    from pyspark.errors import PySparkException
    
    try:
      spark.sql("SELECT * FROM does_not_exist").show()
    except PySparkException as ex:
      if (ex.getErrorClass() == "TABLE_OR_VIEW_NOT_FOUND"):
        print("I'm so sorry, but I cannot find: " + ex.getMessageParameters()['relationName'])
      else:
        raise
    

    Result

    I'm so sorry, but I cannot find: `does_not_exist`
    

Exceções geradas pelo usuário

O Azure Databricks fornece as seguintes funções para gerar erros definidos pelo usuário:

  • raise_error

    Gera uma exceção com uma mensagem de erro personalizada.

  • assert_true

    Gera um erro com uma mensagem de erro opcional se uma condição não for atendida.

Ambas as funções retornam a classe de erro "USER_RAISED_EXCEPTION" e a SQLSTATE'P0001', junto com a mensagem definida pelo usuário.

Exemplos

> SELECT raise_error('This is a custom error message');
 [USER_RAISED_EXCEPTION] This is a custom error message. SQLSTATE: P0001

> SELECT assert_true(1 = 2, 'One is not two!');
 [USER_RAISED_EXCEPTION] One is not two! SQLSTATE: P0001

> SELECT assert_true(1 = 2);
 [USER_RAISED_EXCEPTION] '(1 = 2)' is not true! SQLSTATE: P0001