다음을 통해 공유


ai_summarize 함수

적용 대상:예로 표시된 확인 Databricks SQL 예로 표시된 확인 Databricks Runtime

Important

이 기능은 공개 미리 보기 상태입니다.

미리 보기에서:

  • 기본 언어 모델은 여러 언어를 처리할 수 있지만 이러한 함수는 영어로 조정됩니다.
  • 기본 Foundation Model API에 대한 속도 제한이 있습니다. 이러한 제한을 업데이트하려면 Foundation Model API 제한을 참조하세요.
  • 속도 제한으로 인해 이 함수는 행이 100개 미만인 작은 데이터 세트를 테스트하도록 설계되었습니다. 데이터 행이 100개가 넘는 사용 사례의 경우 Databricks는 ai_query 및 프로비전된 처리량 엔드포인트를 사용하는 것이 좋습니다. ai_query을 사용하여 LLM 유추를 일괄 처리하는 방법을 에서 참조하십시오.

ai_summarize() 함수를 사용하면 최신 생성 AI 모델을 호출하여 SQL을 사용하여 지정된 텍스트의 요약을 생성할 수 있습니다. 이 함수는 Databricks Foundation 모델 API에서 사용할 수 있는 엔드포인트를 제공하는 채팅 모델을 사용합니다.

요구 사항

Important

현재 사용할 수 있는 기본 모델은 Apache 2.0 라이선스, Copyright © The Apache Software Foundation 또는 LLAMA 3.1 Community License Copyright © Meta Platforms, Inc.에 따라 라이선스가 부여됩니다. 모든 권한이 예약되어 있습니다. 고객은 해당 모델 라이선스를 준수할 책임이 있습니다.

Databricks는 해당 조건을 준수하도록 이러한 라이선스를 검토할 것을 권장합니다. Databricks의 내부 벤치마크에 따라 더 나은 성능을 제공하는 모델이 향후에 나타날 경우 Databricks는 모델(및 이 페이지에 제공된 해당 라이선스 목록)을 변경할 수 있습니다.

현재 Meta-Llama-3.1-70B-Instruct 는 이러한 AI 기능을 지원하는 기본 모델입니다.

참고 항목

Databricks Runtime 15.1 이상에서 이 함수는 Databricks 워크플로에서 태스크로 실행되는Notebooks를 포함하여 Databricks Notebooks에서 지원됩니다.

구문

ai_summarize(content[, max_words])

인수

  • content: 요약할 텍스트인 STRING 표현식입니다.
  • max_words: 반환된 요약 텍스트에서 최상의 목표 단어 수를 나타내는 선택적 비음수 정수 숫자 식입니다. 기본값은 50입니다. 0으로 설정하면 단어 제한이 없습니다.

반품

STRING.

contentNULL이면 결과는 NULL입니다.

예제

> SELECT ai_summarize(
    'Apache Spark is a unified analytics engine for large-scale data processing. ' ||
    'It provides high-level APIs in Java, Scala, Python and R, and an optimized ' ||
    'engine that supports general execution graphs. It also supports a rich set ' ||
    'of higher-level tools including Spark SQL for SQL and structured data ' ||
    'processing, pandas API on Spark for pandas workloads, MLlib for machine ' ||
    'learning, GraphX for graph processing, and Structured Streaming for incremental ' ||
    'computation and stream processing.',
    20
  );
 "Apache Spark is a unified, multi-language analytics engine for large-scale data processing
 with additional tools for SQL, machine learning, graph processing, and stream computing."