다음을 통해 공유


패브릭의 AI 서비스(미리 보기)

Important

이 기능은 미리 보기로 제공됩니다.

azure AI 서비스를 개발자와 조직은 미리 빌드되고 사용자 지정 가능한 API 및 모델을 사용하여 지능적이고 최첨단의 시장 준비 및 책임 있는 애플리케이션을 신속하게 만들 수 있습니다. 이전에 Azure Cognitive Services 이름이 지정된 Azure AI 서비스는 개발자가 직접 AI 또는 데이터 과학 기술이나 지식이 없는 경우에도 권한을 부여합니다. Azure AI 서비스의 목표는 개발자가 보고, 듣고, 말하고, 이해하고, 추론까지 할 수 있는 애플리케이션을 만들도록 지원하는 것입니다.

Fabric은 Azure AI 서비스를 사용하는 두 가지 옵션을 제공합니다.

  • 패브릭(미리 보기) 미리 빌드된 AI 모델

    패브릭은 Azure AI 서비스와 원활하게 통합되므로 필수 구성 요소 없이 사전에 빌드된 AI 모델로 데이터를 보강할 수 있습니다. 패브릭 인증을 사용하여 AI 서비스에 액세스할 수 있고 모든 사용량은 패브릭 용량에 대해 청구되므로 이 옵션을 사용하는 것이 좋습니다. 이 옵션은 현재 공개 미리 보기로 제공되며 제한된 AI 서비스를 사용할 수 있습니다.

    Fabric은 기본적으로 SynapseML 및 RESTful API를 모두 지원하여 Azure OpenAI Service , Text AnalyticsAzure AI Translator제공합니다. OpenAI Python 라이브러리를 사용하여 Fabric의 Azure OpenAI 서비스에 액세스할 수도 있습니다. 사용 가능한 모델에 대한 자세한 내용은 Fabric 미리 빌드된AI 모델을 참조하세요.

  • BYOK(Bring Your Own Key)

    Azure에서 AI 서비스를 프로비전하고 패브릭에서 사용할 고유 키를 가져올 수 있습니다. 미리 빌드된 AI 모델이 원하는 AI 서비스를 아직 지원하지 않는 경우에도 BYOK(Bring Your Own Key)를 사용할 수 있습니다.

    BYOK에서 Azure AI 서비스를 사용하는 방법에 대한 자세한 내용은 Bring Your Own Key를 사용하여 SynapseML의 Azure AI 서비스를 침조하세요.

패브릭에서 미리 빌드된 AI 모델(미리 보기)

참고 항목

미리 빌드된 AI 모델은 현재 미리 보기로 제공되며 사용자당 동시 요청 수에 제한이 있는 무료로 제공됩니다. Open AI 모델의 경우 사용자당 분당 20개의 요청이 제한됩니다.

Azure OpenAI Service

REST API, Python SDK. SynapseML

  • GPT-35- 터보: GPT-3.5 모델은 자연어 또는 코드를 이해하고 생성할 수 있습니다. GPT-3.5 제품군에서 가장 유능하고 비용 효율적인 모델은 GPT-3입니다. 채팅에 최적화된 5 Turbo 옵션은 기존의 완료 작업에도 적합합니다. 이 gpt-35-turbo-0125 모델은 최대 16,385개의 입력 토큰과 4,096개의 출력 토큰을 지원합니다.
  • gpt-4 제품군: gpt-4-32k이(가) 지원됩니다.
  • text-embedding-ada-002(버전 2), API 요청 포함과 함께 사용할 수 있는 포함 모델입니다. 허용되는 최대 요청 토큰은 8,191이며 반환된 벡터의 차원은 1,536입니다.

Text Analytics

REST API, SynapseML

  • 언어 감지: 입력 텍스트의 언어 검색
  • 감정 분석: 0에서 1 사이의 점수를 반환하여 입력 텍스트의 감정을 나타냅니다.
  • 핵심 구 추출: 입력 텍스트의 주요 대화 지점을 식별합니다.
  • PII(개인 식별 정보) 엔터티 인식: 입력 텍스트에서 중요한 정보 식별, 분류 및 수정
  • 명명된 엔터티 인식: 입력 텍스트에서 알려진 엔터티 및 일반 명명된 엔터티를 식별합니다.
  • 엔터티 연결: 텍스트에 있는 엔터티의 ID를 식별 및 구분합니다.

Azure AI 번역기

REST API, SynapseML

  • 번역: 텍스트 번역
  • 음역: 한 언어의 텍스트를 한 스크립트에서 다른 스크립트로 변환합니다.

사용 가능한 지역

Azure OpenAI 서비스를 사용할 수 있는 지역

패브릭에서 미리 빌드된 AI 서비스를 사용할 수 있는 Azure 지역 목록은 사용 가능한 지역 섹션을 참조하세요. Fabric 및 Power BI의 Copilot 개요(미리 보기) 문서를 참조하세요.

Text Analytics 및 Azure AI 번역기를 사용할 수 있는 지역

미리 빌드된 Text Analytics 및 Fabric의 Azure AI Translator 이제 이 문서에 나열된 Azure 지역에서 공개 미리 보기로 사용할 수 있습니다. 이 문서에서 Microsoft Fabric 홈 지역을 찾을 수 없는 경우에도 지원되는 지역에 Microsoft Fabric 용량을 만들 수 있습니다. 자세한 정보를 원하시면 Microsoft Fabric 구독 사이트를 방문하세요. 패브릭 홈 지역을 확인하려면 패브릭 홈 지역 찾기를 방문합니다.

아시아 태평양 유럽 아메리카 중동 및 아프리카
오스트레일리아 동부 북유럽 브라질 남부 남아프리카 북부
오스트레일리아 남동부 서유럽 캐나다 중부 아랍에미리트 북부
인도 중부 프랑스 중부 캐나다 동부
동아시아 노르웨이 동부 미국 동부
일본 동부 스위스 북부 미국 동부 2
한국 중부 스위스 서부 미국 중북부
동남 아시아 영국 남부 미국 중남부
인도 남부 영국 서부 미국 서부
미국 서부 2
미국 서부 3

소비율

참고 항목

패브릭에서 미리 빌드된 AI 서비스에 대한 청구는 기존 Power BI Premium 또는 패브릭 용량의 일부로 2024년 11월 1일에 적용되었습니다.

미리 빌드된 AI 서비스에 대한 요청은 패브릭 용량 단위를 사용합니다. 이 표에서는 AI 서비스를 사용할 때 사용되는 CU(용량 단위) 수를 정의합니다.

OpenAI 언어 모델의 사용률

모델 컨텍스트 입력(1,000개 토큰당) 출력(1,000개 토큰당)
GPT-4o-2024-08-06 전역 배포 128K 84.03 CU 초 336.13 CU 초
GPT-4 32K 2,016.81 CU 초 4,033.61 CU 초
GPT-3.5-Turbo-0125 16K 16.81 CU 초 50.42 CU 초

OpenAI 포함 모델의 사용률

모델 운영 측정 단위 소비율
text-embedding-ada-002 1,000개의 토큰 3.36 CU 초

Text Analytics의 사용률

작업 작업 측정 단위 소비율
언어 감지 텍스트 레코드 1,000개 33,613.45 CU 초
감정 분석 텍스트 레코드 1,000개 33,613.45 CU 초
키프레이즈 추출 텍스트 레코드 1,000개 33,613.45 CU 초
개인 식별 정보 데이터 식별 텍스트 레코드 1,000개 33,613.45 CU초
개체명 인식 텍스트 레코드 1,000개 33,613.45 CU 초
엔터티 연결 텍스트 레코드 1,000개 33,613.45 CU 초
요약 텍스트 레코드 1,000개 67,226.89 CU 초

Text Translator의 사용률

작업 운영 측정 단위 소비율
번역하기 1M 문자 336,134.45 CU 초
자역하다 1M 문자 336,134.45 CU 초

패브릭 소비율의 AI 서비스 변경

소비율은 언제든지 변경될 수 있습니다. Microsoft는 전자 메일 또는 제품 내 알림을 통해 알림을 제공하기 위해 합리적인 노력을 사용합니다. 변경 내용은 Microsoft 릴리스 정보 또는 Microsoft Fabric 블로그에 명시된 날짜에 적용됩니다. 패브릭 사용률에서 AI 서비스를 변경하면 사용하는 데 필요한 CU(용량 단위)가 크게 증가하는 경우 고객은 선택한 결제 방법에 사용할 수 있는 취소 옵션을 사용할 수 있습니다.

사용량 모니터링

작업과 연결된 워크로드 미터는 Fabric에서 미리 빌드된 AI 서비스에 대한 요금을 결정합니다. 예를 들어 AI 서비스 사용량이 Spark 워크로드에서 파생되는 경우 AI 사용량은 함께 그룹화되고 Fabric 용량 메트릭 앱의 Spark 청구 미터에서 청구됩니다.

예시

온라인 상점 소유자는 SynapseML 및 Spark를 사용하여 수백만 개의 제품을 관련 범주로 분류합니다. 현재 가게 주인은 하드 코딩된 논리를 적용하여 원시 "제품 유형"을 정리하고 범주에 매핑합니다. 그러나 소유자는 새 네이티브 패브릭 OpenAI LLM(큰 언어 모델) 엔드포인트를 사용하도록 전환할 계획입니다. 이렇게 하면 각 행에 대한 LLM에 대해 데이터를 반복적으로 처리한 다음 해당 "제품 이름", "설명", "기술 세부 정보" 등에 따라 제품을 분류합니다.

Spark 사용의 예상 비용은 1000 CU입니다. OpenAI 사용량에 대한 예상 비용은 약 300 CPU입니다.

새 논리를 테스트하려면 먼저 Spark Notebook 대화형 실행에서 반복합니다. 실행의 작업 이름으로 "Notebook 대화형 실행"을 사용합니다. 소유자가 "Notebook Interactive Run"에서 총 1,300 CUs의 사용을 기대하며 Spark 청구 미터가 전체 사용량을 책정합니다.

상점 주인이 논리의 유효성을 검사한 후, 주인은 정기 실행을 설정하고 작업 이름 "Spark 작업 예약 실행" 아래에서 1300 CU의 전체 사용량을 볼 것으로 기대하며, Spark 청구 미터는 전체 사용량을 계산합니다.