Customer Service의 Copilot에 대한 책임감 있는 AI FAQ
적용 대상: Dynamics 365 Contact Center—Embedded, Dynamics 365 Contact Center—독립 실행형 및 Dynamics 365 Customer Service
이 FAQ 문서는 Customer Service의 Copilot 기능에서 AI의 책임감 있는 사용에 대한 질문에 답하는 데 도움이 됩니다.
Dynamics 365 Customer Service의 Copilot이란 무엇입니까?
Copilot은 Dynamics 365 Customer Service에서 에이전트 경험을 혁신하는 AI 기반 도구입니다. 에이전트가 문제를 더 빨리 해결하고 케이스를 보다 효율적으로 처리하며 시간이 많이 걸리는 작업을 자동화하는 데 도움이 되는 실시간 AI 기반 지원을 제공합니다. 그러면 에이전트는 고객에게 고품질 서비스를 제공하는 데 집중할 수 있습니다.
시스템의 기능은 무엇입니까?
Copilot은 다음과 같은 주요 기능을 제공합니다.
질문하기: 에이전트가 Copilot 도움말 창을 활성화할 때 표시되는 첫 번째 탭입니다. 에이전트의 질문에 상황에 맞는 응답을 제공하는 데 도움이 되는 Copilot과의 대화형 인터페이스입니다. Copilot의 응답은 설정 중에 조직에서 제공한 내부 및 외부 지식 소스를 기반으로 합니다.
이메일 쓰기: Copilot 도움말 창의 두 번째 탭은 에이전트가 케이스의 맥락에 따라 이메일 응답을 신속하게 작성하여 사용자가 이메일을 작성하는 데 소요되는 시간을 줄이는 데 도움이 됩니다.
채팅 응답 초안 작성: 에이전트가 조직에서 구성한 지식 소스에서 진행 중인 디지털 메시징 대화에 대한 클릭 한 번으로 응답을 작성할 수 있습니다.
케이스 요약: Copilot은 에이전트에게 케이스 양식에서 바로 케이스 요약을 제공하므로 케이스의 중요한 세부 정보를 신속하게 파악할 수 있습니다.
대화 요약: Copilot은 고객 여정 전반에 걸쳐 가상 에이전트 전달, 전송 및 주문형과 같은 주요 지점에서 에이전트에게 대화 요약을 제공합니다.
케이스에서 지식 초안 생성(프리뷰): Copilot은 케이스의 정보를 기반으로 하는 제안으로 참조 문서 초안을 생성합니다. 에이전트는 Copilot에 수정 지침을 제공하여 초안을 검토하고 구체화한 후 저장할 수 있습니다.
사용자 지정 레코드 요약: Copilot은 관리자가 사용자 지정 테이블에 대해 구성한 필드를 기반으로 에이전트에게 레코드 요약을 제공하여 에이전트가 지원 레코드의 중요한 세부 정보를 빠르게 따라잡을 수 있도록 합니다.
해결 메모 생성: Copilot은 질문하기 탭에서 케이스 세부 정보, 이메일 및 케이스에 연결된 메모의 요약을 에이전트에게 제공하므로 에이전트는 케이스나 사건을 더 빨리 마감할 수 있습니다.
시스템의 용도는 무엇입니까?
Customer Service의 Copilot은 고객 지원 담당자가 보다 효율적이고 효과적으로 작업할 수 있도록 돕기 위한 것입니다. 고객 지원 담당자는 Copilot의 지식 기반 응답을 사용하여 지식 문서를 검색하고 응답 초안을 작성하는 시간을 절약할 수 있습니다. Copilot 요약은 에이전트가 케이스 및 대화를 빠르게 시작할 수 있도록 지원하도록 설계되었습니다. Customer Service에서 Copilot이 생성한 콘텐츠는 사람의 검토나 감독 없이 사용할 수 없습니다.
Customer Service의 Copilot은 어떻게 평가됩니까? 성능을 측정하는 데 사용되는 메트릭은 무엇입니까?
Customer Service의 Copilot은 설계, 개발 및 릴리스의 각 단계를 통해 전 세계 고객과 함께 실제 시나리오에 대해 평가되었습니다. 연구 및 비즈니스 영향 연구를 조합하여 Copilot의 정확성, 유용성 및 에이전트 신뢰를 포함하여 Copilot에 대한 다양한 양적 및 질적 메트릭을 평가했습니다. 책임 있는 AI 투명성 보고서에서 자세히 알아보세요.
Customer Service의 Copilot 제한 사항은 무엇입니까? Copilot 제한 사항의 영향을 최소화하려면 어떻게 해야 합니까?
질문하기, 이메일 작성, 채팅 응답 초안 작성과 같은 Copilot의 지식 기반 기능은 기본을 위한 고품질의 최신 지식 문서에 의존합니다. 이러한 지식 문서가 없으면 사용자는 사실이 아닌 Copilot 응답을 접할 가능성이 더 큽니다.
Copilot에서 사실이 아닌 응답이 표시될 가능성을 최소화하려면 Microsoft가 강력한 지식 관리 관행을 채택하여 Copilot에 연결되는 비즈니스 지식이 고품질의 최신 상태인지 확인하는 것이 중요합니다.
시스템의 효과적이고 책임 있는 사용을 가능하게 하는 운영 요소 및 설정은 무엇입니까?
항상 Copilot의 결과를 검토하십시오
Copilot은 본질적으로 확률론적인 대규모 언어 모델 기술을 기반으로 합니다. 입력 텍스트 조각이 제시되면 모델은 그 앞에 오는 단어가 주어진 해당 텍스트의 각 단어의 확률을 계산합니다. 그런 다음 모델은 따를 가능성이 가장 높은 단어를 선택합니다. 그러나 이 모델은 확률을 기반으로 하기 때문에 정확한 다음 단어가 무엇인지 절대 확실하게 말할 수 없습니다. 대신 훈련된 데이터에서 학습한 확률 분포를 기반으로 최선의 추측을 제공합니다. Copilot은 입력에 추가 정보를 추가하여 조직의 출력을 맥락화하는 그라운딩이라는 접근 방식을 사용합니다. 의미 체계 검색을 사용하여 입력을 이해하고 관련 내부 조직 문서 및 신뢰할 수 있는 공개 웹 검색 결과를 검색하고 해당 콘텐츠를 기반으로 응답하도록 언어 모델을 안내합니다. 이는 Copilot 응답이 조직 데이터를 준수하는지 확인하는 데 도움이 되지만 Copilot이 생성한 결과를 사용하기 전에 항상 검토하는 것이 중요합니다.
Copilot을 최대한 활용하십시오
Copilot과 상호 작용할 때 질문의 구조가 Copilot이 제공하는 응답에 큰 영향을 미칠 수 있다는 점을 염두에 두는 것이 중요합니다. Copilot과 효과적으로 상호 작용하려면 명확하고 구체적인 질문을 하고, AI가 의도를 더 잘 이해할 수 있도록 컨텍스트를 제공하고, 한 번에 하나의 질문을 하고, 명확성과 접근성을 위해 기술 용어를 피하는 것이 중요합니다.
명확하고 구체적인 질문을 하십시오
명확한 의도는 응답 품질에 직접적인 영향을 미치므로 질문을 할 때 필수적입니다. 예를 들어 "고객의 커피 머신이 시작되지 않는 이유는 무엇입니까?"와 같은 광범위한 질문을 하는 것입니다. "고객의 커피 머신이 시작되지 않는 이유를 확인하기 위해 어떤 조치를 취할 수 있습니까?"와 같은 보다 구체적인 질문에 비해 유용한 응답을 생성할 가능성이 적습니다.
그러나 "압력 등급이 5bar인 Contoso 900 커피 머신이 시작되지 않는 이유를 확인하기 위해 어떤 조치를 취할 수 있습니까?"와 같은 더 자세한 질문을 합니다. 문제의 범위를 좁히고 더 많은 컨텍스트를 제공하여 더 정확하고 대상이 지정된 응답으로 이어집니다.
컨텍스트 추가
컨텍스트를 추가하면 대화형 AI 시스템이 사용자의 의도를 더 잘 이해하고 더 정확하고 적절한 응답을 제공하는 데 도움이 됩니다. 컨텍스트가 없으면 시스템에서 사용자의 질문을 잘못 이해하거나 일반적이거나 관련 없는 응답을 제공할 수 있습니다.
예를 들어, "커피 머신이 시작되지 않는 이유는 무엇입니까?"라고 질문하면 "최근에 고객이 커피 머신에서 석회질 제거 모드를 시작했고 성공적으로 석회질 제거를 완료했습니다. 석회질 제거가 완료되었음을 확인할 수 있도록 마지막에 전원 표시등에서 세 번 깜박였습니다. 왜 커피 머신을 더 이상 시작할 수 없습니까?"와 같은 자세한 맥락의 질문에 비해 일반적인 답변을 제공합니다
이러한 방식으로 컨텍스트를 추가하는 것은 Copilot이 사용자의 의도를 더 잘 이해하고 보다 정확하고 관련성 있는 응답을 제공하는 데 도움이 되기 때문에 중요합니다.
가능하면 기술 용어를 피하십시오
Copilot과 상호 작용할 때 시스템이 항상 정확하거나 적절하게 이해하지 못할 수 있으므로 매우 기술적인 용어와 리소스 이름을 사용하지 않는 것이 좋습니다. 더 간단하고 자연스러운 언어를 사용하면 시스템이 사용자의 의도를 올바르게 이해하고 명확하고 유용한 응답을 제공할 수 있습니다. 예:
"방화벽 구성을 변경한 후 고객이 VM에 SSH로 연결할 수 없습니다."
대신 다음과 같이 바꿀 수 있습니다.
"고객이 가상 머신에서 방화벽 규칙을 변경했습니다. 그러나 더 이상 SSH(Secure Shell)를 사용하여 연결할 수 없습니다. 도와주실 수 있나요?"
에이전트는 제안 사항을 따름으로써 Copilot과의 상호 작용을 개선하고 Copilot으로부터 정확하고 자신 있는 응답을 받을 가능성을 높일 수 있습니다.
응답 요약 또는 확장
경우에 따라 Copilot의 응답이 예상보다 길어질 수 있습니다. 에이전트가 고객과 실시간 채팅 중이고 이메일을 통해 응답을 보내는 것과 비교할 때 간결한 응답을 보내야 하는 경우가 여기에 해당할 수 있습니다. 이러한 경우 Copilot에게 "답변 요약"을 요청하면 질문에 대한 간결한 답변을 얻을 수 있습니다. 마찬가지로 더 자세한 정보가 필요한 경우 Copilot에게 "자세한 정보 제공"을 요청하면 질문에 대한 더 자세한 답변을 얻을 수 있습니다. 응답이 잘린 경우 "계속"을 입력하면 응답의 나머지 부분이 표시됩니다.
Copilot이 생성한 응답에 어떻게 영향을 미칠 수 있습니까? 기본 LLM을 미세 조정할 수 있습니까?
대규모 언어 모델(LLM)을 직접 사용자 지정하는 것은 불가능합니다. Copilot 응답은 소스 문서를 업데이트하여 영향을 받을 수 있습니다. Copilot 응답의 모든 피드백 콘텐츠가 저장됩니다. 이 데이터를 사용하여 보고서를 생성하여 업데이트해야 하는 데이터 원본을 결정할 수 있습니다. 피드백 데이터를 주기적으로 검토하고 지식 문서가 Copilot에 최상의 최신 정보를 제공하는지 확인하는 프로세스를 마련하는 것이 좋습니다.
Copilot의 데이터 보안 모델은 무엇입니까?
Copilot은 정의된 역할 기반 액세스(RBAC) 제어를 시행하고 모든 기존 보안 구조를 준수합니다. 따라서 에이전트는 액세스 권한이 없는 데이터를 볼 수 없습니다. 또한 에이전트가 액세스할 수 있는 데이터 원본만 Copilot 응답 생성에 사용됩니다.
Copilot는 콘텐츠가 불쾌감을 주거나 유해한지 어떻게 판단하나요?
Copilot는 불쾌감을 주는 콘텐츠의 고유한 카테고리를 기반으로 심각도 등급 시스템을 통해 콘텐츠가 유해한지 여부를 결정합니다. Azure AI 콘텐츠 보안의 유해성 카테고리에서 자세히 알아볼 수 있습니다.
Copilot 응답을 생성하기 위해 데이터 처리 및 검색은 어디에서 발생합니까?
Copilot은 ChatGPT를 구동하는 공개 OpenAI 서비스를 호출하지 않습니다. Customer Service의 Copilot은 Microsoft 관리형 테넌트의 Microsoft Azure OpenAI 서비스를 사용합니다. 모든 데이터 처리 및 검색은 Microsoft 관리 테넌트 내에서 발생합니다. 또한 고객의 데이터는 공유되지 않으며 공개 모델에 피드백되지 않습니다.
Copilot가 서비스 케이스 및 대화에서 생성하는 요약에 대한 언어 제한은 무엇입니까?
Copilot이 생성한 케이스 및 대화 요약에서 많은 언어가 지원됩니다. 이러한 요약의 품질은 영어에서 가장 높을 것으로 예상되는 반면 다른 언어에서는 시간이 지남에 따라 품질이 향상될 것으로 예상됩니다. Copilot 기능에 대한 언어 지원에서 지원되는 언어에 대해 알아보기
모델이 지속적으로 테스트 및 모니터링되고 있습니까? 만약 그렇다면, 얼마나 자주? 어떤 테스트가 수행됩니까?
모델은 모델 상호 작용 또는 버전이 변경될 때마다 품질 및 유해한 콘텐츠에 대해 테스트됩니다. 책임 있는 AI 투명성 보고서에서 자세히 알아보세요.
성능 저하를 감지하기 위해 모델을 얼마나 자주 모니터링합니까?
생성형 AI GPT 모델은 Azure OpenAI에서 호스팅하고 관리합니다. 고객 서비스 시나리오에서 모델을 사용하려면 책임 있는 AI 사례 및 배포 안전 위원회 검사를 따라야 합니다. 모델 버전 또는 기본 프롬프트에 대한 모든 변경 사항은 품질 및 유해한 콘텐츠에 대해 검증됩니다. 책임 있는 AI 투명성 보고서에서 자세히 알아보세요.
제품 또는 서비스가 둘 이상의 모델 또는 상호 의존적인 모델 시스템을 사용합니까?
시스템의 다른 기능은 다른 버전의 Azure OpenAI 서비스 모델을 사용할 수 있습니다. Azure OpenAI 서비스 모델에서 자세히 알아보세요.
Copilot는 타사 모델 제품 또는 서비스를 사용하며 이 모델에 대한 설명서를 사용할 수 있나요?
Copilot은 OpenAI를 Microsoft에서 개발한 콘텐츠 필터링 및 남용 감지 모델과 통합하는 완전 관리형 AI 서비스인 Azure OpenAI를 사용하여 빌드되었습니다. Azure OpenAI에 대한 투명성 고지에서 자세히 알아보세요.
다른 AI/ML 또는 모델 솔루션에서 사용되는 모델, 업스트림 모델 또는 출력의 변경 사항을 전달하기 위한 설정된 프로세스가 있나요?
Copilot 기능에 대한 계획된 변경 사항은 공개 설명서를 통해 전달됩니다. 그러나 모델 버전 또는 프롬프트와 관련된 변경 사항은 내부 책임 있는 AI 프로세스에 의해 관리됩니다. 이러한 변경 내용은 점진적이고 지속적인 기능 개선이므로 전달되지 않습니다.
제품을 개선하기 위해 Microsoft에서 사용자 축어적 피드백을 사용할 수 있습니까?
아니요
Microsoft에는 AI 시스템과 상호 작용하거나 모니터링할 때 다양한 인간의 역할과 책임을 정의하고 차별화하는 정책과 절차가 있습니까?
있음. 책임 있는 AI 프로세스에서는 관련된 모든 이해 관계자와 사용자를 고려하고 시스템의 사용 또는 의도하지 않은 사용에 대해 논의합니다. 식별된 시나리오에 따라 필요한 완화 조치는 제품 내에서 또는 설명서를 통해 제공됩니다. 책임 있는 AI 투명성 보고서에서 자세히 알아보세요.
Microsoft는 잠재적인 영향과 새로운 위험에 대한 지속적인 모니터링을 지원하기 위해 다른 최종 사용자 및 주요 이해 관계자의 의견을 참여, 캡처 및 통합하는 접근 방식을 식별하고 문서화합니까?
있음. 책임 있는 AI 투명성 보고서에서 자세히 알아보세요.
Microsoft는 대응 및 가동 중지 시간 측정을 포함하여 AI 시스템 사고에 대한 사고 대응 계획을 문서화, 실행 및 측정합니까?
있음. 책임 있는 AI 프로세스를 수행하려면 팀에 기능 문제에 대해 수행하는 것과 유사한 AI 문제에 대한 인시던트 대응 계획이 있어야 합니다. 기능 팀은 시스템의 성능과 안정성을 지속적으로 모니터링합니다. 책임 있는 AI 투명성 보고서에서 자세히 알아보세요.
Microsoft는 오류 발생 및 부정적인 영향에 대한 정보를 관련 이해 관계자, 운영자, 실무자, 사용자 및 영향을 받는 당사자와 공유하기 위한 절차를 수립합니까?
있음. 심각도가 높은 문제의 경우 기능 팀은 영향을 받는 고객과 중단을 전달해야 합니다.
Microsoft는 AI 시스템 사고가 감지되었을 때 신속하게 대응할 수 있도록 시스템 성능을 실시간으로 측정하고 모니터링합니까?
있음. 기능 팀은 시스템의 성능과 안정성을 지속적으로 모니터링합니다.
Microsoft는 최종 사용자 및 기타 이해 관계자와 함께 시스템 설명의 품질을 테스트합니까?
있음. 책임 있는 AI 투명성 보고서에서 자세히 알아보세요.
Microsoft는 AI 시스템의 부정적인 위험과 이점을 평가할 때 모델의 수명 주기 전반에 걸친 편향 및 보안 문제를 포함하여 모델 시스템 성능 및 신뢰성을 모니터링하고 해결하기 위한 정책과 절차를 수립했습니까?
있음. 책임 있는 AI 투명성 보고서에서 자세히 알아보세요.
Microsoft는 계산 및 통계적 형태의 편향을 관리하기 위해 공정성 평가를 수행합니까?
있음. 책임 있는 AI 투명성 보고서에서 자세히 알아보세요.
Microsoft는 성능 또는 바이어스 문제에 대해 시스템 출력을 모니터링합니까?
있음. 중재 필터는 응답에 유해한 콘텐츠가 없는지 확인하기 위해 출력을 포함하여 여러 계층에 적용됩니다. 책임 있는 AI 투명성 보고서에서 자세히 알아보세요.
모델 작업의 복원력 수준은 어느 정도인가요? 예를 들어 모델을 사용할 수 없는 경우에 대한 재해 복구 및 비상 계획이 있나요?
모든 Azure 서비스와 마찬가지로 백업 및 복구는 고가용성을 위해 여러 데이터 센터를 통해 지원됩니다.
모델이 모델의 설명 가능성을 방해할 수 있는 다른 환경(호스팅 공급자, 하드웨어, 소프트웨어 시스템과 같은 변수 포함)으로 마이그레이션하기 어렵게 만드는 타사 도구 또는 솔루션에 종속되어 있습니까?
아니요
확립된 모델 거버넌스 정책이 있나요?
예, Azure OpenAI에서 지원하는 설정된 거버넌스 정책이 있습니다. 책임 있는 AI 투명성 보고서에서 자세히 알아보세요.
개인 정보 보호 및 데이터 거버넌스 정책에 따라 PII를 포함하는 학습 또는 프로덕션 데이터 세트에 대한 설정 및 문서화된 프로토콜(권한 부여, 기간, 유형) 및 액세스 제어가 있나요?
현재 모델 학습이 없으므로 데이터 세트를 둘러싼 요구 사항이 없습니다. 그러나 고객 서비스 담당자가 Copilot와 결합하면 기능에 따라 컨텍스트 데이터(서비스 케이스 또는 채팅)를 사용하여 응답을 생성합니다.
민감하거나 법적으로 보호되는 속성에 대한 PII 공개 및 추론이 모니터링되나요?
예, 모든 기능에 대해 개인 정보 검토가 수행됩니다.
Microsoft에는 산업, 비즈니스 목적 및 배포된 AI 시스템의 애플리케이션 환경과 관련된 법률 및 규제 문제와 요구 사항을 고려하는 프로세스가 있습니까?
있음. 법적 검토는 규제 요구 사항 및 기타 법적 문제를 지원하기 위해 모든 기능에 대해 수행됩니다.
관련 정보
Copilot 기능 사용
Copilot을 사용하여 케이스에서 지식 초안 생성
Copilot 지역 가용성
Microsoft Power Platform의 Copilot 데이터 보안 및 개인 정보 보호 관련 FAQ