Prywatność, bezpieczeństwo i odpowiedzialne korzystanie z sieci szkieletowej Copilot
Przed rozpoczęciem korzystania z Copilot usługi Fabric w usłudze Fabric mogą pojawić się pytania dotyczące sposobu jego działania, sposobu zabezpieczania danych biznesowych i przestrzegania wymagań dotyczących prywatności oraz odpowiedzialnego używania generowania sztucznej inteligencji.
Ten artykuł zawiera odpowiedzi na często zadawane pytania związane z zabezpieczeniami i prywatnością danych biznesowych, aby ułatwić organizacji rozpoczęcie pracy z usługą Copilot Fabric. Artykuł Prywatność, zabezpieczenia i odpowiedzialne użycie w Copilot usłudze Power BI (wersja zapoznawcza) zawiera omówienie Copilot usługi Power BI. Przeczytaj, aby uzyskać szczegółowe informacje o Copilot usłudze Fabric.
Uwaga
- Administrator musi włączyć przełącznik dzierżawy przed rozpoczęciem korzystania z usługi Copilot. Aby uzyskać szczegółowe informacje, zobacz artykuł Copilot Ustawienia dzierżawy.
- Pojemność F64 lub P1 musi znajdować się w jednym z regionów wymienionych w tym artykule Dostępność regionu sieci szkieletowej.
- Jeśli twoja dzierżawa lub pojemność znajduje się poza stanem USA lub Francji, jest domyślnie wyłączona, Copilot chyba że administrator dzierżawy sieci szkieletowej umożliwia przetwarzanie danych wysyłanych do usługi Azure OpenAI poza regionem geograficznym dzierżawy, granicą zgodności lub ustawieniem dzierżawy wystąpienia chmury krajowej w portalu administracyjnym sieci szkieletowej.
- Copilot w usłudze Microsoft Fabric nie jest obsługiwana w przypadku jednostek SKU wersji próbnej. Obsługiwane są tylko płatne jednostki SKU (F64 lub nowsze lub P1 lub nowsze).
- Copilot Usługa Fabric jest obecnie wdrażana w publicznej wersji zapoznawczej i oczekuje się, że do końca marca 2024 r. będzie dostępna dla wszystkich klientów.
- Aby uzyskać więcej informacji, zobacz artykuł Overview of in Fabric and Power BI (Omówienie usługi Copilot Fabric i Power BI ).
Twoje dane biznesowe są bezpieczne
- Copilot funkcje korzystają z usługi Azure OpenAI Service, która jest w pełni kontrolowana przez firmę Microsoft. Dane nie są używane do trenowania modeli i nie są dostępne dla innych klientów.
- Zachowujesz kontrolę nad miejscem przetwarzania danych. Dane przetwarzane przez Copilot usługę Szkieletową pozostają w regionie geograficznym dzierżawy, chyba że jawnie zezwolisz na przetwarzanie danych poza regionem — na przykład w celu umożliwienia użytkownikom korzystania Copilot z usługi Azure OpenAI w regionie lub dostępność jest ograniczona ze względu na duże zapotrzebowanie. Dowiedz się więcej o ustawieniach administratora dla programu Copilot.
- Copilot nie przechowuje danych do monitorowania nadużyć. Aby zwiększyć prywatność i zaufanie, zaktualizowaliśmy nasze podejście do monitorowania nadużyć: wcześniej przechowywaliśmy dane z Copilot sieci szkieletowej, zawierające monity wejściowe i wyjściowe, przez maksymalnie 30 dni w celu sprawdzenia nadużyć lub nieprawidłowego użycia. Po przekazaniu opinii klientów wyeliminowaliśmy ten 30-dniowy okres przechowywania. Teraz nie przechowujemy już danych związanych z monitami, pokazując nasze niezachwiane zaangażowanie w prywatność i bezpieczeństwo użytkownika.
Sprawdzanie Copilot danych wyjściowych przed ich użyciem
- Copilot odpowiedzi mogą zawierać niedokładną lub niską jakość zawartości, dlatego przed użyciem ich w pracy należy przejrzeć dane wyjściowe.
- Osoby, które mogą znacząco ocenić dokładność i odpowiednią zawartość, powinny przejrzeć dane wyjściowe.
- Copilot Obecnie funkcje działają najlepiej w języku angielskim. Inne języki mogą również nie działać.
Ważne
Zapoznaj się z dodatkowymi warunkami wersji zapoznawczej dla usługi Fabric, która zawiera warunki użytkowania dla wersji zapoznawczej usługi Microsoft Generative AI Service Preview.
Jak Copilot to działa
W tym artykule Copilot opisano szereg funkcji i możliwości generacyjnych sztucznej inteligencji w usłudze Fabric obsługiwanych przez usługę Azure OpenAI Service.
Ogólnie rzecz biorąc, te funkcje są przeznaczone do generowania języka naturalnego, kodu lub innej zawartości na podstawie:
(a) dane wejściowe, które podajesz, i,
b) uzięcie danych , do których funkcja ma dostęp.
Na przykład usługa Power BI, fabryka danych i nauka o danych oferują Copilot czaty, w których można zadawać pytania i uzyskiwać odpowiedzi kontekstowe dotyczące danych. Copilot usługa Power BI może również tworzyć raporty i inne wizualizacje. Copilot Usługa Data Factory może przekształcić dane i wyjaśnić, jakie kroki zostały zastosowane. Nauka o danych oferuje Copilot funkcje poza okienkiem czatu, takie jak niestandardowe polecenia magic IPython w notesach. Copilot Czaty mogą być dodawane do innych środowisk w usłudze Fabric wraz z innymi funkcjami obsługiwanymi przez usługę Azure OpenAI pod maską.
Te informacje są wysyłane do usługi Azure OpenAI, gdzie są przetwarzane, a dane wyjściowe są generowane. W związku z tym dane przetwarzane przez usługę Azure OpenAI mogą obejmować:
- Monit użytkownika lub dane wejściowe.
- Dane uziemienia.
- Odpowiedź lub dane wyjściowe sztucznej inteligencji.
Dane uziemienia mogą obejmować kombinację schematu zestawu danych, określonych punktów danych i innych informacji istotnych dla bieżącego zadania użytkownika. Przejrzyj każdą sekcję środowiska, aby uzyskać szczegółowe informacje o tym, jakie dane są dostępne dla Copilot funkcji w tym scenariuszu.
Interakcje z Copilot programem są specyficzne dla każdego użytkownika. Oznacza to, że Copilot może uzyskiwać dostęp tylko do danych, do których bieżący użytkownik ma uprawnienia dostępu, a jego dane wyjściowe są widoczne tylko dla tego użytkownika, chyba że użytkownik udostępni dane wyjściowe innym osobom, na przykład udostępnienie wygenerowanego raportu usługi Power BI lub wygenerowanego kodu. Copilot nie używa danych od innych użytkowników w tej samej dzierżawie ani w innych dzierżawach.
Copilot korzysta z usługi Azure OpenAI — a nie publicznie dostępnych usług OpenAI — do przetwarzania wszystkich danych, w tym danych wejściowych użytkownika, danych uziemienia i Copilot danych wyjściowych. Copilot obecnie używa kombinacji modeli GPT, w tym GPT 3.5. Firma Microsoft hostuje modele OpenAI w środowisku platformy Microsoft Azure, a usługa nie współdziała z żadnymi usługami firmy OpenAI, takimi jak ChatGPT lub interfejs API OpenAI. Dane nie są używane do trenowania modeli i nie są dostępne dla innych klientów. Dowiedz się więcej o usłudze Azure OpenAI.
Proces Copilot
Te funkcje są zgodne z tym samym procesem ogólnym:
- Copilototrzymuje monit od użytkownika. Ten monit może mieć postać pytania, które użytkownik wpisze w okienku czatu, lub w postaci akcji, takiej jak wybranie przycisku z napisem "Utwórz raport".
- Copilot wstępnie przetwarza monit za pomocą podejścia nazywanego uziemienia. W zależności od scenariusza może to obejmować pobieranie odpowiednich danych, takich jak schemat zestawu danych lub historia czatów z bieżącej sesji użytkownika za pomocą polecenia Copilot. Uziemienie poprawia specyfikę monitu, więc użytkownik otrzymuje odpowiedzi, które są istotne i możliwe do wykonania określonego zadania. Pobieranie danych jest ograniczone do danych, które są dostępne dla uwierzytelnioowanego użytkownika na podstawie ich uprawnień. Zobacz sekcję Jakie dane są Copilot używane i jak są przetwarzane? w tym artykule, aby uzyskać więcej informacji.
- Copilot pobiera odpowiedź z usługi Azure OpenAI i przetwarza ją po przetworzeniu. W zależności od scenariusza przetwarzanie to może obejmować kontrole odpowiedzialnej sztucznej inteligencji, filtrowanie za pomocą usługi Azure con tryb namiotu ration lub dodatkowe ograniczenia specyficzne dla firmy.
- CopilotZwraca odpowiedź na użytkownika w postaci języka naturalnego, kodu lub innej zawartości. Na przykład odpowiedź może być w postaci wiadomości czatu lub wygenerowanego kodu lub może być kontekstowo odpowiednią formą, taką jak raport usługi Power BI lub komórka notesu usługi Synapse.
- Użytkownik przegląda odpowiedź przed jej użyciem. Copilot odpowiedzi mogą zawierać niedokładne lub niskiej jakości zawartość, dlatego ważne jest, aby eksperci w danej dziedzinie sprawdzali dane wyjściowe przed ich użyciem lub udostępnieniem.
Podobnie jak każde środowisko w usłudze Fabric jest tworzone dla określonych scenariuszy i osób — od inżynierów danych po analityków danych — każda Copilot funkcja w usłudze Fabric została również utworzona z myślą o unikatowych scenariuszach i użytkownikach. W przypadku funkcji, zamierzonych zastosowań i ograniczeń każdej funkcji zapoznaj się z sekcją dotyczącą używanego środowiska.
Definicje
Monituj lub wprowadź dane wejściowe
Tekst lub akcja przesłana przez Copilot użytkownika. Może to być w postaci pytania, które użytkownik wpisze w okienku czatu, lub w postaci akcji, takiej jak wybranie przycisku z napisem "Utwórz raport".
Uziemienie
Technika wstępnego przetwarzania, w której Copilot pobiera dodatkowe dane kontekstowe do monitu użytkownika, a następnie wysyła te dane wraz z monitem użytkownika do usługi Azure OpenAI w celu wygenerowania bardziej istotnej i możliwej do wykonania akcji odpowiedzi.
Odpowiedź lub dane wyjściowe
Zawartość, która Copilot powraca do użytkownika. Na przykład odpowiedź może być w postaci wiadomości czatu lub wygenerowanego kodu albo kontekstowo odpowiedniej zawartości, takiej jak raport usługi Power BI lub komórka notesu usługi Synapse.
Jakie dane Copilot są używane i jak są przetwarzane?
Aby wygenerować odpowiedź, Copilot użyj:
- Monit użytkownika lub dane wejściowe i, w razie potrzeby,
- Dodatkowe dane pobierane przez proces uziemienia.
Te informacje są wysyłane do usługi Azure OpenAI, gdzie są przetwarzane, a dane wyjściowe są generowane. W związku z tym dane przetwarzane przez usługę Azure OpenAI mogą obejmować:
- Monit użytkownika lub dane wejściowe.
- Dane uziemienia.
- Odpowiedź lub dane wyjściowe sztucznej inteligencji.
Dane uziemienia mogą obejmować kombinację schematu zestawu danych, określonych punktów danych i innych informacji istotnych dla bieżącego zadania użytkownika. Przejrzyj każdą sekcję środowiska, aby uzyskać szczegółowe informacje o tym, jakie dane są dostępne dla Copilot funkcji w tym scenariuszu.
Interakcje z Copilot programem są specyficzne dla każdego użytkownika. Oznacza to, że Copilot może uzyskiwać dostęp tylko do danych, do których bieżący użytkownik ma uprawnienia dostępu, a jego dane wyjściowe są widoczne tylko dla tego użytkownika, chyba że użytkownik udostępni dane wyjściowe innym osobom, na przykład udostępnienie wygenerowanego raportu usługi Power BI lub wygenerowanego kodu. Copilot nie używa danych od innych użytkowników w tej samej dzierżawie ani w innych dzierżawach.
Copilot korzysta z usług Azure OpenAI — a nie publicznie dostępnych usług OpenAI — do przetwarzania wszystkich danych, w tym danych wejściowych użytkownika, danych uziemienia i Copilot danych wyjściowych. Copilot obecnie używa kombinacji modeli GPT, w tym GPT 3.5. Firma Microsoft hostuje modele OpenAI w środowisku platformy Azure firmy Microsoft, a usługa nie współdziała z żadnymi usługami za pomocą interfejsu OpenAI (na przykład ChatGPT lub interfejsu API OpenAI). Dane nie są używane do trenowania modeli i nie są dostępne dla innych klientów. Dowiedz się więcej o usłudze Azure OpenAI.
Miejsce przechowywania i zgodność danych
Zachowujesz kontrolę nad miejscem przetwarzania danych. Dane przetwarzane przez Copilot usługę Szkieletową pozostają w regionie geograficznym dzierżawy, chyba że jawnie zezwolisz na przetwarzanie danych poza regionem — na przykład w celu umożliwienia użytkownikom korzystania Copilot z usługi Azure OpenAI w regionie lub dostępność jest ograniczona ze względu na duże zapotrzebowanie. (Zobacz, gdzie usługa Azure OpenAI jest obecnie dostępna).
Aby zezwolić na przetwarzanie danych w innym miejscu, administrator może włączyć ustawienie Dane wysyłane do usługi Azure OpenAI mogą być przetwarzane poza regionem geograficznym dzierżawy, granicą zgodności lub wystąpieniem chmury krajowej. Dowiedz się więcej o ustawieniach administratora dla programu Copilot.
Co należy wiedzieć, aby korzystać z odpowiedzialnego używania Copilot ?
Firma Microsoft zobowiązała się do zapewnienia, że nasze systemy sztucznej inteligencji są sterowane naszymi zasadami sztucznej inteligencji i standardem Odpowiedzialnej sztucznej inteligencji. Zasady te obejmują umożliwienie naszym klientom efektywnego korzystania z tych systemów i zgodnie z ich zamierzonymi zastosowaniami. Nasze podejście do odpowiedzialnej sztucznej inteligencji stale ewoluuje, aby aktywnie rozwiązywać pojawiające się problemy.
Copilot funkcje w usłudze Fabric są tworzone w celu spełnienia standardu odpowiedzialnej sztucznej inteligencji, co oznacza, że są one przeglądane przez zespoły wielodyscyplinarne pod kątem potencjalnych szkód, a następnie udoskonalane w celu uwzględnienia środków zaradczych dla tych szkód.
Przed użyciem Copilotprogramu należy pamiętać o ograniczeniach programu Copilot:
- Copilot odpowiedzi mogą zawierać niedokładną lub niską jakość zawartości, dlatego przed użyciem ich w pracy należy przejrzeć dane wyjściowe.
- Osoby, które mogą znacząco ocenić dokładność i odpowiednią zawartość, powinny przejrzeć dane wyjściowe.
- Copilot Obecnie funkcje działają najlepiej w języku angielskim. Inne języki mogą również nie działać.
Copilot dla obciążeń sieci szkieletowej
Prywatność, bezpieczeństwo i odpowiedzialne korzystanie z:
- Copilot dla usługi Data Factory (wersja zapoznawcza)
- Copilotfor Nauka o danych (wersja zapoznawcza)
- Copilot dla magazynu danych (wersja zapoznawcza)
- Copilot dla baz danych SQL Database (wersja zapoznawcza)
- Copilot dla usługi Power BI
- Copilot dla analizy w czasie rzeczywistym (wersja zapoznawcza)