Zaufanie i bezpieczeństwo usługi DatabricksIQ
Usługa Databricks rozumie znaczenie Twoich danych i zaufanie, które umieszczasz w nas podczas korzystania z usług Databricks. Usługa Databricks jest zobowiązana do najwyższych standardów ochrony danych i wdrożyła rygorystyczne środki w celu zapewnienia ochrony informacji.
-
Twoje dane nie są używane do trenowania, a nasi partnerzy modelowi nie przechowują Twoich danych.
- Ani usługa Databricks, ani nasz partner modelu (Azure OpenAI) nie trenuje modeli przy użyciu danych klientów. Kod i dane wejściowe nie są używane do generowania sugestii wyświetlanych dla innych klientów.
- Dane przesyłane przez usługę Databricks w tych funkcjach nie są zachowywane przez usługę Azure OpenAI, nawet w przypadku monitorowania nadużyć. Te funkcje zostały wycofane z przechowywania danych na platformie Azure w tym celu.
- Ochrona przed szkodliwymi danymi wyjściowymi. Usługa Databricks używa również filtrowania zawartości usługi Azure OpenAI, aby chronić użytkowników przed szkodliwą zawartością. Ponadto usługa Databricks przeprowadziła obszerną ocenę z tysiącami symulowanych interakcji użytkowników, aby zapewnić skuteczne stosowanie ochrony przed szkodliwą zawartością, jailbreakami, niezabezpieczonym generowaniem kodu i korzystaniem z zawartości praw autorskich innych firm.
- Usługa Databricks używa tylko danych niezbędnych do świadczenia usługi. Dane są wysyłane tylko w przypadku interakcji z funkcjami pomocniczymi sztucznej inteligencji. Usługa Databricks wysyła dane wejściowe języka naturalnego, odpowiednie metadane tabeli, błędy, a także kod wejściowy lub zapytania, aby pomóc w zwracaniu bardziej odpowiednich wyników dla danych. Usługa Databricks nie wysyła danych na poziomie wiersza.
- Dane są chronione podczas przesyłania. Cały ruch między usługą Databricks i usługą Azure OpenAI jest szyfrowany podczas przesyłania przy użyciu standardowego szyfrowania TLS w branży.
- Dane UE pozostają w UE. W przypadku obszarów roboczych Unii Europejskiej (UE) funkcje pomocnicze sztucznej inteligencji korzystają z modelu Azure OpenAI hostowanego w UE. Zobacz Azure Geographies: Data residency and Databricks Designated Services (Lokalizacje geograficzne platformy Azure: miejsce przechowywania danych i wyznaczone usługi Databricks).
Aby uzyskać więcej informacji na temat prywatności w programie Databricks Assistant, zobacz Prywatność i zabezpieczenia.
Funkcje zarządzane przez ustawienie funkcji pomocniczych sztucznej inteligencji obsługiwanej przez partnerów
Sztuczna inteligencja oparta na partnerach odnosi się do usługi Azure OpenAI. Poniżej przedstawiono podział funkcji zarządzanych przez ustawienie funkcji pomocniczych sztucznej inteligencji opartej na partnerach:
Funkcja | Gdzie jest hostowany model? | Kontrolowane przez ustawienie sztucznej inteligencji obsługiwanej przez partnerów? |
---|---|---|
Czat asystenta usługi Databricks | Azure OpenAI Service | Tak |
Szybka poprawka | Azure OpenAI Service | Tak |
Komentarze interfejsu użytkownika wygenerowane przez sztuczną inteligencję | Obszary robocze profilu zabezpieczeń zgodności (CSP): Usługa Azure OpenAI | Tak, dla wszystkich obszarów roboczych CSP. |
Pulpit nawigacyjny AI/BI, wizualizacje wspomagane AI i towarzyszące przestrzenie Genie | Azure OpenAI Service | Tak |
Dżin | Azure OpenAI Service | Tak |
Autouzupełnianie asystenta usługi Databricks | Model hostowany w usłudze Databricks | Nie. |
Wyszukiwanie inteligentne | Azure OpenAI Service | Tak |
Korzystanie z modelu hostowanego w Databricks dla Databricks Assistant
Ważny
Ta funkcja jest dostępna w publicznej wersji zapoznawczej.
Dowiedz się więcej o korzystaniu z modelu hostowanego w usłudze Databricks w celu włączenia asystenta usługi Databricks. W tej sekcji wyjaśniono, jak to działa i jak go używać.
Jak to działa
Poniższy diagram zawiera omówienie sposobu, w jaki model hostowany w usłudze Databricks obsługuje asystenta usługi Databricks.
- Użytkownik wywołuje asystenta Databricks, wpisując kod lub pytanie, wybierając opcję Diagnozowanie błędulub zaznaczając komórkę.
- Usługa Databricks dołącza metadane do żądania i wysyła je do modelu dużego języka hostowanego w usłudze Databricks (LLM). Wszystkie dane są szyfrowane w stanie spoczynku. Klienci mogą używać klucza zarządzanego przez klienta (CMK).
- Żądanie użytkownika jest wysyłane do modelu hostowanego w usłudze Databricks.
Modele hostowane w usłudze Databricks używają meta Llama 3.x
Asystent Databricks z modelami hostowanymi przez Databricks jest obecnie tworzony za pomocą Meta Llama 3. Meta Llama 3 jest licencjonowany na platformie Meta Llama 3 Community License, Copyright © Meta Platforms, Inc. Wszelkie prawa zastrzeżone.
Często zadawane pytania dotyczące modeli hostowanych w usłudze Databricks dla Asystenta
Czy mogę mieć własną instancję serwującą prywatny model?
Nie w tej chwili. Ta wersja zapoznawcza używa punktów końcowych modelu , które są zarządzane i zabezpieczone przez Databricks. Punkty końcowe obsługujące modele są bezstanowe, chronione przez wiele warstw izolacji oraz implementują następujące mechanizmy kontroli zabezpieczeń w celu ochrony twoich danych:
- Każde żądanie klienta do obsługi modelu jest logicznie izolowane, uwierzytelniane i autoryzowane.
- Usługa mozaikowego modelu sztucznej inteligencji szyfruje wszystkie dane magazynowane (AES-256) i podczas przesyłania (TLS 1.2+).
Czy metadane wysyłane do modeli respektują uprawnienia użytkownika w Unity Catalog?
Tak, wszystkie dane wysyłane do modelu są zgodne z uprawnieniami katalogu Unity użytkownika. Na przykład nie wysyła metadanych odnoszących się do tabel, do których użytkownik nie ma uprawnień do wyświetlania.
Gdzie są przechowywane dane?
Historia czatów asystenta usługi Databricks jest przechowywana w bazie danych płaszczyzny sterowania wraz z notesem. Baza danych płaszczyzny sterowania to szyfrowanie AES-256-bitowe, a klienci, którzy wymagają kontroli nad kluczem szyfrowania, mogą korzystać z naszej funkcji klucza Customer-Managed.
Notatka
- Podobnie jak w przypadku innych obiektów obszaru roboczego okres przechowywania historii czatów asystenta usługi Databricks jest w zakresie cyklu życia samego obiektu. Jeśli użytkownik usunie notes, zostanie on usunięty i dowolna skojarzona historia czatu zostanie usunięta w ciągu 30 dni.
- Jeśli notes jest udostępniany innemu użytkownikowi, historia czatów jest również widoczna dla tego użytkownika, chyba że zostanie wyczyszczona najpierw.
- Jeśli notes zostanie wyeksportowany, historia czatu nie zostanie wyeksportowana.
- Jeśli administrator ma dostęp do notesu, może go otworzyć i wyświetlić historię czatów.
Czy mogę wprowadzić własny klucz interfejsu API dla mojego modelu lub hostować własne modele?
Nie w tej chwili. Asystent usługi Databricks jest w pełni zarządzany i hostowany przez usługę Databricks. Funkcje asystenta są w dużym stopniu zależne od funkcji obsługujących model (na przykład wywoływania funkcji), wydajności i jakości. Usługa Databricks stale ocenia nowe modele pod kątem najlepszej wydajności i może zaktualizować model w przyszłych wersjach tej funkcji.
Kto jest właścicielem danych wyjściowych? Jeśli Asystent generuje kod, kto jest właścicielem tego adresu IP?
Klient jest właścicielem swoich wyników.
Rezygnacja z korzystania z modeli hostowanych w usłudze Databricks
Aby zrezygnować z korzystania z modeli hostowanych w usłudze Databricks:
- Kliknij swoją nazwę użytkownika na górnym pasku obszaru roboczego usługi Databricks.
- Z menu wybierz pozycję Podglądy.
- Wyłącz Use Assistant z modelami hostowanymi w usłudze Databricks.
Aby dowiedzieć się więcej na temat zarządzania wersjami zapoznawczami, zobacz Manage Azure Databricks Previews (Zarządzanie wersjami zapoznawczami usługi Azure Databricks).