Freigeben über


Häufig gestellte Fragen zu verantwortungsvoller KI

Was ist Microsoft Security Copilot? 

Security Copilot eine natürliche Sprache ist, ist eine generative KI-gestützte Sicherheitslösung, die dazu beiträgt, die Effizienz und Die Fähigkeiten von Verteidigern zu erhöhen, um Sicherheitsergebnisse bei Maschinengeschwindigkeit und Skalierung zu verbessern. Es zeichnet Kontext aus Plug-Ins und Daten, um Eingabeaufforderungen zu beantworten, sodass Sicherheitsexperten und IT-Administratoren dabei helfen können, die Sicherheit ihrer Organisationen zu gewährleisten.

Was kann Security Copilot tun? 

Security Copilot hilft ihnen, Fragen in natürlicher Sprache zu beantworten, sodass Sie in Sekundenschnelle umsetzbare Antworten auf allgemeine Sicherheits- und IT-Aufgaben erhalten können.

Microsoft Security Copilot hilft in den folgenden Szenarien:

  • Sicherheitsuntersuchung und -behebung
    Gewinnen Sie Kontext für Incidents, um komplexe Sicherheitswarnungen schnell in umsetzbare Zusammenfassungen zu selektieren und mit schrittweisen Anleitungen zur Reaktion schneller zu beheben.

  • Skriptanalyse und KQL-Abfrageerstellung
    Vermeiden Sie das manuelle Schreiben von Abfragesprachenskripts oder das Reverse Engineering von Schadsoftwareskripts mit übersetzung in natürlicher Sprache, damit jedes Teammitglied technische Aufgaben ausführen kann.

  • Risikountersuchung und Sicherheitsstatusverwaltung
    Verschaffen Sie sich einen umfassenden Überblick über Ihre Umgebung mit priorisierten Risiken, um Chancen für eine einfachere Verbesserung des Status aufzudecken.

  • Schnellere Problembehandlung für IT-Probleme
    Synthetisieren Sie relevante Informationen schnell, und erhalten Sie umsetzbare Erkenntnisse, um IT-Probleme schnell zu identifizieren und zu beheben.

  • Erstellen und Verwalten von Sicherheitsrichtlinien
    Definieren Sie eine neue Richtlinie, verweisen Sie mit anderen auf Konflikte, und fassen Sie vorhandene Richtlinien zusammen, um komplexe Organisationskontexte schnell und einfach zu verwalten.

  • Lebenszyklus-Workflowkonfiguration
    Erstellen Sie Gruppen, und legen Sie Zugriffsparameter mit schritt-für-Schritt-Anleitungen fest, um eine nahtlose Konfiguration sicherzustellen, um Sicherheitsrisiken zu verhindern.

  • Berichterstellung von Stakeholdern
    Erhalten Sie einen klaren und präzisen Bericht, der den Kontext und die Umgebung, offene Fragen und Schutzmaßnahmen zusammenfasst, die für den Ton und die Sprache des Berichtspublikums vorbereitet sind.

Was ist die beabsichtigte Verwendung von Security Copilot? 

Security Copilot unterstützt Sicherheitsexperten in End-to-End-Szenarien wie Reaktion auf Vorfälle, Bedrohungssuche, Informationserfassung und Statusverwaltung. Weitere Informationen finden Sie unter Anwendungsfälle und Rollen.

Wie wurde Security Copilot ausgewertet? Welche Metriken werden verwendet, um die Leistung zu messen?  

Security Copilot wurde vor der Veröffentlichung umfangreichen Tests unterzogen. Zu den Tests gehörten red teaming, d. h. die Praxis, das Produkt streng zu testen, um Fehlermodi und -szenarien zu identifizieren, die dazu führen könnten, dass Security Copilot Dinge außerhalb der beabsichtigten Verwendung tun oder sagen oder die die Microsoft KI-Prinzipien nicht unterstützen.

Nachdem es veröffentlicht wurde, ist das Benutzerfeedback entscheidend, um Microsoft bei der Verbesserung des Systems zu unterstützen. Sie haben die Möglichkeit, Feedback zu geben, wenn Sie eine Ausgabe von Security Copilot erhalten. Wenn eine Antwort ungenau, unvollständig oder unklar ist, verwenden Sie die Schaltflächen "Zieloffen" und "Bericht", um jede anstößige Ausgabe zu kennzeichnen. Sie können auch mithilfe der Schaltfläche „Bestätigen“ bestätigen, wenn Antworten nützlich und korrekt sind. Diese Schaltflächen werden am Ende jeder Security Copilot Antwort angezeigt, und Ihr Feedback geht direkt an Microsoft, damit wir die Leistung der Plattform verbessern können.

Welche Einschränkungen gelten für Security Copilot? Wie können Benutzer die Auswirkungen der Einschränkungen von Security Copilot minimieren, wenn sie das System verwenden? 

  • Das Early Access-Programm soll Kunden die Möglichkeit geben, frühzeitigen Zugriff auf Security Copilot zu erhalten und Feedback zur Plattform zu geben. Vorschaufeatures sind nicht für die Verwendung in der Produktion vorgesehen und verfügen möglicherweise über eingeschränkte Funktionalität. 

  • Wie jede KI-gestützte Technologie macht Security Copilot nicht alles richtig. Sie können die Antworten jedoch verbessern, indem Sie Ihre Beobachtungen mithilfe des Feedbacktools bereitstellen, das in die Plattform integriert ist.  

  • Das System generiert möglicherweise veraltete Antworten, wenn es nicht über Benutzereingaben oder Plug-Ins die aktuellsten Daten erhält. Um die besten Ergebnisse zu erzielen, überprüfen Sie, ob die richtigen Plug-Ins aktiviert sind.

  • Das System ist so konzipiert, dass es auf Eingabeaufforderungen im Zusammenhang mit der Sicherheitsdomäne reagiert, z. B. Incidentuntersuchung und Threat Intelligence. Eingabeaufforderungen außerhalb des Sicherheitsbereichs können zu Antworten führen, die ungenau und unvollständig sind.

  • Security Copilot können Code generieren oder Code in Antworten einschließen, was möglicherweise vertrauliche Informationen oder Sicherheitsrisiken offenlegen kann, wenn sie nicht sorgfältig verwendet werden. Antworten können den Anschein geben fundiert zu sein, sind aber möglicherweise semantisch oder syntaktisch inkorrekt oder spiegeln möglicherweise nicht genau die Absicht des Entwicklers wider. Benutzer sollten immer die gleichen Vorsichtsmaßnahmen ergreifen, wie Sie es bei jedem Code tun würden, den sie schreiben, der Material verwendet, welches nicht unabhängig von Benutzern stammt, einschließlich Vorsichtsmaßnahmen, um dessen Eignung sicherzustellen. Dazu gehören strenge Tests, die IP-Überprüfung und die Überprüfung auf Sicherheitsrisiken.

  • Übereinstimmungen mit öffentlichem Code: Security Copilot kann neuen Code generieren, was auf probbilistische Weise erfolgt. Die Wahrscheinlichkeit, dass Code erzeugt wird, der dem Code im Trainingssatz entspricht, ist zwar gering, aber ein Security Copilot Vorschlag kann einige Codeausschnitte enthalten, die dem Code im Trainingssatz entsprechen. Benutzer sollten immer die gleichen Vorsichtsmaßnahmen ergreifen, wie Sie es bei jedem Code tun würden, den sie schreiben, der Material verwendet, welches nicht unabhängig von Entwicklern stammt, einschließlich Vorsichtsmaßnahmen, um dessen Eignung sicherzustellen. Dazu gehören strenge Tests, die IP-Überprüfung und die Überprüfung auf Sicherheitsrisiken.

  • Das System ist möglicherweise nicht in der Lage, lange Eingabeaufforderungen zu verarbeiten, z. B. Hunderttausende von Zeichen.

  • Die Nutzung der Plattform unterliegt möglicherweise Nutzungslimits oder Kapazitätseinschränkung. Selbst bei kürzeren Eingabeaufforderungen kann die Auswahl eines Plug-Ins, das Ausführen von API-Aufrufen, das Generieren von Antworten und das Überprüfen, bevor sie dem Benutzer angezeigt werden, einige Zeit (bis zu mehrere Minuten) dauern und eine hohe GPU-Kapazität erfordern. 

  • Um Fehler zu minimieren, wird Benutzern empfohlen, die Anweisungen zur Eingabeaufforderung zu befolgen. 

Welche betrieblichen Faktoren und Einstellungen ermöglichen eine effektive und verantwortungsvolle Verwendung von Security Copilot? 

  • Sie können alltägliche Wörter verwenden, um zu beschreiben, was Sie Security Copilot tun möchten. Zum Beispiel:

    • "Erzählen Sie mir von meinen neuesten Vorfällen" oder "Fassen Sie diesen Vorfall zusammen."
  • Während das System die Antwort generiert, sehen Sie die Schritte, die das System ausführt, im Prozessprotokoll. Damit haben Sie die Möglichkeit, seine Prozesse und Quellen zu überprüfen.  

  • Sie können eine Eingabeaufforderung jederzeit während der Eingabeaufforderung abbrechen, bearbeiten, erneut ausführen oder löschen. 

  • Sie können Feedback zur Qualität einer Antwort geben, und sie haben die Möglichkeit alles was inakzeptabel ist an Microsoft zu melden. 

  • Antworten können angeheftet, freigegeben und exportiert werden – so können Sicherheitsexperten zusammenarbeiten und Beobachtungen teilen. 

  • Administratoren haben die Kontrolle über die Plug-Ins, die eine Verbindung mit Security Copilot herstellen.   

  • Sie können Plug-Ins auswählen, personalisieren und verwalten, die mit Security Copilot funktionieren.

  • Security Copilot erstellte Promptbooks, bei denen es sich um eine Gruppe von Eingabeaufforderungen handelt, die nacheinander ausgeführt werden, um einen bestimmten Workflow abzuschließen.

Wie geht Microsoft verantwortungsvolle KI für Security Copilot vor?

Bei Microsoft nehmen wir unsere Verpflichtung zu verantwortungsvoller KI ernst. Security Copilot wird gemäß unseren KI-Prinzipien entwickelt. Wir arbeiten mit OpenAI zusammen, um eine Erfahrung bereitzustellen, die eine verantwortungsvolle Nutzung fördert. Beispielsweise haben und werden wir mit OpenAI an grundlegender Modellarbeit zusammenarbeiten. Wir haben die Security Copilot Benutzererfahrung so konzipiert, dass der Mensch im Mittelpunkt steht. Wir haben ein Sicherheitssystem entwickelt, das darauf ausgelegt ist, Fehler zu minimieren und Missbrauch mit Elementen wie Anmerkungen zu schädlichem Inhalt, operativer Überwachung und anderen Sicherheitsvorkehrungen zu verhindern. Das Early Access-Programm, das nur mit Einladung zugänglich ist, ist auch ein Teil unseres Ansatzes für verantwortungsvolle KI. Wir nehmen Benutzerfeedback von Personen mit frühem Zugriff auf Security Copilot, um das Tool zu verbessern, bevor es allgemein verfügbar gemacht wird.

Verantwortungsvolle KI ist ein Prozess, und wir werden unsere Systeme auf diesem Weg kontinuierlich verbessern. Wir sind bestrebt, unsere KI zuverlässiger und vertrauenswürdiger zu machen, und Ihr Feedback hilft uns dabei.

Halten Sie das EU-Gesetz zur künstlichen Intelligenz ein?

Wir setzen uns für die Einhaltung des EU-Gesetzes zur künstlichen Intelligenz ein. Unsere mehrjährigen Bemühungen, unseren „Responsible AI Standard“ (Standard für verantwortungsvolle KI) und unsere interne Governance zu definieren, weiterzuentwickeln und zu implementieren, haben unsere Bereitschaft gestärkt.

Bei Microsoft erkennen wir die Bedeutung der Einhaltung gesetzlicher Bestimmungen als Grundlage für Vertrauen und Zuverlässigkeit in KI-Technologien an. Wir sind bestrebt, verantwortungsvolle KI entwurfsbedingt zu schaffen. Unser Ziel ist es, KI zu entwickeln und bereitzustellen, die sich positiv auf die Gesellschaft auswirkt und deren Vertrauen verdient.

Unsere Arbeit basiert auf einer Reihe von Kernprinzipien: Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit, Inklusivität, Transparenz und Verantwortlichkeit. Die verantwortungsvolle KI-Standard von Microsoft übernimmt diese sechs Prinzipien und unterteilt sie in Ziele und Anforderungen für die KI, die wir zur Verfügung stellen.

Unser „Responsible AI Standard“ (Standard für verantwortungsvolle KI) berücksichtigt gesetzliche Vorschläge und deren Entwicklung, einschließlich des ursprünglichen Vorschlags für das EU-Gesetz zur künstlichen Intelligenz. Wir haben unsere neuesten Produkte und Dienste im KI-Bereich wie Microsoft Copilot und Microsoft Azure OpenAI Service in Übereinstimmung mit unserem „Responsible AI Standard“ (Standard für verantwortungsvolle KI) entwickelt. Während die endgültigen Anforderungen im Rahmen des EU-Gesetzes zur künstlichen Intelligenz ausführlicher definiert werden, freuen wir uns darauf, mit den politischen Entscheidungsträgern zusammenzuarbeiten, um eine praktikable Implementierung und Anwendung der Regeln sicherzustellen, unsere Compliance zu demonstrieren und mit unseren Kunden und anderen Beteiligten zusammenzuarbeiten, um die Compliance im gesamten Ökosystem zu unterstützen.