Preguntas más frecuentes sobre la inteligencia artificial responsable
¿Qué es Seguridad de Microsoft Copilot?
Security Copilot es un lenguaje natural, es una solución de seguridad generativa con tecnología de inteligencia artificial que ayuda a aumentar la eficacia y las capacidades de los defensores para mejorar los resultados de seguridad a velocidad y escala de la máquina. Dibuja contexto de los complementos y los datos para responder a los avisos para que los profesionales de seguridad y los administradores de TI puedan ayudar a mantener seguras sus organizaciones.
¿Qué puede hacer Security Copilot?
Security Copilot ayuda a responder preguntas en lenguaje natural para que pueda recibir respuestas accionables a tareas comunes de seguridad y TI en segundos.
Microsoft Security Copilot ayuda en los siguientes escenarios:
Investigación y corrección de seguridad
Obtenga contexto para los incidentes para evaluar rápidamente las alertas de seguridad complejas en resúmenes accionables y corregirlos más rápidamente con instrucciones de respuesta paso a paso.Análisis de scripts y creación de consultas de KQL
Elimine la necesidad de escribir manualmente scripts de lenguaje de consulta o scripts de malware de ingeniería inversa con traducción de lenguaje natural para permitir que todos los miembros del equipo ejecuten tareas técnicas.Exploración de riesgos y administración de la posición de seguridad
Obtenga una imagen amplia de su entorno con riesgos prioritarios para descubrir oportunidades para mejorar la posición con mayor facilidad.Solución de problemas de TI más rápida
Sintetizar rápidamente información relevante y recibir información útil para identificar y resolver problemas de TI rápidamente.Creación y administración de directivas de seguridad
Defina una nueva directiva, haga referencia cruzada a ella con otros usuarios para los conflictos y resuma las directivas existentes para administrar el contexto organizativo complejo de forma rápida y sencilla.Configuración del flujo de trabajo del ciclo de vida
Cree grupos y establezca parámetros de acceso con instrucciones paso a paso para garantizar una configuración sin problemas para evitar vulnerabilidades de seguridad.Informes de partes interesadas
Obtenga un informe claro y conciso que resuma el contexto y el entorno, los problemas abiertos y las medidas de protección preparados para el tono y el idioma de la audiencia del informe.
¿Cuál es el uso previsto de Security Copilot?
Security Copilot ayuda a los profesionales de seguridad en escenarios de un extremo a otro, como la respuesta a incidentes, la búsqueda de amenazas, la recopilación de inteligencia y la administración de posturas. Para obtener más información, consulte Casos de uso y roles.
¿Cómo se evaluó Security Copilot? ¿Qué métricas se usan para medir el rendimiento?
Security Copilot sometidos a pruebas sustanciales antes de ser liberados. Las pruebas incluían la formación de equipos rojos, que es la práctica de probar rigurosamente el producto para identificar los modos y escenarios de error que podrían hacer que Security Copilot hacer o decir cosas fuera de sus usos previstos o que no admitan los principios de inteligencia artificial de Microsoft.
Ahora que se ha publicado, los comentarios de los usuarios son fundamentales para ayudar a Microsoft a mejorar el sistema. Tiene la opción de proporcionar comentarios cada vez que reciba resultados de Security Copilot. Cuando una respuesta sea inexacta, incompleta o poco clara, use los botones "Fuera de destino" y "Informe" para marcar cualquier salida objetable. También puede confirmar cuándo las respuestas son útiles y precisas mediante el botón "Confirmar". Estos botones aparecen en la parte inferior de cada respuesta Security Copilot y sus comentarios van directamente a Microsoft para ayudarnos a mejorar el rendimiento de la plataforma.
¿Cuáles son las limitaciones de Security Copilot? ¿Cómo pueden los usuarios minimizar el impacto de las limitaciones de Security Copilot al usar el sistema?
El Programa de acceso anticipado está diseñado para ofrecer a los clientes la oportunidad de obtener acceso anticipado a Security Copilot y proporcionar comentarios sobre la plataforma. Las características en versión preliminar no están pensadas para su uso en producción y pueden tener una funcionalidad limitada.
Al igual que cualquier tecnología con IA, Security Copilot no lo hace todo bien. Sin embargo, puede ayudar a mejorar sus respuestas proporcionando sus observaciones mediante la herramienta de comentarios, que está integrada en la plataforma.
El sistema podría generar respuestas obsoletas si no se proporcionan los datos más actuales a través de complementos o entradas del usuario. Para obtener los mejores resultados, compruebe que los complementos adecuados están habilitados.
El sistema está diseñado para responder a mensajes relacionados con el dominio de seguridad, como la investigación de incidentes y la inteligencia sobre amenazas. Los avisos fuera del ámbito de seguridad pueden dar lugar a respuestas que carecen de precisión y integridad.
Security Copilot podría generar código o incluir código en las respuestas, lo que podría exponer información confidencial o vulnerabilidades si no se usa con cuidado. Es posible que las respuestas parezcan válidas, pero que realmente no sean semánticas o sintácticamente correctas o que no reflejen con precisión la intención del desarrollador. Los usuarios siempre deben tomar las mismas precauciones que lo harían con cualquier código que escriban que use el material que los usuarios no originaron de forma independiente, incluidas las precauciones para garantizar su idoneidad. Entre ellas se incluyen pruebas rigurosas, análisis de IP y comprobación de vulnerabilidades de seguridad.
Coincide con el código público: Security Copilot es capaz de generar código nuevo, lo que hace de forma probabilística. Aunque la probabilidad de que pueda generar código que coincida con el código del conjunto de entrenamiento es baja, una sugerencia de Security Copilot podría contener algunos fragmentos de código que coincidan con el código del conjunto de entrenamiento. Los usuarios siempre deben tomar las mismas precauciones que lo harían con cualquier código que escriban que use desarrolladores de materiales que no se originen de forma independiente, incluidas las precauciones para garantizar su idoneidad. Entre ellas se incluyen pruebas rigurosas, análisis de IP y comprobación de vulnerabilidades de seguridad.
Es posible que el sistema no pueda procesar mensajes largos, como cientos de miles de caracteres.
El uso de la plataforma podría estar sujeto a límites de uso o limitación de capacidad. Incluso con solicitudes más cortas, elegir un complemento, realizar llamadas API, generar respuestas y comprobarlas antes de mostrarlas al usuario puede tardar tiempo (hasta varios minutos) y requerir una alta capacidad de GPU.
Para minimizar los errores, se recomienda a los usuarios que sigan las instrucciones que solicitan.
¿Qué factores operativos y configuraciones permiten el uso eficaz y responsable de Security Copilot?
Puede usar palabras cotidianas para describir lo que le gustaría Security Copilot hacer. Por ejemplo:
- "Cuéntame sobre mis últimos incidentes" o "Resumir este incidente".
A medida que el sistema genera la respuesta, empieza a ver los pasos que el sistema está realizando en el registro de procesos, lo que proporciona oportunidades para volver a comprobar sus procesos y orígenes.
En cualquier momento durante la formación del mensaje, puede cancelar, editar, volver a ejecutar o eliminar un mensaje.
Puede proporcionar comentarios sobre la calidad de una respuesta, incluida la notificación de cualquier elemento inaceptable a Microsoft.
Las respuestas se pueden anclar, compartir y exportar, lo que ayuda a los profesionales de seguridad a colaborar y compartir observaciones.
Los administradores tienen control sobre los complementos que se conectan a Security Copilot.
Puede elegir, personalizar y administrar complementos que funcionan con Security Copilot.
Security Copilot crearon los promptbooks, que son un grupo de mensajes que se ejecutan en secuencia para completar un flujo de trabajo específico.
¿Cómo se aproxima Microsoft a la inteligencia artificial responsable para Security Copilot?
En Microsoft, nos tomamos muy en serio nuestro compromiso con la inteligencia artificial responsable. Security Copilot se está desarrollando de acuerdo con nuestros principios de inteligencia artificial. Estamos trabajando con OpenAI para ofrecer una experiencia que fomente el uso responsable. Por ejemplo, tenemos y seguiremos colaborando con OpenAI en el trabajo del modelo fundamental. Hemos diseñado el Security Copilot experiencia de usuario para mantener a los seres humanos en el centro. Hemos desarrollado un sistema de seguridad diseñado para mitigar los errores y evitar el uso incorrecto con elementos como la anotación de contenido perjudicial, la supervisión operativa y otras medidas de seguridad. El programa de acceso anticipado solo para invitación también forma parte de nuestro enfoque de inteligencia artificial responsable. Estamos tomando los comentarios de los usuarios de aquellos con acceso anticipado a Security Copilot para mejorar la herramienta antes de que esté ampliamente disponible.
La inteligencia artificial responsable es un recorrido y mejoraremos continuamente nuestros sistemas a lo largo del proceso. Nos comprometemos a hacer que nuestra inteligencia artificial sea más confiable y confiable, y sus comentarios nos ayudarán a hacerlo.
¿Cumple con la Ley de IA de la UE?
Nos comprometemos a cumplir con la Ley de IA de la UE. Nuestro esfuerzo de varios años para definir, evolucionar e implementar nuestro estándar de inteligencia artificial responsable y gobernanza interna ha refuerza nuestra preparación.
En Microsoft, reconocemos la importancia del cumplimiento normativo como una piedra angular de confianza y confiabilidad en las tecnologías de inteligencia artificial. Nos comprometemos a crear una inteligencia artificial responsable por diseño. Nuestro objetivo es desarrollar e implantar inteligencia artificial que tenga un impacto beneficioso y se gane la confianza de la sociedad.
Nuestro trabajo se guía por un conjunto básico de principios: imparcialidad, confiabilidad y seguridad, privacidad y seguridad, inclusión, transparencia y responsabilidad. La inteligencia artificial responsable de Microsoft Standard toma estos seis principios y los divide en objetivos y requisitos para la inteligencia artificial que ponemos a disposición.
Nuestro estándar de inteligencia artificial responsable tiene en cuenta las propuestas normativas y su evolución, incluida la propuesta inicial de la Ley de IA de la UE. Hemos desarrollado nuestros productos y servicios más recientes en el espacio de inteligencia artificial, como Microsoft Copilot y Microsoft Azure Servicio OpenAI, en consonancia con nuestro estándar de inteligencia artificial responsable. A medida que los requisitos finales de la Ley de IA de la UE se definen con más detalle, esperamos trabajar con los responsables de la elaboración de directivas para garantizar una implementación y aplicación factibles de las reglas, para demostrar nuestro cumplimiento y para interactuar con nuestros clientes y otras partes interesadas para respaldar el cumplimiento en todo el ecosistema.