Atlassian Intelligence se ha diseñado para aportar transparencia
Nuestro compromiso inquebrantable con la comunicación abierta, la responsabilidad y el respaldo a los equipos para que utilicen la IA de manera responsable.
Atlassian Intelligence está diseñado para agilizar la colaboración y para que los equipos puedan acelerar su trabajo. Al igual que debes conocer la mejor manera de trabajar con tu equipo, entender el funcionamiento de Atlassian Intelligence te servirá para hacer un uso más eficaz. En esta página, explicaremos cómo funcionan nuestros productos y funciones basados en IA, por ejemplo, qué pueden hacer o no y cómo influyen en la forma en que utilizas nuestros productos. Creemos que, con la información de esta página, podrás aprovechar al máximo nuestros productos y el trabajo en equipo. Para obtener más información sobre nuestro compromiso de crear tecnología de manera responsable, consulta nuestros Principios de tecnología responsable.
Agrupación de alertas
La agrupación de alertas con Atlassian Intelligence se basa en modelos de lenguaje de gran tamaño desarrollados por OpenAI y otros modelos de aprendizaje automático. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos de aprendizaje automático para analizar y generar grupos de alertas y ofrecer sugerencias relacionadas (grupos de alertas anteriores y personas encargadas de responder a alertas anteriormente) en nuestros productos en función de la similitud del contenido de las alertas o de las etiquetas utilizadas. Luego, Atlassian Intelligence utiliza modelos de lenguaje de gran tamaño para analizar y generar descripciones y contenido en lenguaje natural para estos grupos en nuestros productos. Estos modelos de lenguaje de gran tamaño generan respuestas en función de tus entradas y son probabilísticos. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
La agrupación de alertas utiliza Atlassian Intelligence para identificar y agrupar alertas similares. También te ayuda a identificar y recomendar grupos de alertas similares anteriores y personas encargadas de responder a alertas anteriormente (o equipos de estas personas) en función de la similitud semántica del contenido de la alerta o de las etiquetas utilizadas. Cuando quieras escalar el grupo de alertas a un incidente, la agrupación de alertas también rellenará automáticamente toda la información contextual para que la revises como parte del proceso de creación del incidente. Creemos que la agrupación de alertas funciona mejor en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para la agrupación de alertas, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. En el caso de los grupos de alertas que ves, puede que no reflejen con precisión la similitud semántica de sus etiquetas. Hemos descubierto que la agrupación de alertas es menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. También deberías asegurarte de que tú y tu equipo seguís prácticas coherentes en cuanto al uso de las etiquetas de alerta. |
Entendemos que puedas tener preguntas sobre cómo utiliza tus datos la agrupación de alertas. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Procesamos los datos de tus alertas para entrenar una versión del modelo de aprendizaje automático para que reconozca los patrones específicos de tus alertas. Esta versión se usa únicamente para tu experiencia:
En lo que respecta a tus datos, la agrupación de alertas aplica las siguientes medidas:
|
Función de respuestas de Atlassian Intelligence en Jira Service Management
Las respuestas de Atlassian Intelligence se basan en extensos modelos lingüísticos desarrollados por OpenAI. Entre ellos, se incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
La función de respuestas de Atlassian Intelligence se conecta a Virtual Service Agent de Jira Service Management. Utiliza la inteligencia artificial generativa para buscar en la base de conocimientos vinculada y responder a las preguntas de los clientes. Creemos que la función de respuestas de Atlassian Intelligence funciona mejor en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para la función de respuestas de Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que la función de respuestas de Atlassian Intelligence resulta menos práctica en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo utilizan tus datos las respuestas de Atlassian Intelligence en Jira Service Management. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
|
Automatización mediante Atlassian Intelligence
La Automatización de Confluence mediante Atlassian Intelligence se basa en modelos GPT desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar las entradas en lenguaje natural y generar una regla de automatización para ti dentro de Jira y Confluence. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
La creación de reglas de automatización es la base de la experiencia de automatización diaria, por lo que queremos facilitarte aún más añadiendo Atlassian Intelligence al creador de reglas de automatización de Jira y Confluence. Ahora puedes crear reglas de automatización fácilmente con solo escribir y describir lo que quieres automatizar, y dejar que Atlassian Intelligence se encargue de todo para crear la regla por ti. Consulta más información sobre la Automatización mediante Atlassian Intelligence para Jira y para Confluence. Creemos que la Automatización mediante Atlassian Intelligence para Jira y Confluence funciona mejor en situaciones en las que no estás seguro de cómo empezar o quieres acelerar el proceso de creación de reglas. ¿No estás seguro de cuál es la mejor manera de crear una regla de automatización?Las reglas de automatización se crean mediante una combinación de distintos tipos de componentes: desencadenadores, acciones, condiciones y ramas. Piensa en los componentes como los elementos básicos de una regla. Para crear correctamente una regla con Atlassian Intelligence, esta debe contener al menos un desencadenador y una acción. Por ejemplo: En Jira: Cada lunes, busca todas las tareas con fecha de vencimiento en los próximos 7 días, y envía a la persona asignada un correo electrónico de recordatorio. Cuando un ticket pase a Pruebas, asígnaselo a John Smith. En Confluence:
Además, para que una regla se cree correctamente, todos sus componentes deben ser compatibles con la Automatización mediante Atlassian Intelligence. Esto significa que cualquier desencadenador, acción, condición o rama de tu regla debe ser compatible con la Automatización en Jira o Confluence. |
Es importante recordar que, por la forma como funcionan los modelos utilizados para potenciar la Automatización mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que la automatización mediante Atlassian Intelligence es menos práctica en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. La Automatización mediante Atlassian Intelligence solo funcionará con el conjunto actual de componentes de automatización disponibles en Jira y Confluence. También puedes pensar en ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga, como se ha descrito anteriormente. |
Entendemos que puedas tener preguntas sobre cómo utiliza tus datos la Automatización mediante Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, el uso de Atlassian Intelligence para la automatización de Confluence aplica las siguientes medidas:
OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud. Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página o un proyecto concretos, no se te sugerirán contenidos de esos activos en la respuesta que recibas. Si no quieres que tu contenido esté disponible en las respuestas de otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos. |
Chart Insights
Chart Insights se basa en extensos modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Todo ello significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Chart Insights utiliza Atlassian Intelligence para ayudarte a entender mejor los datos de cualquier gráfico de Atlassian Analytics. Lo hace utilizando el título del panel, el título del gráfico y los datos del gráfico (incluidos los encabezados de las columnas y los valores de las filas) para generar un resumen en lenguaje natural de ese gráfico y sus datos. También tendrá como objetivo identificar cualquier tendencia o anomalía para darte una idea determinada de ese gráfico. Creemos que Chart Insights funciona mejor en los siguientes casos:
Los gráficos de barras, los gráficos de líneas y los gráficos de barras con una línea funcionan mejor con esta función, ya que normalmente tienen tendencias, fechas y muchas filas de datos. |
Es importante recordar que, por la forma en que funcionan los modelos utilizados para Chart Insights, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que Chart Insights es menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedes tener dudas sobre la forma en que Chart Insights utiliza tus datos. Esta sección complementa la información disponible en esta página Tratamos los siguientes datos:
En lo que respecta a tus datos, Chart Insights aplica las siguientes medidas.
|
Resumen rápido de Confluence
El resumen de páginas y blogs mediante Atlassian Intelligence se basa en modelos LLM desarrollados por OpenAI. Entre ellos, se incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Ahorra tiempo y obtén más rápidamente los detalles que necesitas para realizar tu trabajo más deprisa generando un resumen rápido de una página o blog de Confluence con Atlassian Intelligence. Más información sobre el uso de Atlassian Intelligence en Confluence. Creemos que resumir páginas y blogs con Atlassian Intelligence funciona mejor en los siguientes casos:
|
Es importante recordar que, debido a la forma en que funcionan los modelos utilizados para impulsar el resumen de páginas y blogs con Atlassian Intelligence, a veces estos pueden comportarse de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Si bien seguimos mejorando la compatibilidad con las macros, las tablas y ampliando los resúmenes, hemos descubierto que resumir páginas y blogs con Atlassian Intelligence es menos útil en situaciones donde:
Es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para la automatización de Confluence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, al resumir páginas y blogs con Atlassian Intelligence, se aplican las siguientes medidas:
|
Definir términos con Atlassian Intelligence
La definición de términos con Atlassian Intelligence en Confluence y Jira funciona con grandes modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar respuestas en lenguaje natural en Confluence. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. |
Una de las cosas más difíciles de consumir contenido en Confluence y Jira puede ser conseguir el contexto que necesitas para entender lo que lees. Las abreviaturas, los acrónimos, los términos desconocidos y los nombres específicos de equipos o proyectos pueden hacerte perder mucho tiempo buscando la información que necesitas. La definición de términos con Atlassian Intelligence proporcionará la definición de términos específicos de la empresa (como acrónimos, nombres de proyecto, sistemas o equipos) en una página de Confluence o en la descripción de una incidencia en Jira. De esta forma, los usuarios tendrán la información que necesitan y cuando la necesitan y mejorará la colaboración de los equipos. Atlassian Intelligence puede ahorrarte tiempo, ya que hace estas definiciones por ti, sin que tengas que apartarte de la lectura. Si encuentras una definición que te parezca inexacta, puedes editarla o añadir una nueva y, después, establecer que la visibilidad sea para esa página o incidencia, para todo el espacio o proyecto, o para acceder a toda tu organización. La definición de términos con Atlassian Intelligence en Confluence funciona mejor en estos casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para definir términos con Atlassian Intelligence en Confluence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que la definición de términos con Atlassian Intelligence en Confluence funciona mejor en estos casos:
Además, en Jira, hemos descubierto que, dado que la definición de términos con Atlassian Intelligence depende de la búsqueda en Confluence, la función solo funcionará en Jira si tienes permiso para ver una instancia de Confluence en el mismo sitio que tu instancia de Jira. Puede que descubras que la definición de términos con Atlassian Intelligence no funciona como esperabas en los espacios de Confluence o las instancias de Jira que tienen contenido escrito en varios idiomas. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al definir términos con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al definir términos con Atlassian Intelligence, se aplican las siguientes medidas en lo que respecta a tus datos:
|
Genera descripciones de solicitudes de extracción con Atlassian Intelligence
La generación de descripciones de solicitudes de extracción con Atlassian Intelligence funciona con grandes modelos lingüísticos (LLM) desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un código y un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Atlassian Intelligence puede ayudarte a generar, transformar y resumir el contenido mientras escribes comentarios o descripciones de solicitudes de extracción en la experiencia de revisión de código de Bitbucket Cloud. Esto incluye lo siguiente:
Creemos que la generación de descripciones de solicitudes de extracción de Bitbucket Cloud con Atlassian Intelligence funciona mejor en estos casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para esta función, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que la generación de solicitudes de extracción de Bitbucket Cloud con Atlassian Intelligence no es tan útil en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al definir términos con Atlassian Intelligence en Confluence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al generar descripciones de solicitudes de extracción con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
Generar consultas de SQL en Atlassian Analytics
La generación de consultas de SQL con Atlassian Intelligence en Atlassian Analytics funciona con grandes modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y entender el lenguaje natural y, a continuación, lo traduce al lenguaje de consulta estructurada (SQL) en Atlassian Analytics. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Plantea una pregunta a Atlassian Intelligence en lenguaje natural y haz que se traduzca a SQL, en lugar de escribir tus propias consultas de SQL desde cero. Cuando haces una pregunta, Atlassian Intelligence utiliza el esquema de Atlassian Data Lake de la fuente de datos seleccionada para generar una consulta de SQL que se puede utilizar para crear gráficos en los paneles de Atlassian Analytics y también puede ayudarte a obtener información sobre el esquema en el Data Lake. La generación de consultas de SQL con Atlassian Intelligence funciona mejor en estos casos:
¿No tienes claro qué preguntas hacer?Aquí te damos algunas ideas:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para generar consultas de SQL con Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que generar consultas de SQL con Atlassian Intelligence es menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al generar consultas de SQL con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al generar consultas de SQL con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos.
|
IA generativa en el editor
El uso de Atlassian Intelligence en experiencias de edición se basa en extensos modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Atlassian Intelligence ayuda a impulsar una comunicación eficaz en todos los equipos de una organización para mejorar la eficiencia, la toma de decisiones y los procesos. El uso de Atlassian Intelligence en experiencias de edición funciona mejor en estos casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para Atlassian Intelligence en experiencias de edición, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que usar Atlassian Intelligence en experiencias de edición resulta menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo utiliza tus datos Atlassian Intelligence en las experiencias de edición. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, Atlassian Intelligence en experiencias de edición aplica las siguientes medidas:
|
Búsqueda de respuestas en Confluence
La búsqueda de respuestas en Confluence mediante Atlassian Intelligence se nutre de modelos de LLM desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Las bases de conocimientos crecen demasiado rápido para que los usuarios puedan mantenerse al día. La búsqueda de respuestas en Confluence mediante Atlassian Intelligence proporciona una vía de acceso más rápida a información clave que los clientes necesitan para sacar el trabajo adelante. Esta función te ayuda a encontrar fácilmente la información que necesitas. Comprende los tipos de preguntas que le harías a un compañero de equipo y las responde al instante. Más información sobre cómo utilizar Atlassian Intelligence para buscar respuestas en Confluence. Consideramos que la búsqueda de respuestas en Confluence mediante Atlassian Intelligence funciona especialmente bien cuando el sitio de Confluence está repleto de contenidos detallados, completos y actualizados. Esta función no genera contenido nuevo, sino que busca en las páginas y blogs de Confluence (aunque respetando las restricciones) para encontrar una respuesta a tu pregunta. Atlassian Intelligence genera respuestas basándose solo en lo que hay en tu Confluence y en el contenido al que tú, específicamente, puedes acceder. ¿No tienes claro qué preguntas hacer?Aquí tienes unas cuantas sugerencias
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al buscar respuestas en Confluence con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al buscar respuestas en Confluence con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
Búsqueda de incidencias en Jira
La búsqueda de incidencias en Jira mediante Atlassian Intelligence se nutre de grandes modelos lingüísticos desarrollados por OpenAI. Entre estos modelos se incluyen los modelos OpenAI que se detallan aquí, perfeccionados por Atlassian mediante datos sintéticos generados. Atlassian Intelligence utiliza estos modelos para analizar y entender el lenguaje natural y, a continuación, lo traduce al código de Jira Query Language (JQL) en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probables a partir de los datos con los que se han entrenado. Más información sobre las capacidades de los modelos OpenAI y el perfeccionamiento de OpenAI. También puedes informarte mejor sobre este enfoque en los artículos de investigación de OpenAI. |
Ahora puedes preguntarle lo que quieras a Atlassian Intelligence en lenguaje cotidiano en lugar de hacer consultas complejas. Cuando buscas incidencias mediante Atlassian Intelligence, tu instrucción se traduce en una consulta de JQL que te ayuda rápidamente a buscar incidencias concretas. Consideramos que la búsqueda de incidencias mediante Atlassian Intelligence funciona especialmente bien en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para buscar incidencias mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no reflejen fielmente el contenido en el que se basan, o que incluyan contenido en apariencia razonable pero falso o incompleto. Hemos observado que buscar incidencias mediante Atlassian Intelligence resulta menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Puede que también te interese plantearte cómo ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga. Asegúrate de incluir los campos y valores exactos que estás buscando. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al buscar incidencias con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, buscar incidencias mediante Atlassian Intelligence aplica las siguientes medidas:
|
Sugerir tipos de solicitud en Jira Service Management
La sugerencia de tipos de solicitud mediante Atlassian Intelligence funciona con grandes modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar las entradas en lenguaje natural y generar recomendaciones de nombres y descripciones de los tipos de solicitud para que los uses en Jira Service Management. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Dedica menos tiempo a averiguar qué tipos de solicitud necesitas crear para tu proyecto y, en su lugar, recibe sugerencias de Atlassian Intelligence. Basta con describir tu trabajo y lo que tu equipo suele gestionar para ver qué tipos de solicitudes puedes crear. Selecciona una de las sugerencias generadas por Atlassian Intelligence para crear un tipo de solicitud. Más información sobre cómo utilizar Atlassian Intelligence para sugerir tipos de solicitud. Creemos que usar Atlassian Intelligence para sugerir tipos de solicitud funciona especialmente bien en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para sugerir tipos de solicitud mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos observado que el uso de Atlassian Intelligence para sugerir tipos de solicitud resulta menos práctico en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para sugerir tipos de solicitud. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, utilizar Atlassian Intelligence para sugerir tipos de solicitud aplica las siguientes medidas:
|
Resume los detalles de la incidencia en Jira Service Management
El resumen de los detalles de la incidencia con Atlassian Intelligence funciona con grandes modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
En lugar de leer descripciones largas y numerosos comentarios sobre una incidencia de Jira Service Management, puedes utilizar Atlassian Intelligence para que resuma rápidamente esta información. De esta forma, los agentes pueden conocer rápidamente el contexto de la incidencia y los progresos realizados, para tomar medidas rápidas y prestar asistencia de forma puntual. Creemos que resumir los detalles de la incidencia con Atlassian Intelligence es una opción idónea en estos casos:
|
Es importante recordar que, por la forma como funcionan los modelos utilizados para resumir los detalles de las incidencias con Atlassian Intelligence, estos modelos a veces pueden comportarse de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que resumir los detalles de la incidencia con Atlassian Intelligence es menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al resumir los detalles de una incidencia con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al resumir los detalles de la incidencia con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
Escribe fórmulas personalizadas con Atlassian Intelligence
La escritura de fórmulas personalizadas mediante Atlassian Intelligence funciona con grandes modelos lingüísticos desarrollados por OpenAI. Entre ellos, se incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar el lenguaje natural y, a continuación, lo traduce a SQLite en Atlassian Analytics. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Pregunta o describe a Atlassian Intelligence cómo quieres transformar los datos de tu tabla de resultados y los traducirá en una expresión de SQLite que se utiliza para fórmulas personalizadas, en lugar de escribir tus propias expresiones de SQLite desde cero. Tras hacer una pregunta, Atlassian Intelligence utiliza los datos de la tabla de resultados del paso anterior de Visual SQL para generar una expresión de SQLite que aplica cálculos u operaciones a los datos de tu gráfico. Esto también puede ayudarte a aprender sobre las funciones de SQLite y su sintaxis. Consideramos que la escritura de fórmulas personalizadas mediante Atlassian Intelligence funciona mejor en los siguientes casos:
|
Cuando utilices fórmulas personalizadas, recuerda que los modelos utilizados en Atlassian Intelligence a veces pueden comportarse de forma imprecisa, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no reflejen fielmente el contenido en el que se basan, o que incluyan contenido en apariencia razonable, pero falso o incompleto. Hemos determinado que escribir fórmulas personalizadas mediante Atlassian Intelligence es menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos cuando escribes fórmulas personalizadas mediante Atlassain Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al escribir fórmulas personalizadas con Atlassian Intelligence, se aplican las siguientes medidas en lo que respecta a tus datos: Tus prompts (entradas) y respuestas (salidas):
OpenAI es una empresa encargada del tratamiento de datos personales subcontratada de las que se incluyen en nuestra lista. No utiliza tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud. |
Más información sobre Atlassian Intelligence
Más información sobre el uso de Atlassian Intelligence
Descubre cómo utilizar Atlassian Intelligence para buscar respuestas en Confluence
Atlassian Intelligence y Rovo se han diseñado para aportar transparencia
Nuestro compromiso inquebrantable con la comunicación abierta, la responsabilidad y el respaldo a los equipos para que utilicen la IA de manera responsable.
Rovo
Selecciona una de las siguientes funciones de Rovo para ver de forma transparente los casos prácticos y el uso de los datos.
Acelera el trabajo con la IA
Selecciona una de las siguientes funciones de Atlassian Intelligence para ver de forma transparente los casos prácticos y el uso de los datos.
- ChatOps de IA para la gestión de incidentes
- Recursos relacionados con la IA
- Sugerencias de IA
- Automatización
- Agrupación de alertas
- Resumen rápido de Confluence
- Definir términos
- IA generativa en el editor
- Reformateador de incidencias
- Resumir los detalles de una incidencia
- Resumir los enlaces inteligentes
- Agente de servicio virtual
- Resume los detalles de la incidencia con Atlassian Intelligence
- Desglosar la actividad con IA
- ChatOps de IA para la gestión de incidentes
- Recursos relacionados con la IA
- Sugerencias de IA
- Automatización
- Agrupación de alertas
- Resumen rápido de Confluence
- Definir términos
- IA generativa en el editor
- Reformateador de incidencias
- Resumir los detalles de una incidencia
- Resumir los enlaces inteligentes
- Agente de servicio virtual
- Resume los detalles de la incidencia con Atlassian Intelligence
- Desglosar la actividad con IA
Automatización mediante Atlassian Intelligence
Las funciones de ChatOps de IA para la gestión de incidentes se basan en modelos de lenguaje extensos desarrollados por OpenAI, así como en una combinación de modelos de lenguaje extensos de código abierto (incluidas las series Llama y Phi) y otros modelos de aprendizaje automático. Estos modelos de lenguaje extensos incluyen la serie de modelos GPT de OpenAI. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Estos modelos de lenguaje extensos generan respuestas en función de lo que introduzcas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las funciones de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. Para obtener más información sobre los modelos de lenguaje de código abierto, consulta la información sobre las series Llama y Phi. |
ChatOps de IA para la gestión de incidentes ayuda a tus usuarios a acelerar el proceso de resolución de incidentes, ya que ofrece un resumen del incidente correspondiente y de todas las conversaciones que se han mantenido al respecto hasta el momento a los nuevos usuarios cuando se añaden al canal de Slack que está vinculado a la incidencia del incidente en Jira Service Management. Además, ChatOps de IA para la gestión de incidentes puede registrar como cronograma en Jira Service Management las conversaciones que se producen en Slack para consultarlas en el futuro. Creemos que ChatOps de IA para la gestión de incidentes funciona mejor en situaciones en las que:
|
Recuerda que, por la forma en que funcionan los modelos en los que se basa ChatOps de IA para la gestión de incidentes, estos modelos a veces se comportan de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que ChatOps de IA para la gestión de incidentes es menos útil en situaciones en las que:
Por ello, es recomendable que, en los casos en los que utilices ChatOps de IA para la gestión de incidentes, revises la calidad de las respuestas que recibas antes de compartirlas con otras personas. También deberías revisar los permisos para garantizar que los usuarios tengan los niveles de acceso adecuados a las incidencias de los incidentes y a los canales de Slack pertinentes. |
Entendemos que puede que tengas dudas sobre cómo ChatOps de IA utiliza tus datos para la gestión de incidentes. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, ChatOps de IA para la gestión de incidentes aplica las siguientes medidas:
|
Los recursos relacionados con la IA se basan en modelos de lenguaje extensos desarrollados por OpenAI, así como en una combinación de modelos de lenguaje extensos de código abierto (incluidas las series Llama y Phi) y otros modelos de aprendizaje automático. Estos modelos de lenguaje extensos incluyen la serie de modelos GPT de OpenAI. Atlassian Intelligence utiliza estos modelos para analizar y generar el lenguaje natural en nuestros productos y para ofrecer respuestas relevantes de Atlassian y de productos de terceros conectados. Estos modelos de lenguaje extensos generan respuestas en función de lo que introduzcas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las funciones de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. Para obtener más información sobre los modelos de lenguaje de código abierto, consulta la información sobre las series Llama y Phi. |
Atlassian Intelligence permite a tus usuarios acelerar el proceso de resolución de incidentes sugiriéndoles una lista de recursos que pueden consultar, en los espacios y artículos de la base de conocimientos vinculada, incidencias de Jira y (si eres cliente de Rovo) cualquier producto de terceros que hayas integrado a través de Rovo. Consulta más información sobre Rovo y las herramientas de terceros. Creemos que los recursos relacionados con la IA funcionan mejor en los siguientes casos:
|
Recuerda que, por la forma en que funcionan los modelos en los que se basan los recursos relacionados con la IA, estos modelos a veces se comportan de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable, pero que sea falso o esté incompleto. Hemos descubierto que los recursos relacionados con la IA son menos útiles en situaciones en las que:
Por ello, es recomendable que, en los casos en los que utilices Atlassian Intelligence, revises la calidad de las respuestas que recibas antes de compartirlas con otras personas. Quizá también te convendría plantearte lo siguiente:
|
Entendemos que puedes tener dudas sobre las formas en que los recursos relacionados con la IA utilizan tus datos. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, los recursos relacionados con la IA aplican las siguientes medidas:
|
Las sugerencias de IA de Jira Service Management se basan en grandes modelos lingüísticos desarrollados por OpenAI y otros modelos de aprendizaje automático. Dichos grandes modelos lingüísticos incluyen la serie de modelos GPT de OpenAI. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Estos modelos de lenguaje extensos generan respuestas en función de lo que introduzcas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Más información sobre las competencias de los modelos de OpenAI. |
Tu equipo puede emplear las sugerencias de IA de Jira Service Management para ponerse al día rápidamente recopilando el contexto importante sobre las solicitudes de asistencia e incidentes de un vistazo. Atlassian Intelligence ayuda a tu equipo a lo siguiente:
Las sugerencias de IA de Jira Service Management también pueden recomendar que los agentes escalen una solicitud o un incidente cuando el SLA correspondiente esté a punto de infringirse. Esta función también puede sugerir que los agentes escalen las solicitudes de asistencia cuando los modelos utilizados para abordarlas identifiquen una sensación de urgencia o enfado en el texto de los comentarios del informador en relación con esa solicitud. Creemos que las sugerencias de IA de Jira Service Management funcionan mejor en las siguientes situaciones:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para las sugerencias de IA de Jira Service Management, a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que las sugerencias de IA de Jira Service Management son menos útiles en situaciones en las que:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que tengas dudas sobre cómo utilizan tus datos las sugerencias de IA en Jira Service Management. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, las sugerencias de IA aplican las siguientes medidas.
|
La automatización mediante Atlassian Intelligence se basa en modelos de lenguaje extensos que desarrollan OpenAI, Google y Anthropic, así como una combinación de modelos de lenguaje extensos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos modelos de lenguaje extensos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar las entradas en lenguaje natural y generar una regla de automatización para ti dentro de Jira y Confluence. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
La creación de reglas de automatización es la base de la experiencia de automatización diaria, por lo que queremos facilitarte aún más añadiendo Atlassian Intelligence al creador de reglas de automatización de Jira y Confluence. Ahora puedes crear reglas de automatización fácilmente con solo escribir y describir lo que quieres automatizar, y dejar que Atlassian Intelligence se encargue de todo para crear la regla por ti. Consulta más información sobre la Automatización mediante Atlassian Intelligence para Jira y para Confluence. Creemos que la Automatización mediante Atlassian Intelligence para Jira y Confluence funciona mejor en situaciones en las que no estás seguro de cómo empezar o quieres acelerar el proceso de creación de reglas. ¿No estás seguro de cuál es la mejor manera de crear una regla de automatización?Las reglas de automatización se crean mediante una combinación de distintos tipos de componentes: desencadenadores, acciones, condiciones y ramas. Piensa en los componentes como los elementos básicos de una regla. Para crear correctamente una regla con Atlassian Intelligence, esta debe contener al menos un desencadenador y una acción. Por ejemplo: En Jira: Cada lunes, busca todas las tareas con fecha de vencimiento en los próximos 7 días, y envía a la persona asignada un correo electrónico de recordatorio. Cuando un ticket pase a Pruebas, asígnaselo a John Smith. En Confluence:
Además, para que una regla se cree correctamente, todos sus componentes deben ser compatibles con la Automatización mediante Atlassian Intelligence. Esto significa que cualquier desencadenador, acción, condición o rama de tu regla debe ser compatible con la Automatización en Jira o Confluence. |
Es importante recordar que, por la forma como funcionan los modelos utilizados para potenciar la Automatización mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que la automatización mediante Atlassian Intelligence es menos práctica en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. La Automatización mediante Atlassian Intelligence solo funcionará con el conjunto actual de componentes de automatización disponibles en Jira y Confluence. También puedes pensar en ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga, como se ha descrito anteriormente. |
Entendemos que puedas tener preguntas sobre cómo utiliza tus datos la Automatización mediante Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, el uso de Atlassian Intelligence para la automatización de Confluence aplica las siguientes medidas:
Todos los proveedores de LLM externos son encargados del tratamiento de los datos personales subcontratados y figuran en nuestra página. No utilizan tus datos para ningún otro fin que no sea procesar tu solicitud. Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página o un proyecto concretos, no se te sugerirán contenidos de esos activos en la respuesta que recibas. Si no quieres que tu contenido esté disponible en las respuestas de otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos. |
Agrupación de alertas
La agrupación de alertas de Atlassian Intelligence se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos modelos incluyen un algoritmo diseñado para identificar patrones en los datos de las alertas, así como las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos de aprendizaje automático para analizar y generar grupos de alertas y ofrecer sugerencias relacionadas (grupos de alertas anteriores y personas encargadas de responder a alertas anteriormente) en nuestros productos en función de la similitud del contenido de las alertas o de las etiquetas utilizadas. Luego, Atlassian Intelligence utiliza modelos de lenguaje de gran tamaño para analizar y generar descripciones y contenido en lenguaje natural para estos grupos en nuestros productos. Estos modelos de lenguaje de gran tamaño generan respuestas en función de tus entradas y son probabilísticos. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
La agrupación de alertas utiliza Atlassian Intelligence para identificar y agrupar alertas similares. También te ayuda a identificar y recomendar grupos de alertas similares anteriores y personas encargadas de responder a alertas anteriormente (o equipos de estas personas) en función de la similitud semántica del contenido de la alerta o de las etiquetas utilizadas. Cuando quieras escalar el grupo de alertas a un incidente, la agrupación de alertas también rellenará automáticamente toda la información contextual para que la revises como parte del proceso de creación del incidente. Creemos que la agrupación de alertas funciona mejor en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para la agrupación de alertas, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. En el caso de los grupos de alertas que ves, puede que no reflejen con precisión la similitud semántica de sus etiquetas. Hemos descubierto que la agrupación de alertas es menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. También deberías asegurarte de que tú y tu equipo seguís prácticas coherentes en cuanto al uso de las etiquetas de alerta. |
Entendemos que puedas tener preguntas sobre cómo utiliza tus datos la agrupación de alertas. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Procesamos los datos de tus alertas para entrenar una versión del modelo de aprendizaje automático para que reconozca los patrones específicos de tus alertas. Esta versión se usa únicamente para tu experiencia:
En lo que respecta a tus datos, la agrupación de alertas aplica las siguientes medidas:
|
El resumen de páginas y blogs mediante Atlassian Intelligence se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
Ahorra tiempo y obtén más rápidamente los detalles que necesitas para realizar tu trabajo más deprisa generando un resumen rápido de una página o blog de Confluence con Atlassian Intelligence. Más información sobre el uso de Atlassian Intelligence en Confluence. Creemos que resumir páginas y blogs con Atlassian Intelligence funciona mejor en los siguientes casos:
|
Es importante recordar que, debido a la forma en que funcionan los modelos utilizados para impulsar el resumen de páginas y blogs con Atlassian Intelligence, a veces estos pueden comportarse de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Si bien seguimos mejorando la compatibilidad con las macros, las tablas y ampliando los resúmenes, hemos descubierto que resumir páginas y blogs con Atlassian Intelligence es menos útil en situaciones donde:
Es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para la automatización de Confluence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, al resumir páginas y blogs con Atlassian Intelligence, se aplican las siguientes medidas:
|
Definir términos con Atlassian Intelligence
La definición de términos mediante Atlassian Intelligence en Confluence y Jira se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar y generar respuestas en lenguaje natural en Confluence y Jira. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
Una de las cosas más difíciles de consumir contenido en Confluence y Jira puede ser conseguir el contexto que necesitas para entender lo que lees. Las abreviaturas, los acrónimos, los términos desconocidos y los nombres específicos de equipos o proyectos pueden hacerte perder mucho tiempo buscando la información que necesitas. La definición de términos con Atlassian Intelligence proporcionará la definición de términos específicos de la empresa (como acrónimos, nombres de proyecto, sistemas o equipos) en una página de Confluence o en la descripción de una incidencia en Jira. De esta forma, los usuarios tendrán la información que necesitan y cuando la necesitan y mejorará la colaboración de los equipos. Atlassian Intelligence puede ahorrarte tiempo, ya que hace estas definiciones por ti, sin que tengas que apartarte de la lectura. Si encuentras una definición que te parezca inexacta, puedes editarla o añadir una nueva y, después, establecer que la visibilidad sea para esa página o incidencia, para todo el espacio o proyecto, o para acceder a toda tu organización. La definición de términos con Atlassian Intelligence en Confluence y Jira funciona mejor en estos casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para definir términos con Atlassian Intelligence en Confluence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que la definición de términos con Atlassian Intelligence en Confluence funciona mejor en estos casos:
Además, en Jira, hemos descubierto que, dado que la definición de términos con Atlassian Intelligence depende de la búsqueda en Confluence, la función solo funcionará en Jira si tienes permiso para ver una instancia de Confluence en el mismo sitio que tu instancia de Jira. Puede que descubras que la definición de términos con Atlassian Intelligence no funciona como esperabas en los espacios de Confluence o las instancias de Jira que tienen contenido escrito en varios idiomas. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al definir términos con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Al definir términos con Atlassian Intelligence, se aplican las siguientes medidas en lo que respecta a tus datos:
|
IA generativa en el editor
La edición de experiencias con Atlassian Intelligence se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
Atlassian Intelligence ayuda a impulsar una comunicación eficaz en todos los equipos de una organización para mejorar la eficiencia, la toma de decisiones y los procesos. El uso de Atlassian Intelligence en experiencias de edición funciona mejor en estos casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para Atlassian Intelligence en experiencias de edición, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que usar Atlassian Intelligence en experiencias de edición resulta menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo utiliza tus datos Atlassian Intelligence en las experiencias de edición. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, Atlassian Intelligence en experiencias de edición aplica las siguientes medidas:
|
El reformateador de incidencias funciona con grandes modelos lingüísticos desarrollados por OpenAI, entre los que se incluyen los modelos GPT. Atlassian Intelligence utiliza este modelo para analizar y generar un lenguaje natural en Jira. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Más información sobre las competencias de los modelos de OpenAI. |
El reformateador de incidencias ayuda a mejorar la claridad de las descripciones de las incidencias de Jira cambiándoles el formato con una plantilla desarrollada por Atlassian. Dicha plantilla incluye los tipos de información que suele figurar en la descripción de una incidencia de Jira, como la historia de usuario, el contexto de la actividad y los criterios de aceptación. Creemos que el reformateador de incidencias funciona mejor en los casos en los que las descripciones de las incidencias ya contienen información útil (como los criterios de aceptación o enlaces a las fuentes), pero esa información no se formatea con una estructura clara o coherente. |
Es importante recordar que, por la forma en que funcionan los modelos utilizados por el reformateador de incidencias, a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, es posible que tu descripción reformateada no refleje con precisión el contenido en el que se basa o que incluya detalles con sentido, pero que sean incorrectos o estén incompletos. Hemos descubierto que el reformateador de incidencias es menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes siempre la calidad de las respuestas que recibes antes de presentarlas a otras personas. También te conviene revisar y verificar que las descripciones de las incidencias incluyen toda la información pertinente antes de empezar a utilizar el reformateador de incidencias para cambiarles el formato. |
Entendemos que puedes tener dudas sobre la forma en que el reformateador de incidencias utiliza tus datos. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, el reformateador de incidencias aplica las siguientes medidas:
|
Resume los detalles de la incidencia en Jira Service Management
El resumen de los detalles de las incidencias mediante Atlassian Intelligence se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
En lugar de leer descripciones largas y numerosos comentarios sobre una incidencia de Jira Service Management, puedes utilizar Atlassian Intelligence para que resuma rápidamente esta información. De esta forma, los agentes pueden conocer rápidamente el contexto de la incidencia y los progresos realizados, para tomar medidas rápidas y prestar asistencia de forma puntual. Creemos que resumir los detalles de la incidencia con Atlassian Intelligence es una opción idónea en estos casos:
|
Es importante recordar que, por la forma como funcionan los modelos utilizados para resumir los detalles de las incidencias con Atlassian Intelligence, estos modelos a veces pueden comportarse de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que resumir los detalles de la incidencia con Atlassian Intelligence es menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al resumir los detalles de una incidencia con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Al resumir los detalles de la incidencia con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
IA generativa en el editor
El resumen de los enlaces inteligentes con Atlassian Intelligence (AI) se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
Tras mantener el puntero en un enlace inteligente de Jira, Confluence y Google Docs, Atlassian Intelligence puede ayudarte a resumir el contenido para que puedas determinar la importancia y el valor del enlace y decidir tu próxima acción. De este modo, se reduce la necesidad de salir de la página actual y cambiar de contexto. Creemos que Resumir los enlaces inteligentes con la IA funciona mejor en situaciones en las que:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para Resumir los enlaces inteligentes con la IA, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que los resúmenes que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que Resumir los enlaces inteligentes con la IA es menos útil en situaciones en las que:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al resumir los detalles de una incidencia con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, Resumir los enlaces inteligentes con la IA aplica las siguientes medidas.
|
Función de respuestas de Atlassian Intelligence en Jira Service Management
El Agente de servicio virtual de Jira Service Management se basa en modelos de lenguaje extensos desarrollados por OpenAI, Google y Anthropic, así como otros de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. El Agente de servicio virtual utiliza estos modelos de la siguiente manera:
Cómo funcionan los modelos de lenguaje extensos: estos modelos de lenguaje extensos generan respuestas en función de lo que introduzcas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Los modelos de lenguaje extensos utilizados para potenciar al agente de servicio virtual incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
El agente de servicio virtual ayuda a los equipos a automatizar las interacciones de soporte de nivel 1, gracias a un motor conversacional de Atlassian Intelligence que analiza y entiende la intención, el contexto y los permisos para personalizar las interacciones. Con Atlassian Intelligence, el agente de servicio virtual ayuda a los equipos a escalar sus centros de asistencia y satisfacer a sus clientes con tres competencias clave:
El agente de servicio virtual está disponible en varios canales, incluidos Slack, Microsoft Teams, el portal de Jira Service Management y muchos más. Más información sobre los canales disponibles para el agente de servicio virtual. Creemos que el agente de servicio virtual funciona mejor en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para potenciar al agente de servicio virtual, a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que el agente de servicio virtual es menos útil en los siguientes casos:
Es recomendable que pienses en las situaciones en las que utilizarías Atlassian Intelligence y revises el rendimiento del agente de servicio virtual antes de activarlo para los clientes. Más información sobre cómo mejorar el rendimiento de tu agente de servicio virtual. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener dudas sobre la forma en que el agente de servicio virtual de Jira Service Management utiliza tus datos. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, el agente de servicio virtual aplica las siguientes medidas:
|
Resume los detalles de la incidencia con Atlassian Intelligence
Los resúmenes de IA en Jira se basan en modelos lingüísticos desarrollados por OpenAI. Entre ellos, se incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Todo ello significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
En lugar de leer descripciones largas y multitud de comentarios sobre una incidencia de Jira, puedes utilizar Atlassian Intelligence para que resuma rápidamente esta información. Esto ayuda a los agentes a entender rápidamente el contexto de la incidencia y cualquier progreso realizado, lo que les permite tomar medidas rápidas y prestar asistencia puntual. Creemos que resumir los detalles de la incidencia con Atlassian Intelligence es una opción idónea en los casos de incidencias con una gran cantidad de comentarios o comentarios y descripciones largos. |
Es importante recordar que, por la forma en que funcionan, los modelos detrás de los resúmenes de IA en Jira pueden, en ocasiones, comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable, pero que sea falso o esté incompleto. Hemos determinado que resumir los detalles de la incidencia con Atlassian Intelligence es menos práctico en estos casos:
Por ello, es recomendable que, en los casos en los que utilices Atlassian Intelligence, revises la calidad de las respuestas que recibas antes de compartirlas con otras personas. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al resumir los detalles de una incidencia con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al resumir los detalles de la incidencia con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
Desglosar la actividad con IA
La función Desglosar la actividad con IA se basa en modelos de lenguaje extensos desarrollados por OpenAI. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este enfoque en los artículos de investigación de OpenAI. |
Desglosar la actividad con IA sugiere incidencias secundarias basándose en una incidencia de Jira que hayas creado, lo que facilita el desglose de actividades grandes en otras más pequeñas. Tu incidencia se utiliza como contexto para generar sugerencias de resúmenes y descripciones de incidencias secundarias. Creemos que la función Desglosar la actividad con IA funciona mejor en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para la función Desglosar la actividad con IA, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que Desglosar la actividad con IA es menos útil en las siguientes situaciones:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedes tener dudas sobre el tratamiento que Desglosar la actividad con IA hace de tus datos. Esta sección complementa la información disponible en nuestro Atlassian Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, Desglosar la actividad con IA aplica las siguientes medidas.
|
Usa la IA para impulsar la acción
Selecciona una de las siguientes funciones de Atlassian Intelligence para ver de forma transparente los casos prácticos y el uso de los datos.
La creación de incidentes con IA mediante Atlassian Intelligence se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tu entrada y son de naturaleza probabilística. Todo ello significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
Al escalar una o varias alertas o grupos de alertas a un incidente en Jira Service Management, la función para crear un incidente con IA utiliza Atlassian Intelligence para rellenar rápidamente toda la información contextual para que la revises como parte del proceso de creación del incidente. Esto permite a los usuarios entender rápidamente el contexto del incidente creado a partir de esas alertas o grupos de alertas, y revisar y confirmar la información rellenada previamente, como el título, la descripción y la prioridad de la alerta al escalarla a un incidente. Creemos que crear incidentes con la IA funciona mejor en situaciones en las que:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para crear un incidente, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que crear un incidente con la IA es menos útil en situaciones en las que:
Por todo ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Para obtener los resultados más útiles, te sugerimos que seas lo más concreto posible en lo que le pides a Atlassian Intelligence. Puede que también te interese plantearte cómo ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga. |
Entendemos que puedes tener dudas sobre la forma en que crear un incidente con la IA utiliza tus datos. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, crear un incidente con la IA aplica las siguientes medidas.
|
Crear la comprobación posterior al incidente
La creación de PIR (comprobación posterior al incidente) de Atlassian Intelligence se basa en grandes modelos lingüísticos que ha desarrollado OpenAI. Estos grandes modelos lingüísticos incluyen la serie de modelos GPT de OpenAI. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de las entradas de los usuarios y son de naturaleza probabilística. Esto significa que las respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Las PIR son una parte fundamental del proceso de gestión de incidentes, ya que ayudan a las personas encargadas de responder y a los gestores de los incidentes a aprender de los incidentes actuales y a transmitir información para evitar incidentes similares en el futuro. Atlassian Intelligence ayuda a acelerar la tarea, a menudo lenta, de compilar una PIR al sugerir una descripción de la PIR basada en la información contextual relevante de tu instancia de Jira Service Management y en herramientas de chat como Slack para que la revises. Creemos que la creación de PIR mediante IA funciona mejor en situaciones como las siguientes:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para la creación de PIR, estos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, es posible que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que incluyan contenido que pueda parecer razonable, pero que sea falso o esté incompleto. Hemos descubierto que la creación de PIR mediante IA es menos útil en los siguientes casos:
Por ello, es recomendable que pienses en situaciones en las que puedes utilizar Atlassian Intelligence y compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedes tener dudas sobre la forma en que crear una comprobación posterior al incidente mediante IA utiliza tus datos. En esta sección se complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, la creación de PIR mediante IA aplica las siguientes medidas.
|
Genera descripciones de solicitudes de extracción con Atlassian Intelligence
La generación de descripciones para las solicitudes de incorporación de cambios con Atlassian Intelligence se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar y generar un código y un lenguaje natural en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
Atlassian Intelligence puede ayudarte a generar, transformar y resumir el contenido mientras escribes comentarios o descripciones de solicitudes de extracción en la experiencia de revisión de código de Bitbucket Cloud. Esto incluye lo siguiente:
Creemos que la generación de descripciones de solicitudes de extracción de Bitbucket Cloud con Atlassian Intelligence funciona mejor en estos casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para esta función, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que la generación de solicitudes de extracción de Bitbucket Cloud con Atlassian Intelligence no es tan útil en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al definir términos con Atlassian Intelligence en Confluence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Al generar descripciones de solicitudes de extracción con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
Generar consultas de SQL en Atlassian Analytics
La generación de consultas de SQL mediante Atlassian Intelligence en Atlassian Analytics se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar y entender el lenguaje natural y, a continuación, lo traduce al lenguaje de consulta estructurada (SQL) en Atlassian Analytics. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
Plantea una pregunta a Atlassian Intelligence en lenguaje natural y haz que se traduzca a SQL, en lugar de escribir tus propias consultas de SQL desde cero. Cuando haces una pregunta, Atlassian Intelligence utiliza el esquema de Atlassian Data Lake de la fuente de datos seleccionada para generar una consulta de SQL que se puede utilizar para crear gráficos en los paneles de Atlassian Analytics y también puede ayudarte a obtener información sobre el esquema en el Data Lake. La generación de consultas de SQL con Atlassian Intelligence funciona mejor en estos casos:
¿No tienes claro qué preguntas hacer?Aquí te damos algunas ideas:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para generar consultas de SQL con Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que generar consultas de SQL con Atlassian Intelligence es menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al generar consultas de SQL con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Al generar consultas de SQL con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos.
|
Búsqueda de respuestas en Confluence
La búsqueda de respuestas en Confluence mediante Atlassian Intelligence se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
Las bases de conocimientos crecen demasiado rápido para que los usuarios puedan mantenerse al día. La búsqueda de respuestas en Confluence mediante Atlassian Intelligence proporciona una vía de acceso más rápida a información clave que los clientes necesitan para sacar el trabajo adelante. Esta función te ayuda a encontrar fácilmente la información que necesitas. Comprende los tipos de preguntas que le harías a un compañero de equipo y las responde al instante. Más información sobre cómo utilizar Atlassian Intelligence para buscar respuestas en Confluence. Consideramos que la búsqueda de respuestas en Confluence mediante Atlassian Intelligence funciona especialmente bien cuando el sitio de Confluence está repleto de contenidos detallados, completos y actualizados. Esta función no genera contenido nuevo, sino que busca en las páginas y blogs de Confluence (aunque respetando las restricciones) para encontrar una respuesta a tu pregunta. Atlassian Intelligence genera respuestas basándose solo en lo que hay en tu Confluence y en el contenido al que tú, específicamente, puedes acceder. ¿No tienes claro qué preguntas hacer?Aquí tienes unas cuantas sugerencias
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al buscar respuestas en Confluence con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Al buscar respuestas en Confluence con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
Búsqueda de incidencias en Jira
La búsqueda de incidencias mediante Atlassian Intelligence en Jira se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar y entender el lenguaje natural y, a continuación, lo traduce al código de Jira Query Language (JQL) en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probables a partir de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
Ahora puedes preguntarle lo que quieras a Atlassian Intelligence en lenguaje cotidiano en lugar de hacer consultas complejas. Cuando buscas incidencias mediante Atlassian Intelligence, tu instrucción se traduce en una consulta de JQL que te ayuda rápidamente a buscar incidencias concretas. Consideramos que la búsqueda de incidencias mediante Atlassian Intelligence funciona especialmente bien en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para buscar incidencias mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no reflejen fielmente el contenido en el que se basan, o que incluyan contenido en apariencia razonable pero falso o incompleto. Hemos observado que buscar incidencias mediante Atlassian Intelligence resulta menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Puede que también te interese plantearte cómo ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga. Asegúrate de incluir los campos y valores exactos que estás buscando. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al buscar incidencias con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, buscar incidencias mediante Atlassian Intelligence aplica las siguientes medidas:
|
Desglosar la actividad con IA
La función Desglosar la actividad con IA se basa en modelos de lenguaje extensos desarrollados por OpenAI. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este enfoque en los artículos de investigación de OpenAI. |
Desglosar la actividad con IA sugiere incidencias secundarias basándose en una incidencia de Jira que hayas creado, lo que facilita el desglose de actividades grandes en otras más pequeñas. Tu incidencia se utiliza como contexto para generar sugerencias de resúmenes y descripciones de incidencias secundarias. Creemos que la función Desglosar la actividad con IA funciona mejor en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para la función Desglosar la actividad con IA, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que Desglosar la actividad con IA es menos útil en las siguientes situaciones:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedes tener dudas sobre el tratamiento que Desglosar la actividad con IA hace de tus datos. Esta sección complementa la información disponible en nuestro Atlassian Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, Desglosar la actividad con IA aplica las siguientes medidas.
|
Los temas sugeridos en la base de conocimientos se basan en grandes modelos lingüísticos que han desarrollado OpenAI y Anthropic, así como en una combinación de modelos lingüísticos de código abierto basados en transformadores y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Los modelos de codificación de código abierto convierten tus entradas de texto en formas numéricas (incrustaciones) que se utilizan para identificar y generar temas a partir de las entradas. Estos modelos de lenguaje extensos generan respuestas en función de lo que introduzcas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI y los modelos de Anthropic. Si quieres obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre Multi-QA-miniLM y E5-Multilingual. |
Esta función ayuda a los administradores y agentes a entender las lagunas de la base de conocimientos mediante el análisis de las solicitudes de asistencia que se han recibido en un proyecto. Destaca claramente los temas por los que se presentan solicitudes (según los datos de los últimos 30 días) que no tienen ningún conocimiento existente. Al sugerir temas, queremos que los administradores y agentes del proyecto puedan ver el número de solicitudes que se pueden desviar o, al menos, resolver con conocimientos. Creemos que aumentar el número de artículos de conocimiento influirá en el rendimiento de otras funciones de Jira Service Management, como las respuestas de IA del agente de servicio virtual. Cuando los administradores o agentes crean artículos sobre los temas sugeridos, también pueden ayudar a mejorar la tasa de resolución de las solicitudes satisfechas mediante respuestas de IA. Creemos que los temas sugeridos funcionan mejor en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para los temas sugeridos en la base de conocimientos, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que los temas sugeridos en la base de conocimientos son menos útiles en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo utilizan tus datos los temas sugeridos. Esta sección complementa la información disponible en nuestro Atlassian Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, los temas sugeridos en la base de conocimientos aplican las siguientes medidas. Tus temas sugeridos en la base de conocimientos:
|
Obtén información relevante de tus datos al instante
Selecciona una de las siguientes funciones de Atlassian Intelligence para ver de forma transparente los casos prácticos y el uso de los datos.
Chart Insights
Chart Insights se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
Chart Insights utiliza Atlassian Intelligence para ayudarte a entender mejor los datos de cualquier gráfico de Atlassian Analytics. Lo hace utilizando el título del panel, el título del gráfico y los datos del gráfico (incluidos los encabezados de las columnas y los valores de las filas) para generar un resumen en lenguaje natural de ese gráfico y sus datos. También tendrá como objetivo identificar cualquier tendencia o anomalía para darte una idea determinada de ese gráfico. Creemos que Chart Insights funciona mejor en los siguientes casos:
Los gráficos de barras, los gráficos de líneas y los gráficos de barras con una línea funcionan mejor con esta función, ya que normalmente tienen tendencias, fechas y muchas filas de datos. |
Es importante recordar que, por la forma en que funcionan los modelos utilizados para Chart Insights, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que Chart Insights es menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo Chart Insights utiliza tus datos. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, Chart Insights aplica las siguientes medidas.
|
Sugerir tipos de solicitud en Jira Service Management
La sugerencia de tipos de solicitud mediante Atlassian Intelligence se basa en grandes modelos lingüísticos que desarrollan OpenAI, Google y Anthropic, así como una combinación de grandes modelos lingüísticos de código abierto (incluidas las series Llama, Phi y Mixtral) y otros modelos de aprendizaje automático. Estos grandes modelos lingüísticos incluyen las series de modelos GPT de OpenAI, Gemini de Google y Claude de Anthropic. Atlassian Intelligence utiliza estos modelos para analizar las entradas en lenguaje natural y generar recomendaciones de nombres y descripciones de los tipos de solicitud para que los uses en Jira Service Management. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI, los modelos de Google y los modelos de Anthropic. Para obtener más información sobre los modelos lingüísticos de código abierto, consulta la información sobre las series Llama y Phi. |
Dedica menos tiempo a averiguar qué tipos de solicitud necesitas crear para tu proyecto y, en su lugar, recibe sugerencias de Atlassian Intelligence. Basta con describir tu trabajo y lo que tu equipo suele gestionar para ver qué tipos de solicitudes puedes crear. Selecciona una de las sugerencias generadas por Atlassian Intelligence para crear un tipo de solicitud. Más información sobre cómo utilizar Atlassian Intelligence para sugerir tipos de solicitud. Creemos que usar Atlassian Intelligence para sugerir tipos de solicitud funciona especialmente bien en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para sugerir tipos de solicitud mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos observado que el uso de Atlassian Intelligence para sugerir tipos de solicitud resulta menos práctico en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para sugerir tipos de solicitud. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, utilizar Atlassian Intelligence para sugerir tipos de solicitud aplica las siguientes medidas:
|
Referencias
Obtén actualizaciones de estado de los productos de Atlassian en tiempo real en nuestra página de estado específica.
Más información sobre Atlassian Intelligence
Descubre cómo Atlassian gestiona los datos de los clientes.