Close

Atlassian Intelligence se ha diseñado para aportar transparencia

Nuestro compromiso inquebrantable con la comunicación abierta, la responsabilidad y el respaldo a los equipos para que utilicen la IA de manera responsable.

Atlassian Intelligence está diseñado para agilizar la colaboración y para que los equipos puedan acelerar su trabajo. Al igual que debes conocer la mejor manera de trabajar con tu equipo, entender el funcionamiento de Atlassian Intelligence te servirá para hacer un uso más eficaz. En esta página, explicaremos cómo funcionan nuestros productos y funciones basados en IA, por ejemplo, qué pueden hacer o no y cómo influyen en la forma en que utilizas nuestros productos. Creemos que, con la información de esta página, podrás aprovechar al máximo nuestros productos y el trabajo en equipo. Para obtener más información sobre nuestro compromiso de crear tecnología de manera responsable, consulta nuestros Principios de tecnología responsable.

Agrupación de alertas

Cómo se utiliza Atlassian Intelligence para la agrupación de alertas Copy link to heading Copied! Mostrar
  

La agrupación de alertas con Atlassian Intelligence se basa en modelos de lenguaje de gran tamaño desarrollados por OpenAI y otros modelos de aprendizaje automático. Estos modelos incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos de aprendizaje automático para analizar y generar grupos de alertas y ofrecer sugerencias relacionadas (grupos de alertas anteriores y personas encargadas de responder a alertas anteriormente) en nuestros productos en función de la similitud del contenido de las alertas o de las etiquetas utilizadas. Luego, Atlassian Intelligence utiliza modelos de lenguaje de gran tamaño para analizar y generar descripciones y contenido en lenguaje natural para estos grupos en nuestros productos.

Estos modelos de lenguaje de gran tamaño generan respuestas en función de tus entradas y son probabilísticos. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Casos prácticos de la agrupación de alertas Copy link to heading Copied! Mostrar
  

La agrupación de alertas utiliza Atlassian Intelligence para identificar y agrupar alertas similares. También te ayuda a identificar y recomendar grupos de alertas similares anteriores y personas encargadas de responder a alertas anteriormente (o equipos de estas personas) en función de la similitud semántica del contenido de la alerta o de las etiquetas utilizadas.

Cuando quieras escalar el grupo de alertas a un incidente, la agrupación de alertas también rellenará automáticamente toda la información contextual para que la revises como parte del proceso de creación del incidente.

Creemos que la agrupación de alertas funciona mejor en los siguientes casos:

  • Tu organización encuentra con frecuencia patrones de alertas similares o duplicadas que se producen en un volumen elevado, ya sea que se produzcan durante un periodo corto o más prolongado.
  • Tu organización clasifica las alertas de forma coherente mediante etiquetas.
  • Tu equipo descubre a menudo que alertas similares o duplicadas deberían convertirse en incidentes.
Consideraciones a la hora de utilizar la agrupación de alertas Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para la agrupación de alertas, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. En el caso de los grupos de alertas que ves, puede que no reflejen con precisión la similitud semántica de sus etiquetas.

Hemos descubierto que la agrupación de alertas es menos útil en los siguientes casos:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Necesitas que la agrupación de alertas tenga acceso a información que no está disponible para agrupar las alertas correctamente. La agrupación de alertas funciona dentro de los límites de las funciones y permisos configurados por tu equipo, por lo que solo tendrás acceso a los grupos y datos relevantes de las alertas que tengas permiso para ver.
  • Las etiquetas de alerta que utiliza tu equipo no son coherentes ni están bien mantenidas. Como la agrupación de alertas agrupa las alertas en función de la similitud semántica de los títulos y las etiquetas de las alertas, la calidad de los grupos de alertas que genera depende de la coherencia y el orden de las etiquetas de alerta que utilizan tu equipo y tu organización.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

También deberías asegurarte de que tú y tu equipo seguís prácticas coherentes en cuanto al uso de las etiquetas de alerta.

Tus datos y la agrupación de alertas Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo utiliza tus datos la agrupación de alertas. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de tu instancia pertinente para tu instrucción, como los datos de las alertas (títulos, etiquetas, prioridad, equipos de personas encargadas de responder, descripción).
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

Procesamos los datos de tus alertas para entrenar una versión del modelo de aprendizaje automático para que reconozca los patrones específicos de tus alertas. Esta versión se usa únicamente para tu experiencia:

  • Almacenamos los patrones identificados para proporcionarte datos relevantes.
  • No utilizamos los datos de tus alertas para entrenar ningún modelo de lenguaje de gran tamaño.

En lo que respecta a tus datos, la agrupación de alertas aplica las siguientes medidas:

  • Tus entradas y salidas:
    • No están a disposición de otros clientes
    • OpenAI no los almacena.
    • No se utilizan para mejorar los modelos de OpenAI.
    • Solamente se utilizan para cuidar de tu experiencia.
  • OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.
  • Esta función sigue los permisos de tu sitio. Por ejemplo, si Atlassian Intelligence agrupa 50 alertas según sus etiquetas y su similitud semántica y tú tienes permiso para ver solo 30 de ellas, solo verás esas 30 en la vista de detalles del grupo. Si no quieres que tus alertas estén disponibles en las respuestas de otros usuarios de tu sitio, ponte en contacto con el administrador de tu organización o sitio para comprobar la configuración de tus permisos.

Función de respuestas de Atlassian Intelligence en Jira Service Management

Cómo funciona la función de respuestas de Atlassian Intelligence en Jira Service Management Copy link to heading Copied! Mostrar
  

Las respuestas de Atlassian Intelligence se basan en extensos modelos lingüísticos desarrollados por OpenAI. Entre ellos, se incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Casos de uso de las respuestas de Atlassian Intelligence en Jira Service Management Copy link to heading Copied! Mostrar
  

La función de respuestas de Atlassian Intelligence se conecta a Virtual Service Agent de Jira Service Management. Utiliza la inteligencia artificial generativa para buscar en la base de conocimientos vinculada y responder a las preguntas de los clientes.

Creemos que la función de respuestas de Atlassian Intelligence funciona mejor en los siguientes casos:

  • Así tiene una base de conocimientos enlazada completa y actualizada a la que Virtual Service Agent puede acceder para responder a las preguntas de los clientes mediante la función de respuestas de Atlassian Intelligence.
  • Cuando la función de respuestas de Atlassian Intelligence se utilizan para las preguntas de los clientes que:
    • Se pueden resolver proporcionando información o instrucciones.
    • Están incluidas en los artículos de tu base de conocimientos actual (o se pueden añadir fácilmente).
    • No suelen tener que escalarse a un agente humano.
Aspectos que se deben tener en cuenta al utilizar la función de respuestas de Atlassian Intelligence en Jira Service Management Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para la función de respuestas de Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos determinado que la función de respuestas de Atlassian Intelligence resulta menos práctica en estos casos:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Si es necesario que la función de respuestas de Atlassian Intelligence tenga acceso a información que no está a tu disposición (por ejemplo, en tu base de conocimientos vinculada) para responder correctamente a tu solicitud.
  • Tu base de conocimientos está anticuada o incompleta, por lo que las búsquedas pueden no ser útiles.
  • Los artículos de tu base de conocimientos no incluyen información relevante o de alta calidad, por lo que las respuestas de Atlassian Intelligence pueden proporcionar información menos relevante a los clientes según esos artículos.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Revisar y actualizar de forma proactiva tu base de conocimientos enlazada (y los artículos existentes que incluye) para asegurarte de que sigue estando completa y actualizada.
  • Revisar de forma proactiva los permisos y restricciones aplicables a los espacios de tu base de conocimientos enlazada para asegurarte de que las respuestas de Atlassian Intelligence tienen acceso a la información adecuada para ser útiles.
Tus datos y las respuestas de Atlassian Intelligence en Jira Service Management Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo utilizan tus datos las respuestas de Atlassian Intelligence en Jira Service Management. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de tu instancia relevante para tu solicitud, como los espacios de tu base de conocimientos enlazada.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.
  • En lo que respecta a tus datos, las respuestas de Atlassian Intelligence en Jira Service Management aplican las siguientes medidas:
  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • OpenAI no los almacena.
    • No se utilizan para mejorar los modelos de OpenAI.
    • Solamente se utilizan para cuidar de tu experiencia.
  • OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.
  • Esta función sigue los permisos y restricciones aplicables a los espacios de tu base de conocimientos enlazada. Esto significa que todas las páginas disponibles para los clientes de tu portal de Jira Service Management estarán disponibles a través de las respuestas de Atlassian Intelligence. Por ejemplo, si el acceso a una determinada página de Confluence está restringido y no está disponible de forma general a través de Jira Service Management, el contenido de esa página no se sugerirá en las respuestas de Atlassian Intelligence. Si no quieres que tu contenido esté disponible en las respuestas para otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la adecuada configuración de tus permisos.

Automatización mediante Atlassian Intelligence

Casos prácticos de la Automatización mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

La Automatización de Confluence mediante Atlassian Intelligence se basa en modelos GPT desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos para analizar las entradas en lenguaje natural y generar una regla de automatización para ti dentro de Jira y Confluence.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Casos prácticos de la Automatización mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

La creación de reglas de automatización es la base de la experiencia de automatización diaria, por lo que queremos facilitarte aún más añadiendo Atlassian Intelligence al creador de reglas de automatización de Jira y Confluence. Ahora puedes crear reglas de automatización fácilmente con solo escribir y describir lo que quieres automatizar, y dejar que Atlassian Intelligence se encargue de todo para crear la regla por ti. Consulta más información sobre la Automatización mediante Atlassian Intelligence para Jira y para Confluence.

Creemos que la Automatización mediante Atlassian Intelligence para Jira y Confluence funciona mejor en situaciones en las que no estás seguro de cómo empezar o quieres acelerar el proceso de creación de reglas.

¿No estás seguro de cuál es la mejor manera de crear una regla de automatización?

Las reglas de automatización se crean mediante una combinación de distintos tipos de componentes: desencadenadores, acciones, condiciones y ramas. Piensa en los componentes como los elementos básicos de una regla. Para crear correctamente una regla con Atlassian Intelligence, esta debe contener al menos un desencadenador y una acción. Por ejemplo:

En Jira:

Cada lunes, busca todas las tareas con fecha de vencimiento en los próximos 7 días, y envía a la persona asignada un correo electrónico de recordatorio.

Cuando un ticket pase a Pruebas, asígnaselo a John Smith.

En Confluence:

  • Cada lunes, busca todas las tareas con fecha de vencimiento en los próximos 7 días, y envía a la persona asignada un correo electrónico de recordatorio.
  • Cada 6 meses, archiva las páginas que no se hayan actualizado en ese tiempo. Una vez archivadas, envía un correo electrónico al autor de la página para informarle.
  • Cuando se publique una página con Product Spec en el título, crea un ticket de Jira para revisar la página con un enlace a la página.

Además, para que una regla se cree correctamente, todos sus componentes deben ser compatibles con la Automatización mediante Atlassian Intelligence. Esto significa que cualquier desencadenador, acción, condición o rama de tu regla debe ser compatible con la Automatización en Jira o Confluence.

Aspectos que se deben tener en cuenta sobre la Automatización mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma como funcionan los modelos utilizados para potenciar la Automatización mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de manera inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos determinado que la automatización mediante Atlassian Intelligence es menos práctica en estos casos:

  • Tienes que permitir que la Automatización, que utiliza Atlassian Intelligence, tenga acceso a información que no está a tu disposición (por ejemplo, una página o un proyecto restringidos) para responder correctamente a tu solicitud.
  • Tienes que realizar tareas puntuales.
  • Tienes que consultar la información en tu base de conocimientos.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

La Automatización mediante Atlassian Intelligence solo funcionará con el conjunto actual de componentes de automatización disponibles en Jira y Confluence.

También puedes pensar en ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga, como se ha descrito anteriormente.

Tus datos y la Automatización mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo utiliza tus datos la Automatización mediante Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Contexto de tu instancia relevante para tu solicitud, como un proyecto de Jira o una página de Confluence.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, el uso de Atlassian Intelligence para la automatización de Confluence aplica las siguientes medidas:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • OpenAI no los almacena.
    • No se utilizan para mejorar los modelos de OpenAI.
    • Solamente se utilizan para cuidar de tu experiencia.

OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.

Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página o un proyecto concretos, no se te sugerirán contenidos de esos activos en la respuesta que recibas. Si no quieres que tu contenido esté disponible en las respuestas de otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos.

Chart Insights

Cómo utiliza Chart Insights Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Chart Insights se basa en extensos modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Todo ello significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Casos prácticos de Chart Insights Copy link to heading Copied! Mostrar
  

Chart Insights utiliza Atlassian Intelligence para ayudarte a entender mejor los datos de cualquier gráfico de Atlassian Analytics. Lo hace utilizando el título del panel, el título del gráfico y los datos del gráfico (incluidos los encabezados de las columnas y los valores de las filas) para generar un resumen en lenguaje natural de ese gráfico y sus datos. También tendrá como objetivo identificar cualquier tendencia o anomalía para darte una idea determinada de ese gráfico.

Creemos que Chart Insights funciona mejor en los siguientes casos:

  • Cuando los gráficos tienen muchas filas de datos.
  • Cuando los gráficos tienen un título de panel.
  • Cuando los gráficos tienen encabezados de columna.
  • Cuando los gráficos tienen valores en todas las filas y columnas.

Los gráficos de barras, los gráficos de líneas y los gráficos de barras con una línea funcionan mejor con esta función, ya que normalmente tienen tendencias, fechas y muchas filas de datos.

Consideraciones a la hora de utilizar Chart Insights Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para Chart Insights, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos descubierto que Chart Insights es menos útil en los siguientes casos:

  • Cuando tienes gráficos con una o solo unas cuantas filas de datos.
  • Cuando tienes gráficos del tipo de valor único.
  • Cuando tienes gráficos en los que faltan los títulos, las etiquetas de los ejes y los encabezados de las columnas.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Comprobar la precisión de la información con otros usuarios que pueden tener más contexto sobre los datos específicos que aparecen en el gráfico.
  • Teniendo en cuenta que Atlassian Intelligence solo utiliza el contexto de un único gráfico y no de todo el panel a la hora de dar una respuesta.
Tus datos y Chart Insights Copy link to heading Copied! Mostrar
  

Entendemos que puedes tener dudas sobre la forma en que Chart Insights utiliza tus datos. Esta sección complementa la información disponible en esta página

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Contexto de tu instancia pertinente para el prompt, como los datos de tu gráfico.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, Chart Insights aplica las siguientes medidas.

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • OpenAI no los almacena
    • No se utilizan para mejorar los modelos de OpenAI.
    • Solamente se utilizan para cuidar de tu experiencia.
  • OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.
  • Esta función solo utiliza la información del panel a la que tienes acceso y para la que has solicitado datos relevantes.

Resumen rápido de Confluence

Cómo resume Atlassian Intelligence las páginas y los blogs en Confluence Copy link to heading Copied! Mostrar
  

El resumen de páginas y blogs mediante Atlassian Intelligence se basa en modelos LLM desarrollados por OpenAI. Entre ellos, se incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Casos prácticos del resumen rápido de Confluence Copy link to heading Copied! Mostrar
  

Ahorra tiempo y obtén más rápidamente los detalles que necesitas para realizar tu trabajo más deprisa generando un resumen rápido de una página o blog de Confluence con Atlassian Intelligence. Más información sobre el uso de Atlassian Intelligence en Confluence.

Creemos que resumir páginas y blogs con Atlassian Intelligence funciona mejor en los siguientes casos:

  • Cuando hay una página con mucho texto que se tarda 5 minutos o más en leer.
  • Cuando hay mucho contenido escrito, con pocos elementos visuales u otros formatos, como las ampliaciones de una página.
Consideraciones al resumir páginas y blogs con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, debido a la forma en que funcionan los modelos utilizados para impulsar el resumen de páginas y blogs con Atlassian Intelligence, a veces estos pueden comportarse de manera inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Si bien seguimos mejorando la compatibilidad con las macros, las tablas y ampliando los resúmenes, hemos descubierto que resumir páginas y blogs con Atlassian Intelligence es menos útil en situaciones donde:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Necesitas un resumen de una página de Confluence muy corta en la que no hay suficiente contenido.
  • Necesitas un resumen de una página de Confluence en la que la mayoría del contenido está en tablas o ampliaciones.
  • Necesitas un resumen de una página de Confluence con la mayoría del contenido en macros.

Es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Pide a Atlassian Intelligence que resuma las páginas que sabes que tienen mucho contenido basado en texto.
Tus datos y el resumen de páginas y blogs con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para la automatización de Confluence. Esta sección complementa la información disponible en nuestro Trust Center.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).

  • Contexto de tu instancia relevante para tu solicitud, como el contenido de la página de Confluence que quieres resumir.

  • Datos sobre cómo interactúas con nuestras funciones, como los datos del flujo de clics y las personas con las que trabajas

  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, al resumir páginas y blogs con Atlassian Intelligence, se aplican las siguientes medidas:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • OpenAI no los almacena.
    • No se utilizan para mejorar OpenAI.
    • Solamente se utilizan para cuidar de tu experiencia.
  • OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.
  • Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página de Confluence, no se te mostrará esta función ni podrás resumir una página con Atlassian Intelligence. Si no quieres que tu contenido esté disponible para otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos.

Definir términos con Atlassian Intelligence

Cómo define términos Atlassian Intelligence Copy link to heading Copied! Mostrar
  

La definición de términos con Atlassian Intelligence en Confluence y Jira funciona con grandes modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos para analizar y generar respuestas en lenguaje natural en Confluence.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado.

Casos de uso de la definición de términos con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Una de las cosas más difíciles de consumir contenido en Confluence y Jira puede ser conseguir el contexto que necesitas para entender lo que lees. Las abreviaturas, los acrónimos, los términos desconocidos y los nombres específicos de equipos o proyectos pueden hacerte perder mucho tiempo buscando la información que necesitas.

La definición de términos con Atlassian Intelligence proporcionará la definición de términos específicos de la empresa (como acrónimos, nombres de proyecto, sistemas o equipos) en una página de Confluence o en la descripción de una incidencia en Jira. De esta forma, los usuarios tendrán la información que necesitan y cuando la necesitan y mejorará la colaboración de los equipos.

Atlassian Intelligence puede ahorrarte tiempo, ya que hace estas definiciones por ti, sin que tengas que apartarte de la lectura.

Si encuentras una definición que te parezca inexacta, puedes editarla o añadir una nueva y, después, establecer que la visibilidad sea para esa página o incidencia, para todo el espacio o proyecto, o para acceder a toda tu organización.

La definición de términos con Atlassian Intelligence en Confluence funciona mejor en estos casos:

  • Una empresa tiene varias páginas en su instancia de Confluence en las que se menciona, describe o explica qué es un término determinado para que Atlassian Intelligence pueda referirlo.
Aspectos que se deben tener en cuenta a la hora de definir términos mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para definir términos con Atlassian Intelligence en Confluence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos determinado que la definición de términos con Atlassian Intelligence en Confluence funciona mejor en estos casos:

  • Se necesita información actualizada y precisa sobre personas, lugares y hechos.
  • No tienes contexto amplio sobre el término en esa instancia de Confluence (por ejemplo, si no hay páginas que mencionen el término específico, la definición no se generará con precisión).
  • La definición requiere acceso a contenido de Confluence que no tienes permiso para ver
  • Intentas definir varios términos en lugar de uno solo a la vez.

Además, en Jira, hemos descubierto que, dado que la definición de términos con Atlassian Intelligence depende de la búsqueda en Confluence, la función solo funcionará en Jira si tienes permiso para ver una instancia de Confluence en el mismo sitio que tu instancia de Jira.

Puede que descubras que la definición de términos con Atlassian Intelligence no funciona como esperabas en los espacios de Confluence o las instancias de Jira que tienen contenido escrito en varios idiomas.

Tus datos y la definición de términos con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al definir términos con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Contexto de tu instancia pertinente para el prompt, como el término que quieres definir.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

Al definir términos con Atlassian Intelligence, se aplican las siguientes medidas en lo que respecta a tus datos:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes
    • OpenAI no los almacena.
    • No se utilizan para mejorar los modelos de OpenAI.
    • Solamente se utilizan para cuidar de tu experiencia.
  • OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.
  • Esta función sigue los permisos de acceso de usuario existentes, por lo que los usuarios no podrán ver una definición del contenido al que no tienen acceso. La función extrae el contenido y las definiciones únicamente de las páginas y proyectos que el usuario tiene permisos para ver en la instancia. Si no quieres que tu contenido esté disponible en las respuestas de otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos.
  • Si un usuario edita o actualiza una definición manualmente, esta se almacena y conserva durante 1 año.

Genera descripciones de solicitudes de extracción con Atlassian Intelligence

Cómo utiliza Bitbucket Cloud Atlassian Intelligence para generar descripciones de solicitudes de extracción Copy link to heading Copied! Mostrar
  

La generación de descripciones de solicitudes de extracción con Atlassian Intelligence funciona con grandes modelos lingüísticos (LLM) desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos para analizar y generar un código y un lenguaje natural en nuestros productos.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Casos de uso de la generación de descripciones de solicitudes de extracción con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Atlassian Intelligence puede ayudarte a generar, transformar y resumir el contenido mientras escribes comentarios o descripciones de solicitudes de extracción en la experiencia de revisión de código de Bitbucket Cloud. Esto incluye lo siguiente:

  • Generar la descripción de una solicitud de extracción basada en los cambios de código incluidos en la solicitud de extracción.
  • Resumir, mejorar o cambiar el tono de la descripción de una solicitud de extracción.
  • Resumir, mejorar o cambiar el tono del comentario de una solicitud de extracción.

Creemos que la generación de descripciones de solicitudes de extracción de Bitbucket Cloud con Atlassian Intelligence funciona mejor en estos casos:

  • Como autor de código, querrás que Atlassian Intelligence te ayude a escribir o mejorar las descripciones de solicitudes de extracción. Esto funciona mejor con los equipos que pueden revisar y confirmar que el contenido generado por Atlassian Intelligence es adecuado para describir la solicitud de extracción.
  • Como revisor de código, querrás que Atlassian Intelligence te ayude a mejorar el tono o el contenido de los comentarios de solicitudes de extracción que hayas redactado.
Consideraciones al generar descripciones de solicitudes de extracción con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para esta función, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos descubierto que la generación de solicitudes de extracción de Bitbucket Cloud con Atlassian Intelligence no es tan útil en estos casos:

  • Necesitas que la descripción de tu solicitud de extracción haga referencia a la información que aún no está presente en los cambios de código (por ejemplo, el código fuente incluido en otras partes del repositorio).
  • No puedes revisar ni confirmar que el contenido generado por Atlassian Intelligence refleje con precisión la solicitud de extracción.
  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Ser lo más concreto posible en lo que le pidas a Atlassian Intelligence.
  • Revisar, corregir y editar el resultado generado por el asistente de escritura por IA para que sea claro y preciso.
  • Colaborar con otras personas para recopilar comentarios y mejorar la calidad de tus resultados.
Tus datos y la generación de descripciones de solicitudes de extracción con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al definir términos con Atlassian Intelligence en Confluence. Esta sección complementa la información disponible en nuestro Trust Center.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas)
  • El contexto de tu instancia pertinente para el prompt, por ejemplo:
    • los cambios de código y los mensajes de confirmación de tu solicitud de extracción
    • el contenido de la descripción de tu solicitud de extracción
    • el contenido del comentario de tu solicitud de extracción
  • Datos sobre cómo interactúas con nuestras funciones, como los datos del flujo de clics y las personas con las que trabajas
  • El feedback que decidas ofrecer sobre esta función

Al generar descripciones de solicitudes de extracción con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes
    • OpenAI no los almacena
    • No se utilizan para mejorar los modelos de OpenAI
    • Solamente se utilizan para cuidar de tu experiencia
  • OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No pueden utilizar tus datos para ningún otro fin que no sea procesar tu solicitud.

Generar consultas de SQL en Atlassian Analytics

Cómo genera Atlassian Intelligence consultas de SQL en Atlassian Analytics Copy link to heading Copied! Mostrar
  

La generación de consultas de SQL con Atlassian Intelligence en Atlassian Analytics funciona con grandes modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos para analizar y entender el lenguaje natural y, a continuación, lo traduce al lenguaje de consulta estructurada (SQL) en Atlassian Analytics.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Casos prácticos de la generación de consultas de SQL con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Plantea una pregunta a Atlassian Intelligence en lenguaje natural y haz que se traduzca a SQL, en lugar de escribir tus propias consultas de SQL desde cero. Cuando haces una pregunta, Atlassian Intelligence utiliza el esquema de Atlassian Data Lake de la fuente de datos seleccionada para generar una consulta de SQL que se puede utilizar para crear gráficos en los paneles de Atlassian Analytics y también puede ayudarte a obtener información sobre el esquema en el Data Lake.

La generación de consultas de SQL con Atlassian Intelligence funciona mejor en estos casos:

  • Quieres crear un gráfico personalizado a partir del SQL generado y ajustando la consulta cuando sea necesario.
  • La pregunta en lenguaje natural incluye palabras y conceptos a los que se hace referencia en el esquema de Atlassian Data Lake, donde eres lo más concreto posible.
  • Quieres explorar y obtener más información sobre el esquema de Atlassian Data Lake.

¿No tienes claro qué preguntas hacer?

Aquí te damos algunas ideas:

  • ¿Cuáles son las 5 etiquetas principales según el número de incidencias abiertas de Jira?
  • ¿Cuántas incidencias de Jira se han completado en el proyecto x en el último mes?
  • ¿Cuál es el tiempo medio en estado del estado "5 principales"?
  • ¿Cuáles son las 5 páginas de Confluence más marcadas como favoritas en el último mes?
  • ¿Cuántas solicitudes se han presentado en los últimos 5 días en nuestro proyecto x de Jira Service Management?
Aspectos que se deben tener en cuenta al generar consultas de SQL con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para generar consultas de SQL con Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos determinado que generar consultas de SQL con Atlassian Intelligence es menos práctico en estos casos:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Necesitas esta función para tener acceso a información que no está a tu disposición en el esquema de Atlassian Data Lake (por ejemplo, datos para Advanced Roadmaps) para responder correctamente a la pregunta.
  • La pregunta incluye referencias a campos personalizados.
  • La pregunta está hecha en un idioma que no es el inglés.
  • No estás lo bastante familiarizado con SQL como para validar el SQL que devuelve Atlassian Intelligence.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Ser lo más concreto posible en lo que le pidas a Atlassian Intelligence.
  • Asegúrate de que la fuente de datos del Atlassian Data Lake que utilizas incluye los datos necesarios para responder a tu pregunta.
Tus datos y la generación de consultas de SQL con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al generar consultas de SQL con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Contexto de tu instancia pertinente para el prompt, incluidos los esquemas de Atlassian Data Lake disponibles de forma pública y aplicables a tu instancia.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

Al generar consultas de SQL con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos.

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • OpenAI no los almacena.
    • No se utilizan para mejorar los modelos de OpenAI.
    • Solamente se utilizan para cuidar de tu experiencia.
  • OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.
  • Esta función sigue los permisos de tu conexión a Atlassian Data Lake. Por ejemplo, si no tienes acceso a una conexión de Atlassian Data Lake, no podrás compilar SQL para consultarla.

IA generativa en el editor

Cómo funciona Atlassian Intelligence en experiencias de edición Copy link to heading Copied! Mostrar
  

El uso de Atlassian Intelligence en experiencias de edición se basa en extensos modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Casos prácticos de la IA generativa en el editor Copy link to heading Copied! Mostrar
  

Atlassian Intelligence ayuda a impulsar una comunicación eficaz en todos los equipos de una organización para mejorar la eficiencia, la toma de decisiones y los procesos.

El uso de Atlassian Intelligence en experiencias de edición funciona mejor en estos casos:

  • Transformar contenido existente para diferentes públicos. Atlassian Intelligence ayuda a cambiar el tono, a mejorar la redacción y a facilitar la comprensión de la información técnica para los demás equipos. Es muy práctico con equipos que buscan una redacción más profesional y concisa.
  • Resumir contenido existente. Con Atlassian Intelligence, puedes convertir notas preliminares en práctica documentación de estrategia, artículos de base de conocimientos o planes de campaña, entre otras cosas. También puedes usarlo para analizar información existente y definir planes de acción y elementos. Es muy práctico en páginas con mucho texto, en las que hay mucho contexto del recuperar información.
  • Generar contenido nuevo. Atlassian Intelligence te ayuda a redactar contenido nuevo, como páginas de estrategia, resúmenes de proyectos, notas de publicación o historias de usuarios. Es muy práctico cuando los equipos utilizan indicaciones claras y concretas, con un objetivo específico en mente.
Aspectos que se deben tener en cuenta al utilizar Atlassian Intelligence en experiencias de edición Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para Atlassian Intelligence en experiencias de edición, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos determinado que usar Atlassian Intelligence en experiencias de edición resulta menos práctico en estos casos:

  • Se necesita información actualizada y precisa sobre personas, lugares y hechos.
  • Necesitas acceder a información que no está a tu disposición (por ejemplo, en tu instancia) para responder correctamente a tu solicitud.
  • Tienes que generar contenido en un formato que supere el markdown estándar (por ejemplo, generar un panel de información desde cero).
  • Tienes que referir información que no está aún presente en el documento que se está editando (por ejemplo, contenido de otro documento u otro producto).
  • Cuando tienes que generar y transformar el contenido en otros idiomas aparte del inglés.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Ser lo más concreto posible en lo que le pidas a Atlassian Intelligence.
  • Dividir las solicitudes complejas en tareas más pequeñas y gestionables.
  • Incorporar palabras clave pertinentes para aumentar la adecuación del contenido generado.
  • Usar la gramática y la puntuación adecuadas en el texto de entrada.
  • Revisar, corregir y editar el resultado generado por el asistente de escritura por IA para que sea claro y preciso.
  • Experimentar con diversas instrucciones o variaciones del texto de entrada para explorar ideas distintas.
  • Colaborar con otras personas para recopilar comentarios y mejorar la calidad de tus resultados.
Tus datos y Atlassian Intelligence en experiencias de edición Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo utiliza tus datos Atlassian Intelligence en las experiencias de edición. Esta sección complementa la información disponible en nuestro Trust Center.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de tu instancia pertinente para tu instrucción como, por ejemplo, el producto desde el que activaste Atlassian Intelligence.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, Atlassian Intelligence en experiencias de edición aplica las siguientes medidas:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • OpenAI no los almacena.
    • No se utilizan para mejorar los modelos de OpenAI.
    • Solamente se utilizan para cuidar de tu experiencia.
  • OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.
  • Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página de Confluence en particular, no se te sugerirán contenidos de esa página en la respuesta que recibas. Si no quieres que tu contenido esté disponible en las respuestas para otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la adecuada configuración de tus permisos.

Búsqueda de respuestas en Confluence

Cómo busca Atlassian Intelligence las respuestas en Confluence Copy link to heading Copied! Mostrar
  

La búsqueda de respuestas en Confluence mediante Atlassian Intelligence se nutre de modelos de LLM desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Casos prácticos de la búsqueda de respuestas en Confluence Copy link to heading Copied! Mostrar
  

Las bases de conocimientos crecen demasiado rápido para que los usuarios puedan mantenerse al día. La búsqueda de respuestas en Confluence mediante Atlassian Intelligence proporciona una vía de acceso más rápida a información clave que los clientes necesitan para sacar el trabajo adelante. Esta función te ayuda a encontrar fácilmente la información que necesitas. Comprende los tipos de preguntas que le harías a un compañero de equipo y las responde al instante. Más información sobre cómo utilizar Atlassian Intelligence para buscar respuestas en Confluence.

Consideramos que la búsqueda de respuestas en Confluence mediante Atlassian Intelligence funciona especialmente bien cuando el sitio de Confluence está repleto de contenidos detallados, completos y actualizados.

Esta función no genera contenido nuevo, sino que busca en las páginas y blogs de Confluence (aunque respetando las restricciones) para encontrar una respuesta a tu pregunta. Atlassian Intelligence genera respuestas basándose solo en lo que hay en tu Confluence y en el contenido al que tú, específicamente, puedes acceder.

¿No tienes claro qué preguntas hacer?

Aquí tienes unas cuantas sugerencias

  • ¿Cuándo estará el próximo equipo de marketing fuera de las instalaciones?
  • ¿Cuál es la política de teletrabajo?
  • ¿Qué es el Project Sunrise?
  • ¿Cuándo tendrá lugar nuestra próxima campaña de marketing?
  • ¿Dónde están las notas de publicación del producto más reciente de SpaceLaunch?
  • ¿Cómo se presentan los gastos para su reembolso?
Aspectos que se deben tener en cuenta a la hora de buscar respuestas en Confluence mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para buscar respuestas en Confluence mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos observado que buscar respuestas en Confluence mediante Atlassian Intelligence resulta menos útil en los siguientes casos:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Cuando necesitas datos actualizados y precisos sobre la información que tiende a cambiar con frecuencia (por ejemplo, una hoja de ruta que se actualiza mensualmente).
  • Cuando necesitas información actual y precisa sobre personas concretas y el rol que desempeñan en tu organización.
  • Cuando necesitas acceder a información que no está a tu disposición (por ejemplo, páginas restringidas de tu instancia de Confluence) para obtener una respuesta correcta a tu pregunta.
  • Cuando la respuesta consta de un rango de valores o categorías diferentes (por ejemplo, métricas que se actualizan cada semana).
  • Cuando necesitas respuestas que requieran matices, complejidades o niveles de razonamiento similares a los humanos.

Puede que descubras que la búsqueda de respuestas en Confluence con Atlassian Intelligence no funciona como esperabas en los espacios de Confluence que tienen documentos escritos en varios idiomas.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Ser lo más concreto posible en lo que le pidas a Atlassian Intelligence.
  • Hacer preguntas sobre cosas que sabes que están documentadas en tu instancia de Confluence y a las que tienes acceso.
Tus datos y la búsqueda de respuestas en Confluence con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al buscar respuestas en Confluence con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Contexto de tu instancia que sea pertinente para el mensaje, como el contenido de las tres páginas principales del resultado de la búsqueda de Confluence.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

Al buscar respuestas en Confluence con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • No los almacena ningún proveedor de LLM.
    • No se utilizan para mejorar los modelos LLM.
    • Solamente se utilizan para cuidar de tu experiencia.
  • OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.
  • Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página de Confluence determinada, esta función no utilizará el contenido de esa página en la respuesta que te muestre. Si no quieres que tu contenido esté disponible en las respuestas de otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos.

Búsqueda de incidencias en Jira

Cómo busca incidencias en Jira Atlassian Intelligence Copy link to heading Copied! Mostrar
  

La búsqueda de incidencias en Jira mediante Atlassian Intelligence se nutre de grandes modelos lingüísticos desarrollados por OpenAI. Entre estos modelos se incluyen los modelos OpenAI que se detallan aquí, perfeccionados por Atlassian mediante datos sintéticos generados.

Atlassian Intelligence utiliza estos modelos para analizar y entender el lenguaje natural y, a continuación, lo traduce al código de Jira Query Language (JQL) en nuestros productos.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probables a partir de los datos con los que se han entrenado.

Más información sobre las capacidades de los modelos OpenAI y el perfeccionamiento de OpenAI. También puedes informarte mejor sobre este enfoque en los artículos de investigación de OpenAI.

Casos prácticos de la búsqueda de incidencias en Jira Copy link to heading Copied! Mostrar
  

Ahora puedes preguntarle lo que quieras a Atlassian Intelligence en lenguaje cotidiano en lugar de hacer consultas complejas. Cuando buscas incidencias mediante Atlassian Intelligence, tu instrucción se traduce en una consulta de JQL que te ayuda rápidamente a buscar incidencias concretas.

Consideramos que la búsqueda de incidencias mediante Atlassian Intelligence funciona especialmente bien en los siguientes casos:

  • Cuando consultas incidencias en Jira mediante los campos de incidencias disponibles en tu proyecto de Jira.
  • Cuando la consulta tiene campos y valores específicos que pueden ayudar a delimitar la búsqueda de incidencias.
  • Cuando los campos y valores que buscas están en tu proyecto de Jira.
  • Cuando tu consulta está en inglés.
  • Cuando la consulta se puede traducir a JQL. Dado que Atlassian Intelligence convierte las instrucciones a código JQL, las entradas que contienen palabras clave traducibles a JQL pueden ofrecer resultados de mayor calidad.
Aspectos que se deben tener en cuenta a la hora de buscar incidencias mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para buscar incidencias mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no reflejen fielmente el contenido en el que se basan, o que incluyan contenido en apariencia razonable pero falso o incompleto.

Hemos observado que buscar incidencias mediante Atlassian Intelligence resulta menos útil en los siguientes casos:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Cuando buscas entidades de Jira que no son incidencias como, por ejemplo, proyectos, tableros o usuarios.
  • Cuando realizas la búsqueda en un idioma que no es el inglés.
  • Cuando necesitas la búsqueda para analizar las incidencias con el fin de crear gráficos, resúmenes u otras representaciones de tus datos.
  • Cuando la búsqueda requiere funciones que no están disponibles actualmente en JQL (por ejemplo, una pregunta como "Busca incidencias que haya comentado" que no se puede traducir a una función de JQL).

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Puede que también te interese plantearte cómo ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga. Asegúrate de incluir los campos y valores exactos que estás buscando.

Tus datos y la búsqueda de incidencias mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al buscar incidencias con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de tu instancia pertinente para tu instrucción como, por ejemplo, el proyecto en el que estás actualmente.
  • Datos sobre cómo interactúas con nuestras funciones, como los datos del flujo de clics y las personas con las que trabajas
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, buscar incidencias mediante Atlassian Intelligence aplica las siguientes medidas:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • No los almacena ningún proveedor de LLM.
    • No se utilizan para mejorar los modelos LLM.
    • Solamente se utilizan para cuidar de tu experiencia.
  • OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.
  • Las respuestas de la búsqueda se basarán en las incidencias y campos a los que tengas acceso (por ejemplo, si no tienes acceso a un proyecto de Jira específico, tu búsqueda no arrojará resultados para las incidencias y campos de ese proyecto).

Sugerir tipos de solicitud en Jira Service Management

Cómo sugiere Atlassian Intelligence los tipos de solicitud en Jira Service Management Copy link to heading Copied! Mostrar
  

La sugerencia de tipos de solicitud mediante Atlassian Intelligence funciona con grandes modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos para analizar las entradas en lenguaje natural y generar recomendaciones de nombres y descripciones de los tipos de solicitud para que los uses en Jira Service Management.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Casos prácticos de sugerir tipos de solicitudes en Jira Service Management Copy link to heading Copied! Mostrar
  

Dedica menos tiempo a averiguar qué tipos de solicitud necesitas crear para tu proyecto y, en su lugar, recibe sugerencias de Atlassian Intelligence. Basta con describir tu trabajo y lo que tu equipo suele gestionar para ver qué tipos de solicitudes puedes crear. Selecciona una de las sugerencias generadas por Atlassian Intelligence para crear un tipo de solicitud. Más información sobre cómo utilizar Atlassian Intelligence para sugerir tipos de solicitud.

Creemos que usar Atlassian Intelligence para sugerir tipos de solicitud funciona especialmente bien en los siguientes casos:

  • Cuando tienes casos de uso muy específicos que las plantillas de tipos de solicitud existentes no atienden.
  • Cuando tienes requisitos muy generales y estás buscando ideas.
  • Cuando utilizas un idioma muy hablado (por ejemplo, el inglés o el español).
Consideraciones al sugerir tipos de solicitud con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para sugerir tipos de solicitud mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos observado que el uso de Atlassian Intelligence para sugerir tipos de solicitud resulta menos práctico en los siguientes casos:

  • Se necesita información actualizada y precisa sobre personas, lugares y hechos.
  • Cuando necesitas esta función para acceder a información que no está a tu disposición (por ejemplo, en tu instancia) para responder correctamente a tu solicitud.
  • Cuando das instrucciones que son demasiado vagas o irrelevantes para la gestión del servicio.
  • Cuando no utilizas un idioma muy hablado.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Ser lo más concreto posible en lo que le pidas a Atlassian Intelligence.
Tus datos y el uso de Atlassian Intelligence para sugerir tipos de solicitud Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para sugerir tipos de solicitud. Esta sección complementa la información disponible en nuestro Trust Center.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de tu instancia pertinente para tu instrucción.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, utilizar Atlassian Intelligence para sugerir tipos de solicitud aplica las siguientes medidas:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • OpenAI no los almacena.
    • No se utilizan para mejorar los modelos de OpenAI.
    • Solamente se utilizan para cuidar de tu experiencia.
  • OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.
  • Esta función solo utiliza la información de tus instrucciones, por lo que se respetan todos los permisos de Jira.

Resume los detalles de la incidencia en Jira Service Management

Cómo resume Atlassian Intelligence los detalles de la incidencia en Jira Service Management Copy link to heading Copied! Mostrar
  

El resumen de los detalles de la incidencia con Atlassian Intelligence funciona con grandes modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Casos prácticos de resumir los detalles de la incidencia Jira Service Management Copy link to heading Copied! Mostrar
  

En lugar de leer descripciones largas y numerosos comentarios sobre una incidencia de Jira Service Management, puedes utilizar Atlassian Intelligence para que resuma rápidamente esta información. De esta forma, los agentes pueden conocer rápidamente el contexto de la incidencia y los progresos realizados, para tomar medidas rápidas y prestar asistencia de forma puntual.

Creemos que resumir los detalles de la incidencia con Atlassian Intelligence es una opción idónea en estos casos:

  • Incidencias con la descripción y los comentarios en inglés.
  • Incidencias con un gran número de comentarios o comentarios y descripciones extensos.
Aspectos que se deben tener en cuenta al resumir los detalles de la incidencia con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma como funcionan los modelos utilizados para resumir los detalles de las incidencias con Atlassian Intelligence, estos modelos a veces pueden comportarse de manera inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos determinado que resumir los detalles de la incidencia con Atlassian Intelligence es menos práctico en estos casos:

  • Se utiliza un idioma que no es el inglés.
  • La incidencia no tiene historial ni detalles.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Tus datos y el resumen de los detalles de la incidencia con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al resumir los detalles de una incidencia con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de la instancia pertinente para el prompt incluye detalles sobre el servicio de Jira. Incidencia de gestión, como la descripción de la incidencia, los comentarios y los usuarios que participan en el ticket.
  • Datos sobre cómo interactúas con nuestras funciones, como los datos del flujo de clics y las personas con las que trabajas
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

Al resumir los detalles de la incidencia con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • No se envían a ningún proveedor de LLM externo que no sea OpenAI.
    • OpenAI no los almacena.
    • No se utilizan para mejorar los modelos de OpenAI.
    • Solamente se utilizan para cuidar de tu experiencia.
  • OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.
  • Esta función sigue los permisos de tu instancia. Solo los agentes y los administradores del proyecto pueden ver el botón de resumen.

Escribe fórmulas personalizadas con Atlassian Intelligence

Cómo escribe Atlassian Intelligence fórmulas personalizadas en Atlassian Analytics Copy link to heading Copied! Mostrar
  

La escritura de fórmulas personalizadas mediante Atlassian Intelligence funciona con grandes modelos lingüísticos desarrollados por OpenAI. Entre ellos, se incluyen los modelos de OpenAI que se detallan aquí.

Atlassian Intelligence utiliza estos modelos para analizar el lenguaje natural y, a continuación, lo traduce a SQLite en Atlassian Analytics.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Casos prácticos de la escritura de fórmulas con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Pregunta o describe a Atlassian Intelligence cómo quieres transformar los datos de tu tabla de resultados y los traducirá en una expresión de SQLite que se utiliza para fórmulas personalizadas, en lugar de escribir tus propias expresiones de SQLite desde cero. Tras hacer una pregunta, Atlassian Intelligence utiliza los datos de la tabla de resultados del paso anterior de Visual SQL para generar una expresión de SQLite que aplica cálculos u operaciones a los datos de tu gráfico. Esto también puede ayudarte a aprender sobre las funciones de SQLite y su sintaxis.

Consideramos que la escritura de fórmulas personalizadas mediante Atlassian Intelligence funciona mejor en los siguientes casos:

  • Aplicar cambios a una sola columna de los datos consultados.
  • Empezar con una expresión de SQLite generada y ajustarla cuando sea necesario.
  • La pregunta en lenguaje natural incluye palabras y conceptos a los que se hace referencia en los encabezados de las columnas o en los datos de las filas.
  • Obtener más información sobre SQLite y descubrir las funciones de SQLite disponibles.
Consideraciones a la hora de escribir fórmulas personalizadas mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Cuando utilices fórmulas personalizadas, recuerda que los modelos utilizados en Atlassian Intelligence a veces pueden comportarse de forma imprecisa, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no reflejen fielmente el contenido en el que se basan, o que incluyan contenido en apariencia razonable, pero falso o incompleto.

Hemos determinado que escribir fórmulas personalizadas mediante Atlassian Intelligence es menos práctico en estos casos:

  • Aplicar los cambios a más de una columna de una sola fórmula personalizada.
  • Acceder a información que no está disponible fácilmente en los datos de la tabla de resultados.
  • La pregunta se escribe en un idioma diferente al inglés.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Ser lo más concreto posible en lo que le pidas a Atlassian Intelligence.
  • Asegurarte de que los datos consultados incluyan los datos necesarios para responder a tu pregunta.
Tus datos y la escritura de fórmulas personalizadas mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos cuando escribes fórmulas personalizadas mediante Atlassain Intelligence. Esta sección complementa la información disponible en nuestro Trust Center.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de tu instancia es relevante para tu pregunta, como incluir los datos del conjunto de resultados en el paso anterior de Visual SQL.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.
  • Datos de interacción con nuestras funciones, como los datos del flujo de clics

Al escribir fórmulas personalizadas con Atlassian Intelligence, se aplican las siguientes medidas en lo que respecta a tus datos:

Tus prompts (entradas) y respuestas (salidas):

  • No están a disposición de otros clientes.
  • OpenAI no los almacena.
  • No se utilizan para mejorar los modelos de OpenAI.
  • Solamente se utilizan para cuidar de tu experiencia.

OpenAI es una empresa encargada del tratamiento de datos personales subcontratada de las que se incluyen en nuestra lista. No utiliza tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud.

Logotipo de Atlassian AI.

Atlassian Intelligence y Rovo se han diseñado para aportar transparencia

Nuestro compromiso inquebrantable con la comunicación abierta, la responsabilidad y el respaldo a los equipos para que utilicen la IA de manera responsable.

Rovo

Selecciona una de las siguientes funciones de Rovo para ver de forma transparente los casos prácticos y el uso de los datos.

Automatización mediante Atlassian Intelligence

Cómo la Automatización utiliza Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Automation using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar las entradas en lenguaje natural y generar una regla de automatización para ti dentro de Jira y Confluence.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos prácticos de la Automatización mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

La creación de reglas de automatización es la base de la experiencia de automatización diaria, por lo que queremos facilitarte aún más añadiendo Atlassian Intelligence al creador de reglas de automatización de Jira y Confluence. Ahora puedes crear reglas de automatización fácilmente con solo escribir y describir lo que quieres automatizar, y dejar que Atlassian Intelligence se encargue de todo para crear la regla por ti. Consulta más información sobre la Automatización mediante Atlassian Intelligence para Jira y para Confluence.

Creemos que la Automatización mediante Atlassian Intelligence para Jira y Confluence funciona mejor en situaciones en las que no estás seguro de cómo empezar o quieres acelerar el proceso de creación de reglas.

Aspectos que se deben tener en cuenta sobre la Automatización mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma como funcionan los modelos utilizados para potenciar la Automatización mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de manera inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos determinado que la automatización mediante Atlassian Intelligence es menos práctica en estos casos:

  • Tienes que permitir que la Automatización, que utiliza Atlassian Intelligence, tenga acceso a información que no está a tu disposición (por ejemplo, una página o un proyecto restringidos) para responder correctamente a tu solicitud.
  • Tienes que realizar tareas puntuales.
  • Tienes que consultar la información en tu base de conocimientos.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

La Automatización mediante Atlassian Intelligence solo funcionará con el conjunto actual de componentes de automatización disponibles en Jira y Confluence.

También puedes pensar en ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga, como se ha descrito anteriormente.

Tus datos y la Automatización mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo utiliza tus datos la Automatización mediante Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Contexto de tu instancia relevante para tu solicitud, como un proyecto de Jira o una página de Confluence.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, el uso de Atlassian Intelligence para la automatización de Confluence aplica las siguientes medidas:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock
    • Are not stored by any LLM vendor.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.

All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.

Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página o un proyecto concretos, no se te sugerirán contenidos de esos activos en la respuesta que recibas. Si no quieres que tu contenido esté disponible en las respuestas de otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos.

How AI related resources uses Atlassian Intelligence Copy link to heading Copied! Show
  

AI related resources is powered by large language models developed by OpenAI, as well as a combination of open-source large language models (including the Llama series and Phi series) and other machine learning models. These large language models include OpenAI’s GPT series of models.

Atlassian Intelligence uses these models to analyze and generate natural language within our products, and to provide relevant responses from Atlassian and connected third-party products.

These large language models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on.

Read more about the capabilities of OpenAI’s models or about this approach in OpenAI's research papers. For more information on open-source language models, see information on the Llama series and the Phi series.

Use cases for AI related resources Copy link to heading Copied! Show
  

Atlassian Intelligence enables your users to speed up the process of resolving incidents by suggesting a list of resources that they can refer to, across your linked knowledge base spaces and articles, Jira issues, and (if you are a Rovo customer) any third-party products you have integrated through Rovo. Read more about Rovo and third party tools.

We believe that AI related resources work best in scenarios where:

  • Your organization has a lot of documentation in your linked knowledge base spaces and connected third-party tools that are relevant to and helpful for resolving incidents that occur in your organization.

  • Your team needs quick access to resources that are likely relevant to the incident when they are triaging the incident.

Considerations when using AI related resources Copy link to heading Copied! Show
  

Remember that because of the way that the models used to power AI related resources work, these models can sometimes behave in ways that are inaccurate, incomplete, or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on or include content that sounds reasonable but is false or incomplete.

We’ve found that AI related resources is less useful in scenarios where:

  • You need current and accurate information about people, places, and facts.

  • You need AI related resources to access information not readily available to you, like restricted Confluence documents (for example, access-restricted Confluence pages) to properly respond to your request.

  • You have minimal documentation available in your setup that Atlassian Intelligence can use to suggest related resources.

For this reason, we encourage you to consider situations where you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

You might also want to think about the following:

  • Reviewing permissions to ensure that users have appropriate levels of access to your relevant documentation and resources from third-party tools (like Slack channels).

  • Reviewing and confirming that your organization’s documentation is complete, up-to-date, and accurate.

Your data and AI related resources Copy link to heading Copied! Show
  

We understand you may have questions about how AI related resources uses your data. This section supplements the information available on our FAQ page.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as incident data, alerts data, documentation in your Atlassian products, and connected third-party products such as Google Docs.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Any feedback you provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, AI related resources applies the following measures:

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third-party LLM provider other than OpenAI.
    • Are not stored by OpenAI or any other third-party LLM provider.
    • Are not used to improve OpenAI or any other third party LLM provider.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • This feature follows your product’s permissions. For example, if you don’t have access to a certain Confluence page, you won’t find that page in the list of related resources. If you don’t want your content to be available in response to other users of your product, work with your organization admin to ensure the team’s access permissions are configured appropriately.
How AI suggestions in Jira Service Management use Atlassian Intelligence Copy link to heading Copied! Show
  

AI suggestions in Jira Service Management is powered by large language models developed by OpenAI, and other machine learning models. These large language models include OpenAI’s GPT series of models.

Atlassian Intelligence uses these models to analyze and generate natural language within our products.

These large language models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on.

Read more about the capabilities of OpenAI’s models.

Use cases for AI suggestions in Jira Service Management Copy link to heading Copied! Show
  

With AI suggestions in Jira Service Management, your team can quickly get up to speed by gathering important context about your service requests and incidents at a glance. Atlassian Intelligence helps your team to:

  • For service requests, understand a brief summary of the issue, details of the issue reporter, and a list of suggested steps that could help agents resolve the issue. Atlassian Intelligence also suggests ways that your team can update service requests based on this context, such as changing their priority or adding an assignee.
  • For incidents, understand a brief summary of the issue and details of the probable root cause. Atlassian Intelligence also suggests ways that your team can update incidents based on this context, such as identifying an incident as a major incident, adding responders or affected services, changing their severity or priority, or investigating the problem by creating a problem issue.

AI suggestions in Jira Service Management can also recommend that agents escalate a request or incident when the applicable SLA is about to be breached. In the case of service requests, this feature may also suggest that agents escalate that request where the models used to power these suggestions identify, based on the text of the reporter’s comments, a sense of urgency or anger with that request.

We believe that AI suggestions in Jira Service Management work best in scenarios where:

  • Your projects receive a lot of similar requests or incidents.
  • Your organization already records service requests and incidents in Jira Service Management with complete, accurate, and up-to-date information.
  • Your team members' user profiles have been populated with information about their roles, departments, and locations.
  • Your customers and team members keep a written record of all the conversations by adding comments on issues.
  • Your projects include a number of each kind of service request or incident commonly encountered by your teams.
Considerations when using AI suggestions in Jira Service Management Copy link to heading Copied! Show
  

It’s important to remember that because of the way that the models used to power AI suggestions in Jira Service Management work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, the responses that you receive might not accurately reflect the content that they are based on or include content that sounds reasonable but is false or incomplete.

We’ve found that AI suggestions in Jira Service Management are less useful in scenarios where:

  • You need current and accurate information about people, places, and facts.
  • You need suggestions for a service request or incident in circumstances where your project does not include any similar requests or incidents to learn from.
  • You need information that you don’t have access to within your project.
  • You need suggestions for assignees for whom information about their roles, departments, and locations has not been added to their profile.

For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

You might also want to think about:

  • Asking team members to make sure that their profile details (and past incidents/service requests) are fully populated before using AI suggestions in Jira Service Management.
Your data and AI suggestions in Jira Service Management Copy link to heading Copied! Show
  

We understand you may have questions about how AI suggestions in Jira Service Management uses your data. This section supplements the information available on our Trust Center.

We process:

  • The prompts (inputs) and responses (outputs)
  • Context from your instance relevant to the feature, such as similar requests or incidents, list of assignees or teammates, assets, and data in an issue like field values, comments, etc.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, AI suggestions apply the following measures.

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third-party LLM provider other than OpenAI.
    • Are not stored by OpenAI.
    • Are not used to improve OpenAI.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our List of Subprocessors. They don't use your inputs and outputs for any purpose besides processing your request.
  • This feature follows the permissions in your instance. For example, if you don't have access to a certain service request or incident, Atlassian Intelligence will not consider those requests or incidents while generating suggestions. If you don't want your content to be available to other users in your project or site, work with your org admin to ensure your permissions are set appropriately.
How Automation uses Atlassian Intelligence Copy link to heading Copied! Show
  

Automation using Atlassian Intelligence is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include OpenAI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. 

Atlassian Intelligence uses these models to analyze natural language input and generate an automation rule for you within Jira and Confluence.

These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated by predicting the most probable next word or text, based on the data that they have been trained on.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Use cases for Automation using Atlassian Intelligence Copy link to heading Copied! Show
  

Creating automation rules is at the core of the everyday automation experience, and we want to make this even easier for you by adding Atlassian Intelligence to the automation rule builder in Jira and Confluence. Now, you can easily create automation rules by simply typing in and describing what you wish to automate, and let Atlassian Intelligence handle all the heavy lifting of creating the rule for you. Find out more about Automation using Atlassian Intelligence for Jira and for Confluence.

We believe that Automation using Atlassian Intelligence for Jira and Confluence works best in scenarios when you are not sure how to get started or want to accelerate the rule creation process.

Not sure how best to create an automation rule?

Automation rules are created by a combination of different types of components: triggers, actions, conditions, and branches. Think of components as the building blocks of a rule. To successfully create a rule with Atlassian Intelligence, your rule must at least contain both a trigger and an action. For example:

In Jira:

Every Monday, find all the tasks with a due date in the next 7 days, and send the assignee a reminder email.

When a ticket moves to Testing, assign the ticket to John Smith.

In Confluence:

  • Every Monday, find all the tasks with a due date in the next 7 days, and send the assignee a reminder email.
  • Every 6 months, archive any pages that haven’t been updated in that time. After archiving, send an email to the page author letting them know.
  • When a page is published with Product Spec in the title, create a Jira ticket to review the page with a link to the page.

In addition, for a rule to be successfully created, all its components must be supported by Automation using Atlassian Intelligence. This means that any triggers, actions, conditions, or branches in your rule must be compatible with Automation in Jira and/or Confluence.

Considerations for Automation using Atlassian Intelligence Copy link to heading Copied! Show
  

It’s important to remember that because of the way that the models used to power Automation using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete.

We’ve found that Automation using Atlassian Intelligence is less useful in scenarios where:

  • You need to give Automation using Atlassian Intelligence access to information that isn’t readily available to you (for example, a restricted page or project) to properly answer your request.
  • You need to perform one-off tasks.
  • You need to query information from within your knowledge base.

For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

Automation using Atlassian Intelligence will only work with the existing set of available automation components in Jira and Confluence.

You might also want to think about being as specific as possible in what you ask Atlassian Intelligence to do, as described above.

Your data and Automation using Atlassian Intelligence Copy link to heading Copied! Show
  

We understand you may have questions about how Automation using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as a Jira project or a Confluence page.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, using Atlassian Intelligence for Confluence automation applies the following measures:

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock
    • Are not stored by any LLM vendor.
    • Are not used to improve LLM models.
    • Are used only to serve your experience.

All third-party LLM providers are subprocessors and listed as so on our  Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.

This feature follows the permissions in your instance. For example, if you do not have access to a specific project or page, you will not be suggested content from those assets in the response you receive. If you do not want your content to be available in responses to other users in your instance, work with your org admin to ensure your permissions are set appropriately.

Agrupación de alertas

Cómo se utiliza Atlassian Intelligence para la agrupación de alertas Copy link to heading Copied! Mostrar
  

Alert grouping by Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos de aprendizaje automático para analizar y generar grupos de alertas y ofrecer sugerencias relacionadas (grupos de alertas anteriores y personas encargadas de responder a alertas anteriormente) en nuestros productos en función de la similitud del contenido de las alertas o de las etiquetas utilizadas. Luego, Atlassian Intelligence utiliza modelos de lenguaje de gran tamaño para analizar y generar descripciones y contenido en lenguaje natural para estos grupos en nuestros productos.

Estos modelos de lenguaje de gran tamaño generan respuestas en función de tus entradas y son probabilísticos. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos prácticos de la agrupación de alertas Copy link to heading Copied! Mostrar
  

La agrupación de alertas utiliza Atlassian Intelligence para identificar y agrupar alertas similares. También te ayuda a identificar y recomendar grupos de alertas similares anteriores y personas encargadas de responder a alertas anteriormente (o equipos de estas personas) en función de la similitud semántica del contenido de la alerta o de las etiquetas utilizadas.

Cuando quieras escalar el grupo de alertas a un incidente, la agrupación de alertas también rellenará automáticamente toda la información contextual para que la revises como parte del proceso de creación del incidente.

Creemos que la agrupación de alertas funciona mejor en los siguientes casos:

  • Tu organización encuentra con frecuencia patrones de alertas similares o duplicadas que se producen en un volumen elevado, ya sea que se produzcan durante un periodo corto o más prolongado.
  • Tu organización clasifica las alertas de forma coherente mediante etiquetas.
  • Tu equipo descubre a menudo que alertas similares o duplicadas deberían convertirse en incidentes.
Consideraciones a la hora de utilizar la agrupación de alertas Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para la agrupación de alertas, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. En el caso de los grupos de alertas que ves, puede que no reflejen con precisión la similitud semántica de sus etiquetas.

Hemos descubierto que la agrupación de alertas es menos útil en los siguientes casos:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Necesitas que la agrupación de alertas tenga acceso a información que no está disponible para agrupar las alertas correctamente. La agrupación de alertas funciona dentro de los límites de las funciones y permisos configurados por tu equipo, por lo que solo tendrás acceso a los grupos y datos relevantes de las alertas que tengas permiso para ver.
  • Las etiquetas de alerta que utiliza tu equipo no son coherentes ni están bien mantenidas. Como la agrupación de alertas agrupa las alertas en función de la similitud semántica de los títulos y las etiquetas de las alertas, la calidad de los grupos de alertas que genera depende de la coherencia y el orden de las etiquetas de alerta que utilizan tu equipo y tu organización.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

También deberías asegurarte de que tú y tu equipo seguís prácticas coherentes en cuanto al uso de las etiquetas de alerta.

Tus datos y la agrupación de alertas Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo utiliza tus datos la agrupación de alertas. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de tu instancia pertinente para tu instrucción, como los datos de las alertas (títulos, etiquetas, prioridad, equipos de personas encargadas de responder, descripción).
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

Procesamos los datos de tus alertas para entrenar una versión del modelo de aprendizaje automático para que reconozca los patrones específicos de tus alertas. Esta versión se usa únicamente para tu experiencia:

  • Almacenamos los patrones identificados para proporcionarte datos relevantes.
  • No utilizamos los datos de tus alertas para entrenar ningún modelo de lenguaje de gran tamaño.

En lo que respecta a tus datos, la agrupación de alertas aplica las siguientes medidas:

  • Tus entradas y salidas:
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock

    • Are not stored by any LLM vendor.

    • Are not used to improve LLM models.

    • Solamente se utilizan para cuidar de tu experiencia.

  • All third-party LLM providers are subprocessors and listed as so on our subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función sigue los permisos de tu sitio. Por ejemplo, si Atlassian Intelligence agrupa 50 alertas según sus etiquetas y su similitud semántica y tú tienes permiso para ver solo 30 de ellas, solo verás esas 30 en la vista de detalles del grupo. Si no quieres que tus alertas estén disponibles en las respuestas de otros usuarios de tu sitio, ponte en contacto con el administrador de tu organización o sitio para comprobar la configuración de tus permisos.
Cómo resume Atlassian Intelligence las páginas y los blogs en Confluence Copy link to heading Copied! Mostrar
  

Summarize pages and blogs using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos prácticos del resumen rápido de Confluence Copy link to heading Copied! Mostrar
  

Ahorra tiempo y obtén más rápidamente los detalles que necesitas para realizar tu trabajo más deprisa generando un resumen rápido de una página o blog de Confluence con Atlassian Intelligence. Más información sobre el uso de Atlassian Intelligence en Confluence.

Creemos que resumir páginas y blogs con Atlassian Intelligence funciona mejor en los siguientes casos:

  • Cuando hay una página con mucho texto que se tarda 5 minutos o más en leer.
  • Cuando hay mucho contenido escrito, con pocos elementos visuales u otros formatos, como las ampliaciones de una página.
Consideraciones al resumir páginas y blogs con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, debido a la forma en que funcionan los modelos utilizados para impulsar el resumen de páginas y blogs con Atlassian Intelligence, a veces estos pueden comportarse de manera inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Si bien seguimos mejorando la compatibilidad con las macros, las tablas y ampliando los resúmenes, hemos descubierto que resumir páginas y blogs con Atlassian Intelligence es menos útil en situaciones donde:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Necesitas un resumen de una página de Confluence muy corta en la que no hay suficiente contenido.
  • Necesitas un resumen de una página de Confluence en la que la mayoría del contenido está en tablas o ampliaciones.
  • Necesitas un resumen de una página de Confluence con la mayoría del contenido en macros.

Es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Pide a Atlassian Intelligence que resuma las páginas que sabes que tienen mucho contenido basado en texto.
Tus datos y el resumen de páginas y blogs con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para la automatización de Confluence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).

  • Contexto de tu instancia relevante para tu solicitud, como el contenido de la página de Confluence que quieres resumir.

  • Datos sobre cómo interactúas con nuestras funciones, como los datos del flujo de clics y las personas con las que trabajas

  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, al resumir páginas y blogs con Atlassian Intelligence, se aplican las siguientes medidas:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.
    • Are not stored by any LLM vendor.

    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página de Confluence, no se te mostrará esta función ni podrás resumir una página con Atlassian Intelligence. Si no quieres que tu contenido esté disponible para otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos.

Definir términos con Atlassian Intelligence

Cómo define términos Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Defining terms using Atlassian Intelligence in Confluence and Jira is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar y generar respuestas en lenguaje natural en Confluence.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos de uso de la definición de términos con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Una de las cosas más difíciles de consumir contenido en Confluence y Jira puede ser conseguir el contexto que necesitas para entender lo que lees. Las abreviaturas, los acrónimos, los términos desconocidos y los nombres específicos de equipos o proyectos pueden hacerte perder mucho tiempo buscando la información que necesitas.

La definición de términos con Atlassian Intelligence proporcionará la definición de términos específicos de la empresa (como acrónimos, nombres de proyecto, sistemas o equipos) en una página de Confluence o en la descripción de una incidencia en Jira. De esta forma, los usuarios tendrán la información que necesitan y cuando la necesitan y mejorará la colaboración de los equipos.

Atlassian Intelligence puede ahorrarte tiempo, ya que hace estas definiciones por ti, sin que tengas que apartarte de la lectura.

Si encuentras una definición que te parezca inexacta, puedes editarla o añadir una nueva y, después, establecer que la visibilidad sea para esa página o incidencia, para todo el espacio o proyecto, o para acceder a toda tu organización.

La definición de términos con Atlassian Intelligence en Confluence funciona mejor en estos casos:

  • Una empresa tiene varias páginas en su instancia de Confluence en las que se menciona, describe o explica qué es un término determinado para que Atlassian Intelligence pueda referirlo.
Aspectos que se deben tener en cuenta a la hora de definir términos mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para definir términos con Atlassian Intelligence en Confluence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos determinado que la definición de términos con Atlassian Intelligence en Confluence funciona mejor en estos casos:

  • Se necesita información actualizada y precisa sobre personas, lugares y hechos.
  • No tienes contexto amplio sobre el término en esa instancia de Confluence (por ejemplo, si no hay páginas que mencionen el término específico, la definición no se generará con precisión).
  • La definición requiere acceso a contenido de Confluence que no tienes permiso para ver
  • Intentas definir varios términos en lugar de uno solo a la vez.

Además, en Jira, hemos descubierto que, dado que la definición de términos con Atlassian Intelligence depende de la búsqueda en Confluence, la función solo funcionará en Jira si tienes permiso para ver una instancia de Confluence en el mismo sitio que tu instancia de Jira.

Puede que descubras que la definición de términos con Atlassian Intelligence no funciona como esperabas en los espacios de Confluence o las instancias de Jira que tienen contenido escrito en varios idiomas.

Tus datos y la definición de términos con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al definir términos con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Contexto de tu instancia pertinente para el prompt, como el término que quieres definir.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

Al definir términos con Atlassian Intelligence, se aplican las siguientes medidas en lo que respecta a tus datos:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función sigue los permisos de acceso de usuario existentes, por lo que los usuarios no podrán ver una definición del contenido al que no tienen acceso. La función extrae el contenido y las definiciones únicamente de las páginas y proyectos que el usuario tiene permisos para ver en la instancia. Si no quieres que tu contenido esté disponible en las respuestas de otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos.
  • Si un usuario edita o actualiza una definición manualmente, esta se almacena y conserva durante 1 año.

IA generativa en el editor

Cómo funciona Atlassian Intelligence en experiencias de edición Copy link to heading Copied! Mostrar
  

Atlassian Intelligence in editing experiences is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos prácticos de la IA generativa en el editor Copy link to heading Copied! Mostrar
  

Atlassian Intelligence ayuda a impulsar una comunicación eficaz en todos los equipos de una organización para mejorar la eficiencia, la toma de decisiones y los procesos.

El uso de Atlassian Intelligence en experiencias de edición funciona mejor en estos casos:

  • Transformar contenido existente para diferentes públicos. Atlassian Intelligence ayuda a cambiar el tono, a mejorar la redacción y a facilitar la comprensión de la información técnica para los demás equipos. Es muy práctico con equipos que buscan una redacción más profesional y concisa.
  • Resumir contenido existente. Con Atlassian Intelligence, puedes convertir notas preliminares en práctica documentación de estrategia, artículos de base de conocimientos o planes de campaña, entre otras cosas. También puedes usarlo para analizar información existente y definir planes de acción y elementos. Es muy práctico en páginas con mucho texto, en las que hay mucho contexto del recuperar información.
  • Generar contenido nuevo. Atlassian Intelligence te ayuda a redactar contenido nuevo, como páginas de estrategia, resúmenes de proyectos, notas de publicación o historias de usuarios. Es muy práctico cuando los equipos utilizan indicaciones claras y concretas, con un objetivo específico en mente.
Aspectos que se deben tener en cuenta al utilizar Atlassian Intelligence en experiencias de edición Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para Atlassian Intelligence en experiencias de edición, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos determinado que usar Atlassian Intelligence en experiencias de edición resulta menos práctico en estos casos:

  • Se necesita información actualizada y precisa sobre personas, lugares y hechos.
  • Necesitas acceder a información que no está a tu disposición (por ejemplo, en tu instancia) para responder correctamente a tu solicitud.
  • Tienes que generar contenido en un formato que supere el markdown estándar (por ejemplo, generar un panel de información desde cero).
  • Tienes que referir información que no está aún presente en el documento que se está editando (por ejemplo, contenido de otro documento u otro producto).
  • Cuando tienes que generar y transformar el contenido en otros idiomas aparte del inglés.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Ser lo más concreto posible en lo que le pidas a Atlassian Intelligence.
  • Dividir las solicitudes complejas en tareas más pequeñas y gestionables.
  • Incorporar palabras clave pertinentes para aumentar la adecuación del contenido generado.
  • Usar la gramática y la puntuación adecuadas en el texto de entrada.
  • Revisar, corregir y editar el resultado generado por el asistente de escritura por IA para que sea claro y preciso.
  • Experimentar con diversas instrucciones o variaciones del texto de entrada para explorar ideas distintas.
  • Colaborar con otras personas para recopilar comentarios y mejorar la calidad de tus resultados.
Tus datos y Atlassian Intelligence en experiencias de edición Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo utiliza tus datos Atlassian Intelligence en las experiencias de edición. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de tu instancia pertinente para tu instrucción como, por ejemplo, el producto desde el que activaste Atlassian Intelligence.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, Atlassian Intelligence en experiencias de edición aplica las siguientes medidas:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página de Confluence en particular, no se te sugerirán contenidos de esa página en la respuesta que recibas. Si no quieres que tu contenido esté disponible en las respuestas para otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la adecuada configuración de tus permisos.
How issue reformatter uses Atlassian Intelligence Copy link to heading Copied! Show
  

Issue reformatter is powered by large language models developed by OpenAI, including OpenAI’s GPT series of models.

Atlassian Intelligence uses this model to analyze and generate natural language within Jira.

These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on.

Read more about the capabilities of OpenAI’s models.

Use cases for issue reformatter Copy link to heading Copied! Show
  

Issue reformatter helps improve the clarity of your Jira issue descriptions by reformatting them using a template developed by Atlassian. This template covers the types of information that we usually expect to see in a Jira issue description, such as a user story, context for the work, and acceptance criteria.

We believe issue reformatter works best in scenarios where your issue descriptions already contain useful information (such as acceptance criteria or links to sources) but that information is not formatted using a clear or consistent structure.

Considerations when using issue reformatter Copy link to heading Copied! Show
  

It’s important to remember that, because of the way they work, the models that power issue reformatter can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, your reformatted description might not accurately reflect the content that it was based on, or it might include details that sound reasonable but are false or incomplete.

We’ve found issue reformatter is less useful in scenarios where:

  • You need current and accurate information about people, places and facts.
  • Your issue descriptions don’t include much information, because there’s a higher chance that the models powering issue reformatter might add information that wasn’t included in your original description.

For this reason, we encourage you to think about the situations when you use Atlassian Intelligence, and always review the quality of the responses you get before sharing them with others. You might also want to think about reviewing and confirming that your issue descriptions include all relevant information before you start using issue reformatter to reformat them.

Your data and issue reformatter Copy link to heading Copied! Show
  

We understand you may have questions about how issue reformatter uses your data. This section supplements the information available on our Trust Center.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as the Jira issue description and summary.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, issue reformatter applies the following measures:

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers
    • Are not sent to any third party LLM provider other than OpenAI
    • Are not stored by Open AI.
    • Are not used to improve OpenAI's models.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our list of subprocessors. They do not use your inputs and outputs for any purpose besides processing your request.
  • This feature only uses the information available within the Jira Issue and is invoked from the Jira Issue. Therefore, it can only be invoked by a user who has permission to view the issue and will not access any other information.

Resume los detalles de la incidencia en Jira Service Management

Cómo resume Atlassian Intelligence los detalles de la incidencia en Jira Service Management Copy link to heading Copied! Mostrar
  

Summarize issue details using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos prácticos de resumir los detalles de la incidencia Jira Service Management Copy link to heading Copied! Mostrar
  

En lugar de leer descripciones largas y numerosos comentarios sobre una incidencia de Jira Service Management, puedes utilizar Atlassian Intelligence para que resuma rápidamente esta información. De esta forma, los agentes pueden conocer rápidamente el contexto de la incidencia y los progresos realizados, para tomar medidas rápidas y prestar asistencia de forma puntual.

Creemos que resumir los detalles de la incidencia con Atlassian Intelligence es una opción idónea en estos casos:

  • Incidencias con la descripción y los comentarios en inglés.
  • Incidencias con un gran número de comentarios o comentarios y descripciones extensos.
Aspectos que se deben tener en cuenta al resumir los detalles de la incidencia con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma como funcionan los modelos utilizados para resumir los detalles de las incidencias con Atlassian Intelligence, estos modelos a veces pueden comportarse de manera inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos determinado que resumir los detalles de la incidencia con Atlassian Intelligence es menos práctico en estos casos:

  • Se utiliza un idioma que no es el inglés.
  • La incidencia no tiene historial ni detalles.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Tus datos y el resumen de los detalles de la incidencia con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al resumir los detalles de una incidencia con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de la instancia pertinente para el prompt incluye detalles sobre el servicio de Jira. Incidencia de gestión, como la descripción de la incidencia, los comentarios y los usuarios que participan en el ticket.
  • Datos sobre cómo interactúas con nuestras funciones, como los datos del flujo de clics y las personas con las que trabajas
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

Al resumir los detalles de la incidencia con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función sigue los permisos de tu instancia. Solo los agentes y los administradores del proyecto pueden ver el botón de resumen.

IA generativa en el editor

Cómo resume Atlassian Intelligence los enlaces inteligentes Copy link to heading Copied! Mostrar
  

Summarize Smart Links with Atlassian Intelligence (AI) is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos de uso para resumir enlaces inteligentes Copy link to heading Copied! Mostrar
  

Tras mantener el puntero en un enlace inteligente de Jira, Confluence y Google Docs, Atlassian Intelligence puede ayudarte a resumir el contenido para que puedas determinar la importancia y el valor del enlace y decidir tu próxima acción. De este modo, se reduce la necesidad de salir de la página actual y cambiar de contexto.

Creemos que Resumir los enlaces inteligentes con la IA funciona mejor en situaciones en las que:

  • Estás viendo una página o una incidencia con uno o varios enlaces inteligentes.
  • Estás viendo una página o una incidencia con uno o varios enlaces inteligentes que contienen mucha información o contenido denso, que quitará tiempo y atención al contenido principal que querías leer.
Consideraciones al resumir enlaces inteligentes con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para Resumir los enlaces inteligentes con la IA, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que los resúmenes que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos descubierto que Resumir los enlaces inteligentes con la IA es menos útil en situaciones en las que:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Tienes que resumir un contenido que es increíblemente breve.
  • Tienes que resumir todos los metadatos y el contenido de un enlace. Por ejemplo, si querías entender todos los valores de campo de un ticket de Jira, así como su descripción y el contenido de los comentarios.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Tus datos y el resumen de enlaces inteligentes con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al resumir los detalles de una incidencia con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Contexto de tu instancia relevante para tu indicación, como el contenido del enlace que quieres resumir.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidas las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, Resumir los enlaces inteligentes con la IA aplica las siguientes medidas.

  • Tus resúmenes:
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on ourSubprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página o un ticket en Jira, Confluence o Google, no podrás resumir el contenido de esa fuente. Si no quieres que tu contenido esté disponible en las respuestas de otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos.

Función de respuestas de Atlassian Intelligence en Jira Service Management

Cómo funciona la función de respuestas de Atlassian Intelligence en Jira Service Management Copy link to heading Copied! Mostrar
  

Atlassian Intelligence answers is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos de uso de las respuestas de Atlassian Intelligence en Jira Service Management Copy link to heading Copied! Mostrar
  

La función de respuestas de Atlassian Intelligence se conecta al agente de servicio virtual de Jira Service Management. Utiliza la inteligencia artificial generativa para buscar en la base de conocimientos vinculada y responder a las preguntas de los clientes.

Creemos que la función de respuestas de Atlassian Intelligence funciona mejor en los siguientes casos:

  • Cuando se tiene una base de conocimientos enlazada completa y actualizada a la que el agente de servicio virtual puede acceder para responder a las preguntas de los clientes mediante la función de respuestas de Atlassian Intelligence.
  • Cuando la función de respuestas de Atlassian Intelligence se utilizan para las preguntas de los clientes que:
    • Se pueden resolver proporcionando información o instrucciones.
    • Están incluidas en los artículos de tu base de conocimientos actual (o se pueden añadir fácilmente).
    • No suelen tener que escalarse a un agente humano.
Aspectos que se deben tener en cuenta al utilizar la función de respuestas de Atlassian Intelligence en Jira Service Management Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para la función de respuestas de Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos determinado que la función de respuestas de Atlassian Intelligence resulta menos práctica en estos casos:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Si es necesario que la función de respuestas de Atlassian Intelligence tenga acceso a información que no está a tu disposición (por ejemplo, en tu base de conocimientos vinculada) para responder correctamente a tu solicitud.
  • Tu base de conocimientos está anticuada o incompleta, por lo que las búsquedas pueden no ser útiles.
  • Los artículos de tu base de conocimientos no incluyen información relevante o de alta calidad, por lo que las respuestas de Atlassian Intelligence pueden proporcionar información menos relevante a los clientes según esos artículos.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Revisar y actualizar de forma proactiva tu base de conocimientos enlazada (y los artículos existentes que incluye) para asegurarte de que sigue estando completa y actualizada.
  • Revisar de forma proactiva los permisos y restricciones aplicables a los espacios de tu base de conocimientos enlazada para asegurarte de que las respuestas de Atlassian Intelligence tienen acceso a la información adecuada para ser útiles.
Tus datos y las respuestas de Atlassian Intelligence en Jira Service Management Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo utilizan tus datos las respuestas de Atlassian Intelligence en Jira Service Management. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de tu instancia relevante para tu solicitud, como los espacios de tu base de conocimientos enlazada.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.
  • En lo que respecta a tus datos, las respuestas de Atlassian Intelligence en Jira Service Management aplican las siguientes medidas:
  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.
    • Are not stored by any LLM vendor.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función sigue los permisos y restricciones aplicables a los espacios de tu base de conocimientos enlazada. Esto significa que todas las páginas disponibles para los clientes de tu portal de Jira Service Management estarán disponibles a través de las respuestas de Atlassian Intelligence. Por ejemplo, si el acceso a una determinada página de Confluence está restringido y no está disponible de forma general a través de Jira Service Management, el contenido de esa página no se sugerirá en las respuestas de Atlassian Intelligence. Si no quieres que tu contenido esté disponible en las respuestas para otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la adecuada configuración de tus permisos.
How summarize a Whiteboard uses Atlassian Intelligence Copy link to heading Copied! Show
  

Summarize a Whiteboard is powered by large language models developed by OpenAI. These large language models include OpenAI’s GPT series of models.

Atlassian Intelligence uses these models to analyze and generate natural language within our products.

These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on.

Read more about the capabilities of OpenAI's models.

Use cases for summarize a Whiteboard Copy link to heading Copied! Show
  

Save time and get the details you need to do your work faster by generating a summary of the content on a whiteboard using Atlassian Intelligence.

We believe that Summarize a Whiteboard works best in scenarios where you have already created content with a Whiteboard. You can copy or create a page from the summary Atlassian Intelligence generates using the buttons at the bottom of the summary panel. You can also rate the quality of the summary and provide feedback.

Considerations when using summarize a Whiteboard Copy link to heading Copied! Show
  

It’s important to remember that because of the way that the models used to power Summarize a Whiteboard work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete.

While we continue to build better support for macros, tables, and expand in summaries, we’ve found that Summarize a Whiteboard using Atlassian Intelligence is less useful in scenarios where:

  • You need a summary of a Whiteboard where there is not enough content.

  • You need a summary of a Whiteboard where most of the content is in links or images.

We encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

Your data and summarize a Whiteboard Copy link to heading Copied! Show
  

We understand you may have questions about how summarize a Whiteboard uses your data. This section supplements the information available on our FAQ page.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as content from the Whiteboard that you want to summarize.

  • Data about how you interact with our features, such as clickstream data and the people you work with.

  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, summarize a Whiteboard applies the following measures.

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third-party LLM provider other than OpenAI.
    • Are not stored by OpenAI.
    • Are not used to improve OpenAI.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • This feature follows the permissions in your instance. For example, if you do not have access to a Confluence page, you will not be shown this feature or be able to summarize a page using Atlassian Intelligence. If you do not want your content to be available to other users in your instance, work with your org admin to ensure your permissions are set appropriately.

Resumen rápido de Confluence

Cómo escribe Atlassian Intelligence fórmulas personalizadas en Atlassian Analytics Copy link to heading Copied! Mostrar
  

Writing custom formulas using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar el lenguaje natural y, a continuación, lo traduce a SQLite en Atlassian Analytics.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos de uso de fórmulas personalizadas con AI Copy link to heading Copied! Mostrar
  

Pregunta o describe a Atlassian Intelligence cómo quieres transformar los datos de tu tabla de resultados y los traducirá en una expresión de SQLite que se utilice para fórmulas personalizadas, en lugar de escribir tus propias expresiones de SQLite desde cero. Tras hacer una pregunta, Atlassian Intelligence utiliza los datos de la tabla de resultados del paso anterior de Visual SQL para generar una expresión de SQLite que aplique cálculos u operaciones a los datos de tu gráfico. Esto también puede ayudarte a aprender sobre las funciones de SQLite y su sintaxis.

Consideramos que la escritura de fórmulas personalizadas mediante Atlassian Intelligence funciona mejor en los siguientes casos:

  • Aplicar cambios a una sola columna de los datos consultados.
  • Empezar con una expresión de SQLite generada y ajustarla cuando sea necesario.
  • La pregunta en lenguaje natural incluye palabras y conceptos a los que se hace referencia en los encabezados de las columnas o en los datos de las filas.
  • Obtener más información sobre SQLite y descubrir las funciones de SQLite disponibles.
Consideraciones a la hora de escribir fórmulas personalizadas con AI Copy link to heading Copied! Mostrar
  

Cuando utilices fórmulas personalizadas, recuerda que los modelos utilizados en Atlassian Intelligence a veces pueden comportarse de forma imprecisa, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no reflejen fielmente el contenido en el que se basan, o que incluyan contenido en apariencia razonable pero falso o incompleto.

Hemos determinado que escribir fórmulas personalizadas mediante Atlassian Intelligence es menos práctico en estos casos:

  • Aplicar los cambios a más de una columna de una sola fórmula personalizada.
  • Acceder a información que no está disponible fácilmente en los datos de la tabla de resultados.
  • La pregunta se escribe en un idioma diferente al inglés.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Ser lo más concreto posible en lo que le pidas a Atlassian Intelligence.
  • Asegurarte de que los datos consultados incluyan aquellos necesarios para responder a tu pregunta.
Tus datos y la escritura de fórmulas personalizadas con AI Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para la automatización de Confluence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).

  • Contexto de tu instancia relevante para tu solicitud, como el contenido de la página de Confluence que quieres resumir.

  • Datos sobre cómo interactúas con nuestras funciones, como los datos del flujo de clics y las personas con las que trabajas

  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, al resumir páginas y blogs con Atlassian Intelligence, se aplican las siguientes medidas:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página de Confluence, no se te mostrará esta función ni podrás resumir una página con Atlassian Intelligence. Si no quieres que tu contenido esté disponible para otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos.
Cómo se utiliza Atlassian Intelligence para crear incidentes Copy link to heading Copied! Mostrar
  

Create incident with AI using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

These models generate responses based on your input and are probabilistic in nature. This means that their responses are generated by predicting the most probable next word or text based on the data that they've been trained on.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos de uso para crear un incidente con la IA Copy link to heading Copied! Mostrar
  

Al escalar una o varias alertas o grupos de alertas a un incidente en Jira Service Management, la función para crear un incidente con IA utiliza Atlassian Intelligence para rellenar rápidamente toda la información contextual para que la revises como parte del proceso de creación del incidente. Esto permite a los usuarios entender rápidamente el contexto del incidente creado a partir de esas alertas o grupos de alertas, y revisar y confirmar la información rellenada previamente, como el título, la descripción y la prioridad de la alerta al escalarla a un incidente.

Creemos que crear incidentes con la IA funciona mejor en situaciones en las que:

  • Las alertas que estás escalando a un incidente incluyen el título y las descripciones en inglés.
  • Las alertas que estás escalando a un incidente tienen descripciones extensas.
  • Cuando creas un incidente a partir de más de una alerta.
Consideraciones a la hora de usar la función de crear un incidente con la IA Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para crear un incidente, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos descubierto que crear un incidente con la IA es menos útil en situaciones en las que:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Las alertas que estás escalando a un incidente incluyen su título o descripción (o ambos) en un idioma distinto del inglés.
  • Las alertas que estás escalando a un incidente solo contienen detalles limitados.

Por todo ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Para obtener los resultados más útiles, te sugerimos que seas lo más concreto posible en lo que le pides a Atlassian Intelligence.

Puede que también te interese plantearte cómo ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga.

Tus datos y la creación de incidentes mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedes tener dudas sobre la forma en que crear un incidente con la IA utiliza tus datos. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Contexto de tu instancia relevante para tu solicitud, como la descripción, el título y la prioridad de la alerta de Jira Service Management.
  • Datos sobre cómo interactúas con nuestras funciones, como los datos del flujo de clics y las personas con las que trabajas
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, crear un incidente con la IA aplica las siguientes medidas.

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM providor.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función sigue los permisos para alertas de tu instancia. Solo los agentes que tengan permiso para ver la alerta y escalarla a un incidente verán las sugerencias de Atlassian Intelligence para rellenar los detalles del incidente que se está creando.

Create post-incident review

How create post-incident review uses Atlassian Intelligence Copy link to heading Copied! Mostrar
  

PIR (Post-Incident Review) creation by Atlassian Intelligence is powered by large language models developed by OpenAI. These large language models include OpenAI’s GPT series of models. Atlassian Intelligence uses these models to analyze and generate natural language within our products.

These models generate responses based on users' inputs and are probabilistic in nature. This means that the responses are generated by predicting the most probable next word or text, based on the data that they’ve been trained on.

Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI.

Use cases for create post-incident review with AI Copy link to heading Copied! Mostrar
  

PIRs are a core part of the incident management process, helping incident responders and managers learn from current incidents and pass along insights to prevent similar incidents in the future. Atlassian Intelligence helps to accelerate the often time-consuming task of compiling a PIR by suggesting a PIR description based on relevant contextual information in your Jira Service Management instance and chat tools like Slack for you to review.

We believe that PIR creation using AI works best in scenarios where:

  • Your organization has a consistent practice of compiling PIRs for incidents.

  • Your team has incident details scattered across chat tools like Slack and Jira Service Management, which requires you to spend more time compiling a PIR from those sources.

  • Your organization records incidents in Jira Service Management with complete, up-to-date information.

Considerations when using create post-incident review with AI Copy link to heading Copied! Mostrar
  

It’s important to remember that because of the way that the models used to power PIR creation work, they can sometimes behave in ways that are inaccurate, incomplete, or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on or include content that might sound reasonable but is false or incomplete.

We’ve found that PIR creation using AI is less useful in scenarios where:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • You need PIR creation to have access to information that isn’t readily available to you (for example, chat channels which you don’t have access to) to properly generate the PIR description.
  • The data available in your Jira Service Management instance is incomplete or insufficiently detailed, so the PIR creation may not be able to generate an accurate description.

For this reason, we encourage you to think about situations where you can use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

Quizá también quieras pensar en lo siguiente:

  • Being as specific as possible in what you want Atlassian Intelligence to do.
  • Ensuring that you and your team follow incident management practices consistently. For example, by recording complete and accurate details of incidents in your Jira Service Management instance and linking the relevant chat channels to the incident.
Your data and create post-incident review using AI Copy link to heading Copied! Mostrar
  

We understand you may have questions about how create post-incident review using AI uses your data. This section supplements the information available on our FAQ page.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Context from your instance relevant to your prompt, such as incident data (such as summary, labels, priority, responder teams, and description), linked alerts, and linked Slack chat channels.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

When it comes to your data, PIR creation using AI applies the following measures.

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.

    • No se envían a ningún proveedor de LLM externo que no sea OpenAI.

    • OpenAI no los almacena.

    • No se utilizan para mejorar los modelos de OpenAI.

    • Solamente se utilizan para cuidar de tu experiencia.

  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page.

  • This feature follows the permissions in your instance. For example, if you do not have access to the linked alerts of the incident or linked Slack channels, you will not be suggested content from these sources in the response you receive. If you do not want your content to be available in responses to other users in your instance, please work with your org admin to ensure your permissions are set appropriately.

Genera descripciones de solicitudes de extracción con Atlassian Intelligence

Cómo utiliza Bitbucket Cloud Atlassian Intelligence para generar descripciones de solicitudes de extracción Copy link to heading Copied! Mostrar
  

Generating pull request descriptions with Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar y generar un código y un lenguaje natural en nuestros productos.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos de uso de la generación de descripciones de solicitudes de extracción con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Atlassian Intelligence puede ayudarte a generar, transformar y resumir el contenido mientras escribes comentarios o descripciones de solicitudes de extracción en la experiencia de revisión de código de Bitbucket Cloud. Esto incluye lo siguiente:

  • Generar la descripción de una solicitud de extracción basada en los cambios de código incluidos en la solicitud de extracción.
  • Resumir, mejorar o cambiar el tono de la descripción de una solicitud de extracción.
  • Resumir, mejorar o cambiar el tono del comentario de una solicitud de extracción.

Creemos que la generación de descripciones de solicitudes de extracción de Bitbucket Cloud con Atlassian Intelligence funciona mejor en estos casos:

  • Como autor de código, querrás que Atlassian Intelligence te ayude a escribir o mejorar las descripciones de solicitudes de extracción. Esto funciona mejor con los equipos que pueden revisar y confirmar que el contenido generado por Atlassian Intelligence es adecuado para describir la solicitud de extracción.
  • Como revisor de código, querrás que Atlassian Intelligence te ayude a mejorar el tono o el contenido de los comentarios de solicitudes de extracción que hayas redactado.
Consideraciones al generar descripciones de solicitudes de extracción con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para esta función, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos descubierto que la generación de solicitudes de extracción de Bitbucket Cloud con Atlassian Intelligence no es tan útil en estos casos:

  • Necesitas que la descripción de tu solicitud de extracción haga referencia a la información que aún no está presente en los cambios de código (por ejemplo, el código fuente incluido en otras partes del repositorio).
  • No puedes revisar ni confirmar que el contenido generado por Atlassian Intelligence refleje con precisión la solicitud de extracción.
  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Ser lo más concreto posible en lo que le pidas a Atlassian Intelligence.
  • Revisar, corregir y editar el resultado generado por el asistente de escritura por IA para que sea claro y preciso.
  • Colaborar con otras personas para recopilar comentarios y mejorar la calidad de tus resultados.
Tus datos y la generación de descripciones de solicitudes de extracción con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al definir términos con Atlassian Intelligence en Confluence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas)
  • El contexto de tu instancia pertinente para el prompt, por ejemplo:
    • los cambios de código y los mensajes de confirmación de tu solicitud de extracción
    • el contenido de la descripción de tu solicitud de extracción
    • el contenido del comentario de tu solicitud de extracción
  • Datos sobre cómo interactúas con nuestras funciones, como los datos del flujo de clics y las personas con las que trabajas
  • El feedback que decidas ofrecer sobre esta función

Al generar descripciones de solicitudes de extracción con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page.

Generar consultas de SQL en Atlassian Analytics

Cómo genera Atlassian Intelligence consultas de SQL en Atlassian Analytics Copy link to heading Copied! Mostrar
  

Generating SQL queries using Atlassian Intelligence in Atlassian Analytics is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar y entender el lenguaje natural y, a continuación, lo traduce al lenguaje de consulta estructurada (SQL) en Atlassian Analytics.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos prácticos de la generación de consultas de SQL con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Plantea una pregunta a Atlassian Intelligence en lenguaje natural y haz que se traduzca a SQL, en lugar de escribir tus propias consultas de SQL desde cero. Cuando haces una pregunta, Atlassian Intelligence utiliza el esquema de Atlassian Data Lake de la fuente de datos seleccionada para generar una consulta de SQL que se puede utilizar para crear gráficos en los paneles de Atlassian Analytics y también puede ayudarte a obtener información sobre el esquema en el Data Lake.

La generación de consultas de SQL con Atlassian Intelligence funciona mejor en estos casos:

  • Quieres crear un gráfico personalizado a partir del SQL generado y ajustando la consulta cuando sea necesario.
  • La pregunta en lenguaje natural incluye palabras y conceptos a los que se hace referencia en el esquema de Atlassian Data Lake, donde eres lo más concreto posible.
  • Quieres explorar y obtener más información sobre el esquema de Atlassian Data Lake.

¿No tienes claro qué preguntas hacer?

Aquí te damos algunas ideas:

  • ¿Cuáles son las 5 etiquetas principales según el número de incidencias abiertas de Jira?
  • ¿Cuántas incidencias de Jira se han completado en el proyecto x en el último mes?
  • ¿Cuál es el tiempo medio en estado del estado "5 principales"?
  • ¿Cuáles son las 5 páginas de Confluence más marcadas como favoritas en el último mes?
  • ¿Cuántas solicitudes se han presentado en los últimos 5 días en nuestro proyecto x de Jira Service Management?
Aspectos que se deben tener en cuenta al generar consultas de SQL con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para generar consultas de SQL con Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos determinado que generar consultas de SQL con Atlassian Intelligence es menos práctico en estos casos:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Necesitas esta función para tener acceso a información que no está a tu disposición en el esquema de Atlassian Data Lake (por ejemplo, datos para Advanced Roadmaps) para responder correctamente a la pregunta.
  • La pregunta incluye referencias a campos personalizados.
  • La pregunta está hecha en un idioma que no es el inglés.
  • No estás lo bastante familiarizado con SQL como para validar el SQL que devuelve Atlassian Intelligence.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Ser lo más concreto posible en lo que le pidas a Atlassian Intelligence.
  • Asegúrate de que la fuente de datos del Atlassian Data Lake que utilizas incluye los datos necesarios para responder a tu pregunta.
Tus datos y la generación de consultas de SQL con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al generar consultas de SQL con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Contexto de tu instancia pertinente para el prompt, incluidos los esquemas de Atlassian Data Lake disponibles de forma pública y aplicables a tu instancia.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

Al generar consultas de SQL con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos.

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función sigue los permisos de tu conexión a Atlassian Data Lake. Por ejemplo, si no tienes acceso a una conexión de Atlassian Data Lake, no podrás compilar SQL para consultarla.

Búsqueda de respuestas en Confluence

Cómo busca Atlassian Intelligence las respuestas en Confluence Copy link to heading Copied! Mostrar
  

Search answers in Confluence using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos prácticos de la búsqueda de respuestas en Confluence Copy link to heading Copied! Mostrar
  

Las bases de conocimientos crecen demasiado rápido para que los usuarios puedan mantenerse al día. La búsqueda de respuestas en Confluence mediante Atlassian Intelligence proporciona una vía de acceso más rápida a información clave que los clientes necesitan para sacar el trabajo adelante. Esta función te ayuda a encontrar fácilmente la información que necesitas. Comprende los tipos de preguntas que le harías a un compañero de equipo y las responde al instante. Más información sobre cómo utilizar Atlassian Intelligence para buscar respuestas en Confluence.

Consideramos que la búsqueda de respuestas en Confluence mediante Atlassian Intelligence funciona especialmente bien cuando el sitio de Confluence está repleto de contenidos detallados, completos y actualizados.

Esta función no genera contenido nuevo, sino que busca en las páginas y blogs de Confluence (aunque respetando las restricciones) para encontrar una respuesta a tu pregunta. Atlassian Intelligence genera respuestas basándose solo en lo que hay en tu Confluence y en el contenido al que tú, específicamente, puedes acceder.

¿No tienes claro qué preguntas hacer?

Aquí tienes unas cuantas sugerencias

  • ¿Cuándo estará el próximo equipo de marketing fuera de las instalaciones?
  • ¿Cuál es la política de teletrabajo?
  • ¿Qué es el Project Sunrise?
  • ¿Cuándo tendrá lugar nuestra próxima campaña de marketing?
  • ¿Dónde están las notas de publicación del producto más reciente de SpaceLaunch?
  • ¿Cómo se presentan los gastos para su reembolso?
Aspectos que se deben tener en cuenta a la hora de buscar respuestas en Confluence mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para buscar respuestas en Confluence mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos observado que buscar respuestas en Confluence mediante Atlassian Intelligence resulta menos útil en los siguientes casos:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Cuando necesitas datos actualizados y precisos sobre la información que tiende a cambiar con frecuencia (por ejemplo, una hoja de ruta que se actualiza mensualmente).
  • Cuando necesitas información actual y precisa sobre personas concretas y el rol que desempeñan en tu organización.
  • Cuando necesitas acceder a información que no está a tu disposición (por ejemplo, páginas restringidas de tu instancia de Confluence) para obtener una respuesta correcta a tu pregunta.
  • Cuando la respuesta consta de un rango de valores o categorías diferentes (por ejemplo, métricas que se actualizan cada semana).
  • Cuando necesitas respuestas que requieran matices, complejidades o niveles de razonamiento similares a los humanos.

Puede que descubras que la búsqueda de respuestas en Confluence con Atlassian Intelligence no funciona como esperabas en los espacios de Confluence que tienen documentos escritos en varios idiomas.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Ser lo más concreto posible en lo que le pidas a Atlassian Intelligence.
  • Hacer preguntas sobre cosas que sabes que están documentadas en tu instancia de Confluence y a las que tienes acceso.
Tus datos y la búsqueda de respuestas en Confluence con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al buscar respuestas en Confluence con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Contexto de tu instancia que sea pertinente para el mensaje, como el contenido de las tres páginas principales del resultado de la búsqueda de Confluence.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

Al buscar respuestas en Confluence con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página de Confluence determinada, esta función no utilizará el contenido de esa página en la respuesta que te muestre. Si no quieres que tu contenido esté disponible en las respuestas de otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos.

Búsqueda de incidencias en Jira

Cómo busca incidencias en Jira Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Search issues using Atlassian Intelligence in Jira is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar y entender el lenguaje natural y, a continuación, lo traduce al código de Jira Query Language (JQL) en nuestros productos.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probables a partir de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos prácticos de la búsqueda de incidencias en Jira Copy link to heading Copied! Mostrar
  

Ahora puedes preguntarle lo que quieras a Atlassian Intelligence en lenguaje cotidiano en lugar de hacer consultas complejas. Cuando buscas incidencias mediante Atlassian Intelligence, tu instrucción se traduce en una consulta de JQL que te ayuda rápidamente a buscar incidencias concretas.

Consideramos que la búsqueda de incidencias mediante Atlassian Intelligence funciona especialmente bien en los siguientes casos:

  • Cuando consultas incidencias en Jira mediante los campos de incidencias disponibles en tu proyecto de Jira.
  • Cuando la consulta tiene campos y valores específicos que pueden ayudar a delimitar la búsqueda de incidencias.
  • Cuando los campos y valores que buscas están en tu proyecto de Jira.
  • Cuando tu consulta está en inglés.
  • Cuando la consulta se puede traducir a JQL. Dado que Atlassian Intelligence convierte las instrucciones a código JQL, las entradas que contienen palabras clave traducibles a JQL pueden ofrecer resultados de mayor calidad.
Aspectos que se deben tener en cuenta a la hora de buscar incidencias mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para buscar incidencias mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no reflejen fielmente el contenido en el que se basan, o que incluyan contenido en apariencia razonable pero falso o incompleto.

Hemos observado que buscar incidencias mediante Atlassian Intelligence resulta menos útil en los siguientes casos:

  • Necesitas información actualizada y precisa sobre personas, lugares y hechos.
  • Cuando buscas entidades de Jira que no son incidencias como, por ejemplo, proyectos, tableros o usuarios.
  • Cuando realizas la búsqueda en un idioma que no es el inglés.
  • Cuando necesitas la búsqueda para analizar las incidencias con el fin de crear gráficos, resúmenes u otras representaciones de tus datos.
  • Cuando la búsqueda requiere funciones que no están disponibles actualmente en JQL (por ejemplo, una pregunta como "Busca incidencias que haya comentado" que no se puede traducir a una función de JQL).

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Puede que también te interese plantearte cómo ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga. Asegúrate de incluir los campos y valores exactos que estás buscando.

Tus datos y la búsqueda de incidencias mediante Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al buscar incidencias con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de tu instancia pertinente para tu instrucción como, por ejemplo, el proyecto en el que estás actualmente.
  • Datos sobre cómo interactúas con nuestras funciones, como los datos del flujo de clics y las personas con las que trabajas
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, buscar incidencias mediante Atlassian Intelligence aplica las siguientes medidas:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Las respuestas de la búsqueda se basarán en las incidencias y campos a los que tengas acceso (por ejemplo, si no tienes acceso a un proyecto de Jira específico, tu búsqueda no arrojará resultados para las incidencias y campos de ese proyecto).

Obtén información relevante de tus datos al instante

Selecciona una de las siguientes funciones de Atlassian Intelligence para ver de forma transparente los casos prácticos y el uso de los datos.

Chart Insights

Cómo utiliza Chart Insights Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Chart insights is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos.

Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos prácticos de Chart Insights Copy link to heading Copied! Mostrar
  

Chart Insights utiliza Atlassian Intelligence para ayudarte a entender mejor los datos de cualquier gráfico de Atlassian Analytics. Lo hace utilizando el título del panel, el título del gráfico y los datos del gráfico (incluidos los encabezados de las columnas y los valores de las filas) para generar un resumen en lenguaje natural de ese gráfico y sus datos. También tendrá como objetivo identificar cualquier tendencia o anomalía para darte una idea determinada de ese gráfico.

Creemos que Chart Insights funciona mejor en los siguientes casos:

  • Cuando los gráficos tienen muchas filas de datos.
  • Cuando los gráficos tienen un título de panel.
  • Cuando los gráficos tienen encabezados de columna.
  • Cuando los gráficos tienen valores en todas las filas y columnas.

Los gráficos de barras, los gráficos de líneas y los gráficos de barras con una línea funcionan mejor con esta función, ya que normalmente tienen tendencias, fechas y muchas filas de datos.

Consideraciones a la hora de utilizar Chart Insights Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para Chart Insights, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos descubierto que Chart Insights es menos útil en los siguientes casos:

  • Cuando tienes gráficos con una o solo unas cuantas filas de datos.
  • Cuando tienes gráficos del tipo de valor único.
  • Cuando tienes gráficos en los que faltan los títulos, las etiquetas de los ejes y los encabezados de las columnas.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Comprobar la precisión de la información con otros usuarios que pueden tener más contexto sobre los datos específicos que aparecen en el gráfico.
  • Teniendo en cuenta que Atlassian Intelligence solo utiliza el contexto de un único gráfico y no de todo el panel a la hora de dar una respuesta.
Tus datos y Chart Insights Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo Chart Insights utiliza tus datos. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • Contexto de tu instancia pertinente para el prompt, como los datos de tu gráfico.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, Chart Insights aplica las siguientes medidas.

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función solo utiliza la información del panel a la que tienes acceso y para la que has solicitado datos relevantes.

Sugerir tipos de solicitud en Jira Service Management

Cómo sugiere Atlassian Intelligence los tipos de solicitud en Jira Service Management Copy link to heading Copied! Mostrar
  

Suggest request types using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utiliza estos modelos para analizar las entradas en lenguaje natural y generar recomendaciones de nombres y descripciones de los tipos de solicitud para que los uses en Jira Service Management.

Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Casos prácticos de sugerir tipos de solicitudes en Jira Service Management Copy link to heading Copied! Mostrar
  

Dedica menos tiempo a averiguar qué tipos de solicitud necesitas crear para tu proyecto y, en su lugar, recibe sugerencias de Atlassian Intelligence. Basta con describir tu trabajo y lo que tu equipo suele gestionar para ver qué tipos de solicitudes puedes crear. Selecciona una de las sugerencias generadas por Atlassian Intelligence para crear un tipo de solicitud. Más información sobre cómo utilizar Atlassian Intelligence para sugerir tipos de solicitud.

Creemos que usar Atlassian Intelligence para sugerir tipos de solicitud funciona especialmente bien en los siguientes casos:

  • Cuando tienes casos de uso muy específicos que las plantillas de tipos de solicitud existentes no atienden.
  • Cuando tienes requisitos muy generales y estás buscando ideas.
  • Cuando utilizas un idioma muy hablado (por ejemplo, el inglés o el español).
Consideraciones al sugerir tipos de solicitud con Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Es importante recordar que, por la forma en que funcionan los modelos utilizados para sugerir tipos de solicitud mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable.

Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto.

Hemos observado que el uso de Atlassian Intelligence para sugerir tipos de solicitud resulta menos práctico en los siguientes casos:

  • Se necesita información actualizada y precisa sobre personas, lugares y hechos.
  • Cuando necesitas esta función para acceder a información que no está a tu disposición (por ejemplo, en tu instancia) para responder correctamente a tu solicitud.
  • Cuando das instrucciones que son demasiado vagas o irrelevantes para la gestión del servicio.
  • Cuando no utilizas un idioma muy hablado.

Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas.

Quizá también quieras pensar en lo siguiente:

  • Ser lo más concreto posible en lo que le pidas a Atlassian Intelligence.
Tus datos y el uso de Atlassian Intelligence para sugerir tipos de solicitud Copy link to heading Copied! Mostrar
  

Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para sugerir tipos de solicitud. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes.

Tratamos los siguientes datos:

  • Tus prompts (entradas) y respuestas (salidas).
  • El contexto de tu instancia pertinente para tu instrucción.
  • Datos sobre cómo interactúas con nuestras funciones, por ejemplo, datos del flujo de clics y personas con las que trabajas.
  • Comentarios que decidas hacer sobre esta función, incluidos los prompts o las respuestas que decidas compartir junto con tus comentarios.

En lo que respecta a tus datos, utilizar Atlassian Intelligence para sugerir tipos de solicitud aplica las siguientes medidas:

  • Tus prompts (entradas) y respuestas (salidas):
    • No están a disposición de otros clientes.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Solamente se utilizan para cuidar de tu experiencia.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Esta función solo utiliza la información de tus instrucciones, por lo que se respetan todos los permisos de Jira.

Referencias

Obtén actualizaciones de estado de los productos de Atlassian en tiempo real en nuestra página de estado específica.

Más información sobre Atlassian Intelligence

Descubre cómo Atlassian gestiona los datos de los clientes.

Más información sobre Atlassian Rovo