Atlassian Intelligence se ha diseñado para aportar transparencia
Nuestro compromiso inquebrantable con la comunicación abierta, la responsabilidad y el respaldo a los equipos para que utilicen la IA de manera responsable.
Atlassian Intelligence está diseñado para agilizar la colaboración y para que los equipos puedan acelerar su trabajo. Al igual que debes conocer la mejor manera de trabajar con tu equipo, entender el funcionamiento de Atlassian Intelligence te servirá para hacer un uso más eficaz. En esta página, explicaremos cómo funcionan nuestros productos y funciones basados en IA, por ejemplo, qué pueden hacer o no y cómo influyen en la forma en que utilizas nuestros productos. Creemos que, con la información de esta página, podrás aprovechar al máximo nuestros productos y el trabajo en equipo. Para obtener más información sobre nuestro compromiso de crear tecnología de manera responsable, consulta nuestros Principios de tecnología responsable.
Agrupación de alertas
La agrupación de alertas con Atlassian Intelligence se basa en modelos de lenguaje de gran tamaño desarrollados por OpenAI y otros modelos de aprendizaje automático. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos de aprendizaje automático para analizar y generar grupos de alertas y ofrecer sugerencias relacionadas (grupos de alertas anteriores y personas encargadas de responder a alertas anteriormente) en nuestros productos en función de la similitud del contenido de las alertas o de las etiquetas utilizadas. Luego, Atlassian Intelligence utiliza modelos de lenguaje de gran tamaño para analizar y generar descripciones y contenido en lenguaje natural para estos grupos en nuestros productos. Estos modelos de lenguaje de gran tamaño generan respuestas en función de tus entradas y son probabilísticos. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
La agrupación de alertas utiliza Atlassian Intelligence para identificar y agrupar alertas similares. También te ayuda a identificar y recomendar grupos de alertas similares anteriores y personas encargadas de responder a alertas anteriormente (o equipos de estas personas) en función de la similitud semántica del contenido de la alerta o de las etiquetas utilizadas. Cuando quieras escalar el grupo de alertas a un incidente, la agrupación de alertas también rellenará automáticamente toda la información contextual para que la revises como parte del proceso de creación del incidente. Creemos que la agrupación de alertas funciona mejor en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para la agrupación de alertas, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. En el caso de los grupos de alertas que ves, puede que no reflejen con precisión la similitud semántica de sus etiquetas. Hemos descubierto que la agrupación de alertas es menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. También deberías asegurarte de que tú y tu equipo seguís prácticas coherentes en cuanto al uso de las etiquetas de alerta. |
Entendemos que puedas tener preguntas sobre cómo utiliza tus datos la agrupación de alertas. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Procesamos los datos de tus alertas para entrenar una versión del modelo de aprendizaje automático para que reconozca los patrones específicos de tus alertas. Esta versión se usa únicamente para tu experiencia:
En lo que respecta a tus datos, la agrupación de alertas aplica las siguientes medidas:
|
Función de respuestas de Atlassian Intelligence en Jira Service Management
Las respuestas de Atlassian Intelligence se basan en extensos modelos lingüísticos desarrollados por OpenAI. Entre ellos, se incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
La función de respuestas de Atlassian Intelligence se conecta a Virtual Service Agent de Jira Service Management. Utiliza la inteligencia artificial generativa para buscar en la base de conocimientos vinculada y responder a las preguntas de los clientes. Creemos que la función de respuestas de Atlassian Intelligence funciona mejor en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para la función de respuestas de Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que la función de respuestas de Atlassian Intelligence resulta menos práctica en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo utilizan tus datos las respuestas de Atlassian Intelligence en Jira Service Management. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
|
Automatización mediante Atlassian Intelligence
La Automatización de Confluence mediante Atlassian Intelligence se basa en modelos GPT desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar las entradas en lenguaje natural y generar una regla de automatización para ti dentro de Jira y Confluence. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
La creación de reglas de automatización es la base de la experiencia de automatización diaria, por lo que queremos facilitarte aún más añadiendo Atlassian Intelligence al creador de reglas de automatización de Jira y Confluence. Ahora puedes crear reglas de automatización fácilmente con solo escribir y describir lo que quieres automatizar, y dejar que Atlassian Intelligence se encargue de todo para crear la regla por ti. Consulta más información sobre la Automatización mediante Atlassian Intelligence para Jira y para Confluence. Creemos que la Automatización mediante Atlassian Intelligence para Jira y Confluence funciona mejor en situaciones en las que no estás seguro de cómo empezar o quieres acelerar el proceso de creación de reglas. ¿No estás seguro de cuál es la mejor manera de crear una regla de automatización?Las reglas de automatización se crean mediante una combinación de distintos tipos de componentes: desencadenadores, acciones, condiciones y ramas. Piensa en los componentes como los elementos básicos de una regla. Para crear correctamente una regla con Atlassian Intelligence, esta debe contener al menos un desencadenador y una acción. Por ejemplo: En Jira: Cada lunes, busca todas las tareas con fecha de vencimiento en los próximos 7 días, y envía a la persona asignada un correo electrónico de recordatorio. Cuando un ticket pase a Pruebas, asígnaselo a John Smith. En Confluence:
Además, para que una regla se cree correctamente, todos sus componentes deben ser compatibles con la Automatización mediante Atlassian Intelligence. Esto significa que cualquier desencadenador, acción, condición o rama de tu regla debe ser compatible con la Automatización en Jira o Confluence. |
Es importante recordar que, por la forma como funcionan los modelos utilizados para potenciar la Automatización mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que la automatización mediante Atlassian Intelligence es menos práctica en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. La Automatización mediante Atlassian Intelligence solo funcionará con el conjunto actual de componentes de automatización disponibles en Jira y Confluence. También puedes pensar en ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga, como se ha descrito anteriormente. |
Entendemos que puedas tener preguntas sobre cómo utiliza tus datos la Automatización mediante Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, el uso de Atlassian Intelligence para la automatización de Confluence aplica las siguientes medidas:
OpenAI es un encargado del tratamiento de datos personales subcontratado de los que se incluyen en nuestra lista. No utilizan tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud. Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página o un proyecto concretos, no se te sugerirán contenidos de esos activos en la respuesta que recibas. Si no quieres que tu contenido esté disponible en las respuestas de otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos. |
Chart Insights
Chart Insights se basa en extensos modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Todo ello significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Chart Insights utiliza Atlassian Intelligence para ayudarte a entender mejor los datos de cualquier gráfico de Atlassian Analytics. Lo hace utilizando el título del panel, el título del gráfico y los datos del gráfico (incluidos los encabezados de las columnas y los valores de las filas) para generar un resumen en lenguaje natural de ese gráfico y sus datos. También tendrá como objetivo identificar cualquier tendencia o anomalía para darte una idea determinada de ese gráfico. Creemos que Chart Insights funciona mejor en los siguientes casos:
Los gráficos de barras, los gráficos de líneas y los gráficos de barras con una línea funcionan mejor con esta función, ya que normalmente tienen tendencias, fechas y muchas filas de datos. |
Es importante recordar que, por la forma en que funcionan los modelos utilizados para Chart Insights, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que Chart Insights es menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedes tener dudas sobre la forma en que Chart Insights utiliza tus datos. Esta sección complementa la información disponible en esta página Tratamos los siguientes datos:
En lo que respecta a tus datos, Chart Insights aplica las siguientes medidas.
|
Resumen rápido de Confluence
El resumen de páginas y blogs mediante Atlassian Intelligence se basa en modelos LLM desarrollados por OpenAI. Entre ellos, se incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Ahorra tiempo y obtén más rápidamente los detalles que necesitas para realizar tu trabajo más deprisa generando un resumen rápido de una página o blog de Confluence con Atlassian Intelligence. Más información sobre el uso de Atlassian Intelligence en Confluence. Creemos que resumir páginas y blogs con Atlassian Intelligence funciona mejor en los siguientes casos:
|
Es importante recordar que, debido a la forma en que funcionan los modelos utilizados para impulsar el resumen de páginas y blogs con Atlassian Intelligence, a veces estos pueden comportarse de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Si bien seguimos mejorando la compatibilidad con las macros, las tablas y ampliando los resúmenes, hemos descubierto que resumir páginas y blogs con Atlassian Intelligence es menos útil en situaciones donde:
Es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para la automatización de Confluence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, al resumir páginas y blogs con Atlassian Intelligence, se aplican las siguientes medidas:
|
Definir términos con Atlassian Intelligence
La definición de términos con Atlassian Intelligence en Confluence y Jira funciona con grandes modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar respuestas en lenguaje natural en Confluence. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. |
Una de las cosas más difíciles de consumir contenido en Confluence y Jira puede ser conseguir el contexto que necesitas para entender lo que lees. Las abreviaturas, los acrónimos, los términos desconocidos y los nombres específicos de equipos o proyectos pueden hacerte perder mucho tiempo buscando la información que necesitas. La definición de términos con Atlassian Intelligence proporcionará la definición de términos específicos de la empresa (como acrónimos, nombres de proyecto, sistemas o equipos) en una página de Confluence o en la descripción de una incidencia en Jira. De esta forma, los usuarios tendrán la información que necesitan y cuando la necesitan y mejorará la colaboración de los equipos. Atlassian Intelligence puede ahorrarte tiempo, ya que hace estas definiciones por ti, sin que tengas que apartarte de la lectura. Si encuentras una definición que te parezca inexacta, puedes editarla o añadir una nueva y, después, establecer que la visibilidad sea para esa página o incidencia, para todo el espacio o proyecto, o para acceder a toda tu organización. La definición de términos con Atlassian Intelligence en Confluence funciona mejor en estos casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para definir términos con Atlassian Intelligence en Confluence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que la definición de términos con Atlassian Intelligence en Confluence funciona mejor en estos casos:
Además, en Jira, hemos descubierto que, dado que la definición de términos con Atlassian Intelligence depende de la búsqueda en Confluence, la función solo funcionará en Jira si tienes permiso para ver una instancia de Confluence en el mismo sitio que tu instancia de Jira. Puede que descubras que la definición de términos con Atlassian Intelligence no funciona como esperabas en los espacios de Confluence o las instancias de Jira que tienen contenido escrito en varios idiomas. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al definir términos con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al definir términos con Atlassian Intelligence, se aplican las siguientes medidas en lo que respecta a tus datos:
|
Genera descripciones de solicitudes de extracción con Atlassian Intelligence
La generación de descripciones de solicitudes de extracción con Atlassian Intelligence funciona con grandes modelos lingüísticos (LLM) desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un código y un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Atlassian Intelligence puede ayudarte a generar, transformar y resumir el contenido mientras escribes comentarios o descripciones de solicitudes de extracción en la experiencia de revisión de código de Bitbucket Cloud. Esto incluye lo siguiente:
Creemos que la generación de descripciones de solicitudes de extracción de Bitbucket Cloud con Atlassian Intelligence funciona mejor en estos casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para esta función, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que la generación de solicitudes de extracción de Bitbucket Cloud con Atlassian Intelligence no es tan útil en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al definir términos con Atlassian Intelligence en Confluence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al generar descripciones de solicitudes de extracción con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
Generar consultas de SQL en Atlassian Analytics
La generación de consultas de SQL con Atlassian Intelligence en Atlassian Analytics funciona con grandes modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y entender el lenguaje natural y, a continuación, lo traduce al lenguaje de consulta estructurada (SQL) en Atlassian Analytics. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Plantea una pregunta a Atlassian Intelligence en lenguaje natural y haz que se traduzca a SQL, en lugar de escribir tus propias consultas de SQL desde cero. Cuando haces una pregunta, Atlassian Intelligence utiliza el esquema de Atlassian Data Lake de la fuente de datos seleccionada para generar una consulta de SQL que se puede utilizar para crear gráficos en los paneles de Atlassian Analytics y también puede ayudarte a obtener información sobre el esquema en el Data Lake. La generación de consultas de SQL con Atlassian Intelligence funciona mejor en estos casos:
¿No tienes claro qué preguntas hacer?Aquí te damos algunas ideas:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para generar consultas de SQL con Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que generar consultas de SQL con Atlassian Intelligence es menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al generar consultas de SQL con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al generar consultas de SQL con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos.
|
IA generativa en el editor
El uso de Atlassian Intelligence en experiencias de edición se basa en extensos modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Atlassian Intelligence ayuda a impulsar una comunicación eficaz en todos los equipos de una organización para mejorar la eficiencia, la toma de decisiones y los procesos. El uso de Atlassian Intelligence en experiencias de edición funciona mejor en estos casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para Atlassian Intelligence en experiencias de edición, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que usar Atlassian Intelligence en experiencias de edición resulta menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo utiliza tus datos Atlassian Intelligence en las experiencias de edición. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, Atlassian Intelligence en experiencias de edición aplica las siguientes medidas:
|
Búsqueda de respuestas en Confluence
La búsqueda de respuestas en Confluence mediante Atlassian Intelligence se nutre de modelos de LLM desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Las bases de conocimientos crecen demasiado rápido para que los usuarios puedan mantenerse al día. La búsqueda de respuestas en Confluence mediante Atlassian Intelligence proporciona una vía de acceso más rápida a información clave que los clientes necesitan para sacar el trabajo adelante. Esta función te ayuda a encontrar fácilmente la información que necesitas. Comprende los tipos de preguntas que le harías a un compañero de equipo y las responde al instante. Más información sobre cómo utilizar Atlassian Intelligence para buscar respuestas en Confluence. Consideramos que la búsqueda de respuestas en Confluence mediante Atlassian Intelligence funciona especialmente bien cuando el sitio de Confluence está repleto de contenidos detallados, completos y actualizados. Esta función no genera contenido nuevo, sino que busca en las páginas y blogs de Confluence (aunque respetando las restricciones) para encontrar una respuesta a tu pregunta. Atlassian Intelligence genera respuestas basándose solo en lo que hay en tu Confluence y en el contenido al que tú, específicamente, puedes acceder. ¿No tienes claro qué preguntas hacer?Aquí tienes unas cuantas sugerencias
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al buscar respuestas en Confluence con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al buscar respuestas en Confluence con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
Búsqueda de incidencias en Jira
La búsqueda de incidencias en Jira mediante Atlassian Intelligence se nutre de grandes modelos lingüísticos desarrollados por OpenAI. Entre estos modelos se incluyen los modelos OpenAI que se detallan aquí, perfeccionados por Atlassian mediante datos sintéticos generados. Atlassian Intelligence utiliza estos modelos para analizar y entender el lenguaje natural y, a continuación, lo traduce al código de Jira Query Language (JQL) en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probables a partir de los datos con los que se han entrenado. Más información sobre las capacidades de los modelos OpenAI y el perfeccionamiento de OpenAI. También puedes informarte mejor sobre este enfoque en los artículos de investigación de OpenAI. |
Ahora puedes preguntarle lo que quieras a Atlassian Intelligence en lenguaje cotidiano en lugar de hacer consultas complejas. Cuando buscas incidencias mediante Atlassian Intelligence, tu instrucción se traduce en una consulta de JQL que te ayuda rápidamente a buscar incidencias concretas. Consideramos que la búsqueda de incidencias mediante Atlassian Intelligence funciona especialmente bien en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para buscar incidencias mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no reflejen fielmente el contenido en el que se basan, o que incluyan contenido en apariencia razonable pero falso o incompleto. Hemos observado que buscar incidencias mediante Atlassian Intelligence resulta menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Puede que también te interese plantearte cómo ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga. Asegúrate de incluir los campos y valores exactos que estás buscando. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al buscar incidencias con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, buscar incidencias mediante Atlassian Intelligence aplica las siguientes medidas:
|
Sugerir tipos de solicitud en Jira Service Management
La sugerencia de tipos de solicitud mediante Atlassian Intelligence funciona con grandes modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar las entradas en lenguaje natural y generar recomendaciones de nombres y descripciones de los tipos de solicitud para que los uses en Jira Service Management. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Dedica menos tiempo a averiguar qué tipos de solicitud necesitas crear para tu proyecto y, en su lugar, recibe sugerencias de Atlassian Intelligence. Basta con describir tu trabajo y lo que tu equipo suele gestionar para ver qué tipos de solicitudes puedes crear. Selecciona una de las sugerencias generadas por Atlassian Intelligence para crear un tipo de solicitud. Más información sobre cómo utilizar Atlassian Intelligence para sugerir tipos de solicitud. Creemos que usar Atlassian Intelligence para sugerir tipos de solicitud funciona especialmente bien en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para sugerir tipos de solicitud mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos observado que el uso de Atlassian Intelligence para sugerir tipos de solicitud resulta menos práctico en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para sugerir tipos de solicitud. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
En lo que respecta a tus datos, utilizar Atlassian Intelligence para sugerir tipos de solicitud aplica las siguientes medidas:
|
Resume los detalles de la incidencia en Jira Service Management
El resumen de los detalles de la incidencia con Atlassian Intelligence funciona con grandes modelos lingüísticos desarrollados por OpenAI. Estos modelos incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
En lugar de leer descripciones largas y numerosos comentarios sobre una incidencia de Jira Service Management, puedes utilizar Atlassian Intelligence para que resuma rápidamente esta información. De esta forma, los agentes pueden conocer rápidamente el contexto de la incidencia y los progresos realizados, para tomar medidas rápidas y prestar asistencia de forma puntual. Creemos que resumir los detalles de la incidencia con Atlassian Intelligence es una opción idónea en estos casos:
|
Es importante recordar que, por la forma como funcionan los modelos utilizados para resumir los detalles de las incidencias con Atlassian Intelligence, estos modelos a veces pueden comportarse de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que resumir los detalles de la incidencia con Atlassian Intelligence es menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al resumir los detalles de una incidencia con Atlassian Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al resumir los detalles de la incidencia con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
Escribe fórmulas personalizadas con Atlassian Intelligence
La escritura de fórmulas personalizadas mediante Atlassian Intelligence funciona con grandes modelos lingüísticos desarrollados por OpenAI. Entre ellos, se incluyen los modelos de OpenAI que se detallan aquí. Atlassian Intelligence utiliza estos modelos para analizar el lenguaje natural y, a continuación, lo traduce a SQLite en Atlassian Analytics. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
Pregunta o describe a Atlassian Intelligence cómo quieres transformar los datos de tu tabla de resultados y los traducirá en una expresión de SQLite que se utiliza para fórmulas personalizadas, en lugar de escribir tus propias expresiones de SQLite desde cero. Tras hacer una pregunta, Atlassian Intelligence utiliza los datos de la tabla de resultados del paso anterior de Visual SQL para generar una expresión de SQLite que aplica cálculos u operaciones a los datos de tu gráfico. Esto también puede ayudarte a aprender sobre las funciones de SQLite y su sintaxis. Consideramos que la escritura de fórmulas personalizadas mediante Atlassian Intelligence funciona mejor en los siguientes casos:
|
Cuando utilices fórmulas personalizadas, recuerda que los modelos utilizados en Atlassian Intelligence a veces pueden comportarse de forma imprecisa, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no reflejen fielmente el contenido en el que se basan, o que incluyan contenido en apariencia razonable, pero falso o incompleto. Hemos determinado que escribir fórmulas personalizadas mediante Atlassian Intelligence es menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos cuando escribes fórmulas personalizadas mediante Atlassain Intelligence. Esta sección complementa la información disponible en nuestro Trust Center. Tratamos los siguientes datos:
Al escribir fórmulas personalizadas con Atlassian Intelligence, se aplican las siguientes medidas en lo que respecta a tus datos: Tus prompts (entradas) y respuestas (salidas):
OpenAI es una empresa encargada del tratamiento de datos personales subcontratada de las que se incluyen en nuestra lista. No utiliza tus entradas ni salidas para ningún otro fin que no sea procesar tu solicitud. |
Más información sobre Atlassian Intelligence
Más información sobre el uso de Atlassian Intelligence
Descubre cómo utilizar Atlassian Intelligence para buscar respuestas en Confluence
Atlassian Intelligence y Rovo se han diseñado para aportar transparencia
Nuestro compromiso inquebrantable con la comunicación abierta, la responsabilidad y el respaldo a los equipos para que utilicen la IA de manera responsable.
Rovo
Selecciona una de las siguientes funciones de Rovo para ver de forma transparente los casos prácticos y el uso de los datos.
Acelera el trabajo con la IA
Selecciona una de las siguientes funciones de Atlassian Intelligence para ver de forma transparente los casos prácticos y el uso de los datos.
- Automatización
- AI related resources
- AI suggestions
- Automation
- Agrupación de alertas
- Resumen rápido de Confluence
- Definir términos
- IA generativa en el editor
- Issue reformatter
- Resumir los detalles de una incidencia
- Resumir los enlaces inteligentes
- Respuestas de IA
- Whiteboards AI summary
- Escritura de fórmulas personalizadas con AI
- Automatización
- AI related resources
- AI suggestions
- Automation
- Agrupación de alertas
- Resumen rápido de Confluence
- Definir términos
- IA generativa en el editor
- Issue reformatter
- Resumir los detalles de una incidencia
- Resumir los enlaces inteligentes
- Respuestas de IA
- Whiteboards AI summary
- Escritura de fórmulas personalizadas con AI
Automatización mediante Atlassian Intelligence
Automation using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar las entradas en lenguaje natural y generar una regla de automatización para ti dentro de Jira y Confluence. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
La creación de reglas de automatización es la base de la experiencia de automatización diaria, por lo que queremos facilitarte aún más añadiendo Atlassian Intelligence al creador de reglas de automatización de Jira y Confluence. Ahora puedes crear reglas de automatización fácilmente con solo escribir y describir lo que quieres automatizar, y dejar que Atlassian Intelligence se encargue de todo para crear la regla por ti. Consulta más información sobre la Automatización mediante Atlassian Intelligence para Jira y para Confluence. Creemos que la Automatización mediante Atlassian Intelligence para Jira y Confluence funciona mejor en situaciones en las que no estás seguro de cómo empezar o quieres acelerar el proceso de creación de reglas. |
Es importante recordar que, por la forma como funcionan los modelos utilizados para potenciar la Automatización mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que la automatización mediante Atlassian Intelligence es menos práctica en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. La Automatización mediante Atlassian Intelligence solo funcionará con el conjunto actual de componentes de automatización disponibles en Jira y Confluence. También puedes pensar en ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga, como se ha descrito anteriormente. |
Entendemos que puedas tener preguntas sobre cómo utiliza tus datos la Automatización mediante Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, el uso de Atlassian Intelligence para la automatización de Confluence aplica las siguientes medidas:
All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request. Esta función sigue los permisos de tu instancia. Por ejemplo, si no tienes acceso a una página o un proyecto concretos, no se te sugerirán contenidos de esos activos en la respuesta que recibas. Si no quieres que tu contenido esté disponible en las respuestas de otros usuarios de tu instancia, ponte en contacto con el administrador de la organización para comprobar la configuración de tus permisos. |
AI related resources is powered by large language models developed by OpenAI, as well as a combination of open-source large language models (including the Llama series and Phi series) and other machine learning models. These large language models include OpenAI’s GPT series of models. Atlassian Intelligence uses these models to analyze and generate natural language within our products, and to provide relevant responses from Atlassian and connected third-party products. These large language models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on. Read more about the capabilities of OpenAI’s models or about this approach in OpenAI's research papers. For more information on open-source language models, see information on the Llama series and the Phi series. |
Atlassian Intelligence enables your users to speed up the process of resolving incidents by suggesting a list of resources that they can refer to, across your linked knowledge base spaces and articles, Jira issues, and (if you are a Rovo customer) any third-party products you have integrated through Rovo. Read more about Rovo and third party tools. We believe that AI related resources work best in scenarios where:
|
Remember that because of the way that the models used to power AI related resources work, these models can sometimes behave in ways that are inaccurate, incomplete, or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on or include content that sounds reasonable but is false or incomplete. We’ve found that AI related resources is less useful in scenarios where:
For this reason, we encourage you to consider situations where you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others. You might also want to think about the following:
|
We understand you may have questions about how AI related resources uses your data. This section supplements the information available on our FAQ page. We process:
When it comes to your data, AI related resources applies the following measures:
|
AI suggestions in Jira Service Management is powered by large language models developed by OpenAI, and other machine learning models. These large language models include OpenAI’s GPT series of models. Atlassian Intelligence uses these models to analyze and generate natural language within our products. These large language models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on. Read more about the capabilities of OpenAI’s models. |
With AI suggestions in Jira Service Management, your team can quickly get up to speed by gathering important context about your service requests and incidents at a glance. Atlassian Intelligence helps your team to:
AI suggestions in Jira Service Management can also recommend that agents escalate a request or incident when the applicable SLA is about to be breached. In the case of service requests, this feature may also suggest that agents escalate that request where the models used to power these suggestions identify, based on the text of the reporter’s comments, a sense of urgency or anger with that request. We believe that AI suggestions in Jira Service Management work best in scenarios where:
|
It’s important to remember that because of the way that the models used to power AI suggestions in Jira Service Management work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on or include content that sounds reasonable but is false or incomplete. We’ve found that AI suggestions in Jira Service Management are less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others. You might also want to think about:
|
We understand you may have questions about how AI suggestions in Jira Service Management uses your data. This section supplements the information available on our Trust Center. We process:
When it comes to your data, AI suggestions apply the following measures.
|
Automation using Atlassian Intelligence is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include OpenAI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence uses these models to analyze natural language input and generate an automation rule for you within Jira and Confluence. These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated by predicting the most probable next word or text, based on the data that they have been trained on. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Creating automation rules is at the core of the everyday automation experience, and we want to make this even easier for you by adding Atlassian Intelligence to the automation rule builder in Jira and Confluence. Now, you can easily create automation rules by simply typing in and describing what you wish to automate, and let Atlassian Intelligence handle all the heavy lifting of creating the rule for you. Find out more about Automation using Atlassian Intelligence for Jira and for Confluence. We believe that Automation using Atlassian Intelligence for Jira and Confluence works best in scenarios when you are not sure how to get started or want to accelerate the rule creation process. Not sure how best to create an automation rule?Automation rules are created by a combination of different types of components: triggers, actions, conditions, and branches. Think of components as the building blocks of a rule. To successfully create a rule with Atlassian Intelligence, your rule must at least contain both a trigger and an action. For example: In Jira: Every Monday, find all the tasks with a due date in the next 7 days, and send the assignee a reminder email. When a ticket moves to Testing, assign the ticket to John Smith. In Confluence:
In addition, for a rule to be successfully created, all its components must be supported by Automation using Atlassian Intelligence. This means that any triggers, actions, conditions, or branches in your rule must be compatible with Automation in Jira and/or Confluence. |
It’s important to remember that because of the way that the models used to power Automation using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We’ve found that Automation using Atlassian Intelligence is less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others. Automation using Atlassian Intelligence will only work with the existing set of available automation components in Jira and Confluence. You might also want to think about being as specific as possible in what you ask Atlassian Intelligence to do, as described above. |
We understand you may have questions about how Automation using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page. We process:
When it comes to your data, using Atlassian Intelligence for Confluence automation applies the following measures:
All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request. This feature follows the permissions in your instance. For example, if you do not have access to a specific project or page, you will not be suggested content from those assets in the response you receive. If you do not want your content to be available in responses to other users in your instance, work with your org admin to ensure your permissions are set appropriately. |
Agrupación de alertas
Alert grouping by Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos de aprendizaje automático para analizar y generar grupos de alertas y ofrecer sugerencias relacionadas (grupos de alertas anteriores y personas encargadas de responder a alertas anteriormente) en nuestros productos en función de la similitud del contenido de las alertas o de las etiquetas utilizadas. Luego, Atlassian Intelligence utiliza modelos de lenguaje de gran tamaño para analizar y generar descripciones y contenido en lenguaje natural para estos grupos en nuestros productos. Estos modelos de lenguaje de gran tamaño generan respuestas en función de tus entradas y son probabilísticos. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
La agrupación de alertas utiliza Atlassian Intelligence para identificar y agrupar alertas similares. También te ayuda a identificar y recomendar grupos de alertas similares anteriores y personas encargadas de responder a alertas anteriormente (o equipos de estas personas) en función de la similitud semántica del contenido de la alerta o de las etiquetas utilizadas. Cuando quieras escalar el grupo de alertas a un incidente, la agrupación de alertas también rellenará automáticamente toda la información contextual para que la revises como parte del proceso de creación del incidente. Creemos que la agrupación de alertas funciona mejor en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para la agrupación de alertas, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. En el caso de los grupos de alertas que ves, puede que no reflejen con precisión la similitud semántica de sus etiquetas. Hemos descubierto que la agrupación de alertas es menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. También deberías asegurarte de que tú y tu equipo seguís prácticas coherentes en cuanto al uso de las etiquetas de alerta. |
Entendemos que puedas tener preguntas sobre cómo utiliza tus datos la agrupación de alertas. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Procesamos los datos de tus alertas para entrenar una versión del modelo de aprendizaje automático para que reconozca los patrones específicos de tus alertas. Esta versión se usa únicamente para tu experiencia:
En lo que respecta a tus datos, la agrupación de alertas aplica las siguientes medidas:
|
Summarize pages and blogs using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguientes más probables, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Ahorra tiempo y obtén más rápidamente los detalles que necesitas para realizar tu trabajo más deprisa generando un resumen rápido de una página o blog de Confluence con Atlassian Intelligence. Más información sobre el uso de Atlassian Intelligence en Confluence. Creemos que resumir páginas y blogs con Atlassian Intelligence funciona mejor en los siguientes casos:
|
Es importante recordar que, debido a la forma en que funcionan los modelos utilizados para impulsar el resumen de páginas y blogs con Atlassian Intelligence, a veces estos pueden comportarse de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Si bien seguimos mejorando la compatibilidad con las macros, las tablas y ampliando los resúmenes, hemos descubierto que resumir páginas y blogs con Atlassian Intelligence es menos útil en situaciones donde:
Es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para la automatización de Confluence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, al resumir páginas y blogs con Atlassian Intelligence, se aplican las siguientes medidas:
|
Definir términos con Atlassian Intelligence
Defining terms using Atlassian Intelligence in Confluence and Jira is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar y generar respuestas en lenguaje natural en Confluence. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Una de las cosas más difíciles de consumir contenido en Confluence y Jira puede ser conseguir el contexto que necesitas para entender lo que lees. Las abreviaturas, los acrónimos, los términos desconocidos y los nombres específicos de equipos o proyectos pueden hacerte perder mucho tiempo buscando la información que necesitas. La definición de términos con Atlassian Intelligence proporcionará la definición de términos específicos de la empresa (como acrónimos, nombres de proyecto, sistemas o equipos) en una página de Confluence o en la descripción de una incidencia en Jira. De esta forma, los usuarios tendrán la información que necesitan y cuando la necesitan y mejorará la colaboración de los equipos. Atlassian Intelligence puede ahorrarte tiempo, ya que hace estas definiciones por ti, sin que tengas que apartarte de la lectura. Si encuentras una definición que te parezca inexacta, puedes editarla o añadir una nueva y, después, establecer que la visibilidad sea para esa página o incidencia, para todo el espacio o proyecto, o para acceder a toda tu organización. La definición de términos con Atlassian Intelligence en Confluence funciona mejor en estos casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para definir términos con Atlassian Intelligence en Confluence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que la definición de términos con Atlassian Intelligence en Confluence funciona mejor en estos casos:
Además, en Jira, hemos descubierto que, dado que la definición de términos con Atlassian Intelligence depende de la búsqueda en Confluence, la función solo funcionará en Jira si tienes permiso para ver una instancia de Confluence en el mismo sitio que tu instancia de Jira. Puede que descubras que la definición de términos con Atlassian Intelligence no funciona como esperabas en los espacios de Confluence o las instancias de Jira que tienen contenido escrito en varios idiomas. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al definir términos con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Al definir términos con Atlassian Intelligence, se aplican las siguientes medidas en lo que respecta a tus datos:
|
IA generativa en el editor
Atlassian Intelligence in editing experiences is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Atlassian Intelligence ayuda a impulsar una comunicación eficaz en todos los equipos de una organización para mejorar la eficiencia, la toma de decisiones y los procesos. El uso de Atlassian Intelligence en experiencias de edición funciona mejor en estos casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para Atlassian Intelligence en experiencias de edición, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que usar Atlassian Intelligence en experiencias de edición resulta menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo utiliza tus datos Atlassian Intelligence en las experiencias de edición. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, Atlassian Intelligence en experiencias de edición aplica las siguientes medidas:
|
Issue reformatter is powered by large language models developed by OpenAI, including OpenAI’s GPT series of models. Atlassian Intelligence uses this model to analyze and generate natural language within Jira. These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on. Read more about the capabilities of OpenAI’s models. |
Issue reformatter helps improve the clarity of your Jira issue descriptions by reformatting them using a template developed by Atlassian. This template covers the types of information that we usually expect to see in a Jira issue description, such as a user story, context for the work, and acceptance criteria. We believe issue reformatter works best in scenarios where your issue descriptions already contain useful information (such as acceptance criteria or links to sources) but that information is not formatted using a clear or consistent structure. |
It’s important to remember that, because of the way they work, the models that power issue reformatter can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, your reformatted description might not accurately reflect the content that it was based on, or it might include details that sound reasonable but are false or incomplete. We’ve found issue reformatter is less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Atlassian Intelligence, and always review the quality of the responses you get before sharing them with others. You might also want to think about reviewing and confirming that your issue descriptions include all relevant information before you start using issue reformatter to reformat them. |
We understand you may have questions about how issue reformatter uses your data. This section supplements the information available on our Trust Center. We process:
When it comes to your data, issue reformatter applies the following measures:
|
Resume los detalles de la incidencia en Jira Service Management
Summarize issue details using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
En lugar de leer descripciones largas y numerosos comentarios sobre una incidencia de Jira Service Management, puedes utilizar Atlassian Intelligence para que resuma rápidamente esta información. De esta forma, los agentes pueden conocer rápidamente el contexto de la incidencia y los progresos realizados, para tomar medidas rápidas y prestar asistencia de forma puntual. Creemos que resumir los detalles de la incidencia con Atlassian Intelligence es una opción idónea en estos casos:
|
Es importante recordar que, por la forma como funcionan los modelos utilizados para resumir los detalles de las incidencias con Atlassian Intelligence, estos modelos a veces pueden comportarse de manera inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que resumir los detalles de la incidencia con Atlassian Intelligence es menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al resumir los detalles de una incidencia con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Al resumir los detalles de la incidencia con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
IA generativa en el editor
Summarize Smart Links with Atlassian Intelligence (AI) is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Tras mantener el puntero en un enlace inteligente de Jira, Confluence y Google Docs, Atlassian Intelligence puede ayudarte a resumir el contenido para que puedas determinar la importancia y el valor del enlace y decidir tu próxima acción. De este modo, se reduce la necesidad de salir de la página actual y cambiar de contexto. Creemos que Resumir los enlaces inteligentes con la IA funciona mejor en situaciones en las que:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para Resumir los enlaces inteligentes con la IA, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que los resúmenes que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que Resumir los enlaces inteligentes con la IA es menos útil en situaciones en las que:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al resumir los detalles de una incidencia con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, Resumir los enlaces inteligentes con la IA aplica las siguientes medidas.
|
Función de respuestas de Atlassian Intelligence en Jira Service Management
Atlassian Intelligence answers is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
La función de respuestas de Atlassian Intelligence se conecta al agente de servicio virtual de Jira Service Management. Utiliza la inteligencia artificial generativa para buscar en la base de conocimientos vinculada y responder a las preguntas de los clientes. Creemos que la función de respuestas de Atlassian Intelligence funciona mejor en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para la función de respuestas de Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que la función de respuestas de Atlassian Intelligence resulta menos práctica en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo utilizan tus datos las respuestas de Atlassian Intelligence en Jira Service Management. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
|
Summarize a Whiteboard is powered by large language models developed by OpenAI. These large language models include OpenAI’s GPT series of models. Atlassian Intelligence uses these models to analyze and generate natural language within our products. These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on. Read more about the capabilities of OpenAI's models. |
Save time and get the details you need to do your work faster by generating a summary of the content on a whiteboard using Atlassian Intelligence. We believe that Summarize a Whiteboard works best in scenarios where you have already created content with a Whiteboard. You can copy or create a page from the summary Atlassian Intelligence generates using the buttons at the bottom of the summary panel. You can also rate the quality of the summary and provide feedback. |
It’s important to remember that because of the way that the models used to power Summarize a Whiteboard work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. While we continue to build better support for macros, tables, and expand in summaries, we’ve found that Summarize a Whiteboard using Atlassian Intelligence is less useful in scenarios where:
We encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others. |
We understand you may have questions about how summarize a Whiteboard uses your data. This section supplements the information available on our FAQ page. We process:
When it comes to your data, summarize a Whiteboard applies the following measures.
|
Resumen rápido de Confluence
Writing custom formulas using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar el lenguaje natural y, a continuación, lo traduce a SQLite en Atlassian Analytics. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Pregunta o describe a Atlassian Intelligence cómo quieres transformar los datos de tu tabla de resultados y los traducirá en una expresión de SQLite que se utilice para fórmulas personalizadas, en lugar de escribir tus propias expresiones de SQLite desde cero. Tras hacer una pregunta, Atlassian Intelligence utiliza los datos de la tabla de resultados del paso anterior de Visual SQL para generar una expresión de SQLite que aplique cálculos u operaciones a los datos de tu gráfico. Esto también puede ayudarte a aprender sobre las funciones de SQLite y su sintaxis. Consideramos que la escritura de fórmulas personalizadas mediante Atlassian Intelligence funciona mejor en los siguientes casos:
|
Cuando utilices fórmulas personalizadas, recuerda que los modelos utilizados en Atlassian Intelligence a veces pueden comportarse de forma imprecisa, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no reflejen fielmente el contenido en el que se basan, o que incluyan contenido en apariencia razonable pero falso o incompleto. Hemos determinado que escribir fórmulas personalizadas mediante Atlassian Intelligence es menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para la automatización de Confluence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, al resumir páginas y blogs con Atlassian Intelligence, se aplican las siguientes medidas:
|
Usa la IA para impulsar la acción
Selecciona una de las siguientes funciones de Atlassian Intelligence para ver de forma transparente los casos prácticos y el uso de los datos.
Create incident with AI using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. These models generate responses based on your input and are probabilistic in nature. This means that their responses are generated by predicting the most probable next word or text based on the data that they've been trained on. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Al escalar una o varias alertas o grupos de alertas a un incidente en Jira Service Management, la función para crear un incidente con IA utiliza Atlassian Intelligence para rellenar rápidamente toda la información contextual para que la revises como parte del proceso de creación del incidente. Esto permite a los usuarios entender rápidamente el contexto del incidente creado a partir de esas alertas o grupos de alertas, y revisar y confirmar la información rellenada previamente, como el título, la descripción y la prioridad de la alerta al escalarla a un incidente. Creemos que crear incidentes con la IA funciona mejor en situaciones en las que:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para crear un incidente, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que crear un incidente con la IA es menos útil en situaciones en las que:
Por todo ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Para obtener los resultados más útiles, te sugerimos que seas lo más concreto posible en lo que le pides a Atlassian Intelligence. Puede que también te interese plantearte cómo ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga. |
Entendemos que puedes tener dudas sobre la forma en que crear un incidente con la IA utiliza tus datos. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, crear un incidente con la IA aplica las siguientes medidas.
|
Create post-incident review
PIR (Post-Incident Review) creation by Atlassian Intelligence is powered by large language models developed by OpenAI. These large language models include OpenAI’s GPT series of models. Atlassian Intelligence uses these models to analyze and generate natural language within our products. These models generate responses based on users' inputs and are probabilistic in nature. This means that the responses are generated by predicting the most probable next word or text, based on the data that they’ve been trained on. Obtén más información sobre las competencias de los modelos de OpenAI o sobre este concepto en los artículos de investigación de OpenAI. |
PIRs are a core part of the incident management process, helping incident responders and managers learn from current incidents and pass along insights to prevent similar incidents in the future. Atlassian Intelligence helps to accelerate the often time-consuming task of compiling a PIR by suggesting a PIR description based on relevant contextual information in your Jira Service Management instance and chat tools like Slack for you to review. We believe that PIR creation using AI works best in scenarios where:
|
It’s important to remember that because of the way that the models used to power PIR creation work, they can sometimes behave in ways that are inaccurate, incomplete, or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on or include content that might sound reasonable but is false or incomplete. We’ve found that PIR creation using AI is less useful in scenarios where:
For this reason, we encourage you to think about situations where you can use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others. Quizá también quieras pensar en lo siguiente:
|
We understand you may have questions about how create post-incident review using AI uses your data. This section supplements the information available on our FAQ page. Tratamos los siguientes datos:
When it comes to your data, PIR creation using AI applies the following measures.
|
Genera descripciones de solicitudes de extracción con Atlassian Intelligence
Generating pull request descriptions with Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar y generar un código y un lenguaje natural en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Atlassian Intelligence puede ayudarte a generar, transformar y resumir el contenido mientras escribes comentarios o descripciones de solicitudes de extracción en la experiencia de revisión de código de Bitbucket Cloud. Esto incluye lo siguiente:
Creemos que la generación de descripciones de solicitudes de extracción de Bitbucket Cloud con Atlassian Intelligence funciona mejor en estos casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para esta función, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que la generación de solicitudes de extracción de Bitbucket Cloud con Atlassian Intelligence no es tan útil en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al definir términos con Atlassian Intelligence en Confluence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Al generar descripciones de solicitudes de extracción con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
Generar consultas de SQL en Atlassian Analytics
Generating SQL queries using Atlassian Intelligence in Atlassian Analytics is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar y entender el lenguaje natural y, a continuación, lo traduce al lenguaje de consulta estructurada (SQL) en Atlassian Analytics. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Plantea una pregunta a Atlassian Intelligence en lenguaje natural y haz que se traduzca a SQL, en lugar de escribir tus propias consultas de SQL desde cero. Cuando haces una pregunta, Atlassian Intelligence utiliza el esquema de Atlassian Data Lake de la fuente de datos seleccionada para generar una consulta de SQL que se puede utilizar para crear gráficos en los paneles de Atlassian Analytics y también puede ayudarte a obtener información sobre el esquema en el Data Lake. La generación de consultas de SQL con Atlassian Intelligence funciona mejor en estos casos:
¿No tienes claro qué preguntas hacer?Aquí te damos algunas ideas:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para generar consultas de SQL con Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos determinado que generar consultas de SQL con Atlassian Intelligence es menos práctico en estos casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al generar consultas de SQL con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Al generar consultas de SQL con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos.
|
Búsqueda de respuestas en Confluence
Search answers in Confluence using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Las bases de conocimientos crecen demasiado rápido para que los usuarios puedan mantenerse al día. La búsqueda de respuestas en Confluence mediante Atlassian Intelligence proporciona una vía de acceso más rápida a información clave que los clientes necesitan para sacar el trabajo adelante. Esta función te ayuda a encontrar fácilmente la información que necesitas. Comprende los tipos de preguntas que le harías a un compañero de equipo y las responde al instante. Más información sobre cómo utilizar Atlassian Intelligence para buscar respuestas en Confluence. Consideramos que la búsqueda de respuestas en Confluence mediante Atlassian Intelligence funciona especialmente bien cuando el sitio de Confluence está repleto de contenidos detallados, completos y actualizados. Esta función no genera contenido nuevo, sino que busca en las páginas y blogs de Confluence (aunque respetando las restricciones) para encontrar una respuesta a tu pregunta. Atlassian Intelligence genera respuestas basándose solo en lo que hay en tu Confluence y en el contenido al que tú, específicamente, puedes acceder. ¿No tienes claro qué preguntas hacer?Aquí tienes unas cuantas sugerencias
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al buscar respuestas en Confluence con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
Al buscar respuestas en Confluence con Atlassian Intelligence se aplican las siguientes medidas en lo que respecta a tus datos:
|
Búsqueda de incidencias en Jira
Search issues using Atlassian Intelligence in Jira is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar y entender el lenguaje natural y, a continuación, lo traduce al código de Jira Query Language (JQL) en nuestros productos. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probables a partir de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Ahora puedes preguntarle lo que quieras a Atlassian Intelligence en lenguaje cotidiano en lugar de hacer consultas complejas. Cuando buscas incidencias mediante Atlassian Intelligence, tu instrucción se traduce en una consulta de JQL que te ayuda rápidamente a buscar incidencias concretas. Consideramos que la búsqueda de incidencias mediante Atlassian Intelligence funciona especialmente bien en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para buscar incidencias mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no reflejen fielmente el contenido en el que se basan, o que incluyan contenido en apariencia razonable pero falso o incompleto. Hemos observado que buscar incidencias mediante Atlassian Intelligence resulta menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Puede que también te interese plantearte cómo ser lo más específico posible en lo que le pidas a Atlassian Intelligence que haga. Asegúrate de incluir los campos y valores exactos que estás buscando. |
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al buscar incidencias con Atlassian Intelligence. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, buscar incidencias mediante Atlassian Intelligence aplica las siguientes medidas:
|
Obtén información relevante de tus datos al instante
Selecciona una de las siguientes funciones de Atlassian Intelligence para ver de forma transparente los casos prácticos y el uso de los datos.
Chart Insights
Chart insights is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar y generar un lenguaje natural en nuestros productos. Generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que sus respuestas se generan prediciendo la siguiente palabra o texto más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Chart Insights utiliza Atlassian Intelligence para ayudarte a entender mejor los datos de cualquier gráfico de Atlassian Analytics. Lo hace utilizando el título del panel, el título del gráfico y los datos del gráfico (incluidos los encabezados de las columnas y los valores de las filas) para generar un resumen en lenguaje natural de ese gráfico y sus datos. También tendrá como objetivo identificar cualquier tendencia o anomalía para darte una idea determinada de ese gráfico. Creemos que Chart Insights funciona mejor en los siguientes casos:
Los gráficos de barras, los gráficos de líneas y los gráficos de barras con una línea funcionan mejor con esta función, ya que normalmente tienen tendencias, fechas y muchas filas de datos. |
Es importante recordar que, por la forma en que funcionan los modelos utilizados para Chart Insights, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos descubierto que Chart Insights es menos útil en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo Chart Insights utiliza tus datos. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, Chart Insights aplica las siguientes medidas.
|
Sugerir tipos de solicitud en Jira Service Management
Suggest request types using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utiliza estos modelos para analizar las entradas en lenguaje natural y generar recomendaciones de nombres y descripciones de los tipos de solicitud para que los uses en Jira Service Management. Estos modelos generan respuestas en función de tus entradas y son de naturaleza probabilística. Esto significa que generan sus respuestas prediciendo el texto o la palabra siguiente más probable, en función de los datos con los que se han entrenado. Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series. |
Dedica menos tiempo a averiguar qué tipos de solicitud necesitas crear para tu proyecto y, en su lugar, recibe sugerencias de Atlassian Intelligence. Basta con describir tu trabajo y lo que tu equipo suele gestionar para ver qué tipos de solicitudes puedes crear. Selecciona una de las sugerencias generadas por Atlassian Intelligence para crear un tipo de solicitud. Más información sobre cómo utilizar Atlassian Intelligence para sugerir tipos de solicitud. Creemos que usar Atlassian Intelligence para sugerir tipos de solicitud funciona especialmente bien en los siguientes casos:
|
Es importante recordar que, por la forma en que funcionan los modelos utilizados para sugerir tipos de solicitud mediante Atlassian Intelligence, estos modelos a veces pueden comportarse de forma inexacta, incompleta o poco fiable. Por ejemplo, puede que las respuestas que recibas no se correspondan de forma precisa con el contenido en el que se basan o que generen contenido que parezca razonable pero que sea falso o esté incompleto. Hemos observado que el uso de Atlassian Intelligence para sugerir tipos de solicitud resulta menos práctico en los siguientes casos:
Por ello, es recomendable que pienses en las situaciones en las que utilizas Atlassian Intelligence y que compruebes la calidad de las respuestas que recibes antes de presentarlas a otras personas. Quizá también quieras pensar en lo siguiente:
|
Entendemos que puedas tener preguntas sobre cómo se utilizan tus datos al usar Atlassian Intelligence para sugerir tipos de solicitud. Esta sección complementa la información disponible en nuestra página de preguntas frecuentes. Tratamos los siguientes datos:
En lo que respecta a tus datos, utilizar Atlassian Intelligence para sugerir tipos de solicitud aplica las siguientes medidas:
|
Referencias
Obtén actualizaciones de estado de los productos de Atlassian en tiempo real en nuestra página de estado específica.
Más información sobre Atlassian Intelligence
Descubre cómo Atlassian gestiona los datos de los clientes.