Atlassian Intelligence, projetado para proporcionar transparência
Compromisso sem papo furado com a comunicação aberta e a imputabilidade, bem como de ajudar as equipes a usar o AI com responsabilidade.
O Atlassian Intelligence foi projetado para acelerar a colaboração e o trabalho das equipes. Entender como o Atlassian Intelligence funciona, assim como saber como melhor trabalhar com a sua equipe, é uma forma de aumentar a efetividade. Nesta página, a gente vai explicar como produtos e funções do AI operam, inclusive o que eles podem e não podem fazer e como contribuem para a forma como você utiliza os produtos. Seguindo as informações desta página, você pode aproveitar ao máximo os produtos da Atlassian e impulsionar o trabalho em equipe. Para saber mais sobre o compromisso da Atlassian com a criação responsável de tecnologia, visite os Princípios de Tecnologia Responsável.
Agrupamento de alertas
O agrupamento de alertas do Atlassian Intelligence é alimentado por grandes modelos de linguagem da OpenAI e por outros modelos de aprendizado de máquina. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos de aprendizado de máquina para analisar, gerar grupos de alertas e dar sugestões relacionadas (grupos e respondentes de alertas anteriores) nos produtos da Atlassian com base na semelhança do conteúdo dos alertas ou dos marcadores usados. Depois, o Atlassian Intelligence usa grandes modelos de linguagem para analisar e gerar descrições e conteúdo em linguagem natural para esses grupos nos produtos que a gente oferece. Esses grandes modelos de linguagem são probabilísticos e geram respostas com base nas entradas. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
O agrupamento de alertas usa o Atlassian Intelligence para identificar e agrupar alertas semelhantes. Ele também ajuda a identificar e a recomendar grupos de alerta semelhantes anteriores e respondentes de alerta anteriores (ou equipes de respondentes), com base na semelhança semântica do conteúdo do alerta ou dos marcadores usados. Para escalar o grupo de alertas para um incidente, o agrupamento de alertas também preenche com antecedência todas as informações contextuais para você revisar como parte do processo de criação do incidente. A gente acredita que o agrupamento de alertas funciona melhor nos cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar o agrupamento de alertas funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você receber podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Os grupos de alertas exibidos talvez não reflitam com precisão a semelhança semântica dos marcadores. A gente descobriu que o agrupamento de alertas é menos útil em cenários em que:
Por isso, encorajamos você a pensar nas situações em que usa o Atlassian Intelligence e a analisar a qualidade de respostas recebidas antes de compartilhá-las com outras pessoas. Você e a equipe também devem usar os marcadores de alerta com consistência. |
Você deve ter dúvidas sobre como seus dados vão ser usados pelo agrupamento de alertas. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
A gente processa os dados de alerta para treinar uma versão do modelo de aprendizado de máquina no reconhecimento de padrões específicos para seus alertas. Esta versão é usada para atender apenas à sua experiência:
Em relação aos dados, o agrupamento de alertas aplica as seguintes medidas:
|
Respostas do Atlassian Intelligence no Jira Service Management
As respostas do Atlassian Intelligence são alimentadas por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os modelos OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
A função de respostas do Atlassian Intelligence se conecta ao Virtual Service Agent no Jira Service Management. Ela usa inteligência artificial generativa para pesquisar nos espaços vinculados da base de conhecimento e responder às perguntas dos clientes. A gente acredita que as respostas do Atlassian Intelligence funcionam melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar as respostas do Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acha que as respostas do Atlassian Intelligence são menos úteis em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelas respostas do Atlassian Intelligence no Jira Service Management. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
|
Automação usando o Atlassian Intelligence
A automação ao usar o Atlassian Intelligence é alimentada por modelos GPT desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar a entrada de linguagem natural e gerar uma regra de automação no Jira e no Confluence. Eles geram respostas com base em suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
A criação de regras de automação está no centro da experiência diária de automação, e a gente quer tornar isso ainda mais fácil para você ao adicionar o Atlassian Intelligence ao criador de regras de automação no Jira e no Confluence. Agora, é possível criar regras de automação digitando e descrevendo o que você quer automatizar. Deixe que o Atlassian Intelligence cuide de todo o trabalho pesado para você. Saiba mais sobre Automação usando o Atlassian Intelligence para Jira e para Confluence. A gente acredita que a Automação usando o Atlassian Intelligence para o Jira e o Confluence funciona melhor em cenários em que você não tem certeza de como começar ou quer acelerar o processo de criação de regras. Não tem certeza da melhor forma de criar uma regra de automação?Regras de automação são criadas por uma combinação de diferentes tipos de componentes: acionadores, ações, condições e ramificações. Pense nos componentes como os alicerces de uma regra. Para criar uma regra com sucesso com o Atlassian Intelligence, ela deve conter pelo menos um acionador e uma ação. Por exemplo: No Jira: Toda segunda-feira, encontre todas as tarefas com data de entrega para os próximos sete dias e envie um e-mail de lembrete ao responsável. Quando um ticket for transferido para Teste, atribua o ticket a John Smith. No Confluence:
Além disso, para que uma regra seja criada com sucesso, todos os componentes devem ser compatíveis com a Automação usando o Atlassian Intelligence. Ou seja, todos os acionadores, ações, condições ou ramificações na regra devem ser compatíveis com a Automação no Jira e/ou no Confluence. |
É importante lembrar que, devido à forma como os modelos usados para impulsionar a Automação usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que a Automação usando o Atlassian Intelligence é menos útil em cenários em que:
Por isso, encorajamos você a pensar nas situações em que usa o Atlassian Intelligence e a analisar a qualidade de respostas recebidas antes de compartilhá-las com outras pessoas. A Automação usando o Atlassian Intelligence só vai funcionar com o conjunto de componentes de automação disponíveis no Jira e no Confluence. Você também pode pensar em ser o mais específico possível no que pede para o Atlassian Intelligence fazer, conforme descrito acima. |
Você deve ter dúvidas sobre como a Automação usando o Atlassian Intelligence usa os dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de dados, o uso do Atlassian Intelligence para automação do Confluence aplica as seguintes medidas:
A OpenAI é um subprocessador da nossa Lista de Subprocessadores. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar as solicitações. Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma determinada página ou projeto, o conteúdo desses recursos não vai ser sugerido para você na resposta recebida. Se você não quiser que o conteúdo seja disponibilizado nas respostas de outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada. |
Chart Insights
O Chart insights é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
O Chart insights usa o Atlassian Intelligence para ajudar a acelerar a compreensão dos dados em qualquer gráfico no Atlassian Analytics. Isso é feito usando o título do painel, o título do gráfico e os dados do gráfico (incluindo cabeçalhos de coluna e valores de linha) para gerar um resumo em linguagem natural desse gráfico e de seus dados. Também vai ter como objetivo identificar quaisquer tendências ou anomalias para oferecer alguns insights sobre esse gráfico. A gente acredita que o Chart insights funciona melhor em cenários em que:
Gráficos de barras, gráficos de linhas e gráficos de barras funcionam melhor com essa função, pois costumam ter tendências, datas e muitas linhas de dados. |
É importante lembrar que, devido à forma como os modelos usados para alimentar o Chart insights funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que o Chart insights é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como o Chart insights usa seus dados. Esta seção complementa as informações disponíveis nesta página O que é processado:
Quando se trata de dados, o Chart insights aplica as seguintes medidas.
|
Resumo rápido do Confluence
Resuma páginas e blogs usando o Atlassian Intelligence com modelos LLM desenvolvidos pela OpenAI. Esses modelos incluem os modelos OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Eles geram respostas com base em suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Economize tempo e obtenha os detalhes necessários para fazer seu trabalho com mais rapidez ao gerar um resumo rápido de uma página ou blog do Confluence com o Atlassian Intelligence. Saiba mais sobre como usar o Atlassian Intelligence no Confluence. A gente acredita que resumir páginas e blogs usando o Atlassian Intelligence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para resumir páginas e blogs usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Embora continuemos criando suporte para macros, tabelas e expandindo resumos, resumir páginas e blogs usando o Atlassian Intelligence é menos útil em cenários em que:
Pense nas situações em que o Atlassian Intelligence é usado e analise a qualidade das respostas recebidas antes de compartilhá-las com outras pessoas. Você também pode querer:
|
A gente entende que você pode ter dúvidas sobre como o uso do Atlassian Intelligence para automação do Confluence usa seus dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos seus dados, resumir páginas e blogs usando o Atlassian Intelligence aplicam as seguintes medidas:
|
Defina termos usando o Atlassian Intelligence
A definição de termos usando o Atlassian Intelligence no Confluence e no Jira é baseada em grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar respostas em linguagem natural no Confluence. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. |
Uma das coisas mais desafiadoras sobre o consumo de conteúdo no Confluence e no Jira é obter o contexto necessário para entender o que você está lendo. Abreviações, acrônimos, termos desconhecidos e nomes específicos de equipes ou projetos podem levar a uma longa busca pelas informações de que você precisa. A definição de termos usando o Atlassian Intelligence vai oferecer o significado de termos empresariais, como acrônimos, nomes de projetos, sistemas ou equipes, em uma página no Confluence ou na descrição de um item no Jira. Assim, os usuários acessam as informações de que precisam, quando precisam, o que ajuda as equipes a trabalharem melhor juntas. O Atlassian Intelligence poupa tempo ao definir essas coisas para você, sem se afastar do que você está lendo. Se você encontrar uma definição que considere imprecisa, pode editar ou adicionar uma nova definição e, em seguida, definir a visibilidade para essa página ou item, para todo o espaço ou projeto ou acessar toda a organização. A gente acha que definir termos usando o Inteligência Atlassian no Confluence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para definir termos usando a Inteligência Atlassian no Confluence funcionam, esses modelos às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que definir termos usando o Atlassian Intelligence no Confluence é menos útil em cenários em que:
Além disso, no Jira, também descobrimos que, como a definição de termos usando o Atlassian Intelligence depende da pesquisa no Confluence, a função só vai funcionar no Jira se você tiver permissão para visualizar uma instância do Confluence no mesmo site da sua instância do Jira. Também é possível que você descubra que definir termos usando o Atlassian Intelligence não funciona conforme o esperado em espaços do Confluence ou instâncias do Jira que têm conteúdo escrito em vários idiomas. |
Você deve ter dúvidas sobre como seus dados vão ser usados para definir termos com o Atlassian Intelligence. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos dados, o Atlassian Intelligence aplica as seguintes medidas para definir termos:
|
Gere descrições de pull request com o Atlassian Intelligence
A geração de descrições de pull request com o Atlassian Intelligence é alimentada por grandes modelos de linguagem (LLM) desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural e código nos produtos. Eles geram respostas com base em suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
O Atlassian Intelligence pode ajudar você a gerar, transformar e resumir conteúdo enquanto você escreve descrições ou comentários de pull request na experiência de revisão de código do Bitbucket Cloud. Ou seja, ele:
A gente acredita que gerar descrições de pull request do Bitbucket Cloud com o Atlassian Intelligence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar essa função funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que gerar descrições de pull request do Bitbucket Cloud com o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados para definir termos com o Atlassian Intelligence no Confluence. Esta seção complementa as informações disponíveis na Trust Center. O que é processado:
Quando se trata de dados próprios, a geração de descrições de pull request com o Atlassian Intelligence segue as seguintes medidas:
|
Gere consultas SQL no Atlassian Analytics
A geração de consultas SQL usando o Atlassian Intelligence no Atlassian Analytics é alimentada por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os modelos OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e entender a linguagem natural e, em seguida, a traduz em linguagem de consulta estruturada (SQL) no Atlassian Analytics. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Em vez de escrever as próprias consultas SQL do zero, use linguagem natural para fazer uma pergunta ao Atlassian Intelligence, que vai transformar o texto em SQL. Depois de fazer uma pergunta, o Atlassian Intelligence usa o esquema do Atlassian Data Lake da fonte de dados selecionada para gerar uma consulta SQL que pode ser usada para criar gráficos nos painéis do Atlassian Analytics e pode ajudar você a aprender sobre o esquema no Data Lake. A gente acha que gerar consultas SQL usando o Atlassian Intelligence funciona melhor em cenários em que:
Não sabe o que perguntar?Aqui estão algumas sugestões:
|
É importante lembrar que, devido à forma como os modelos usados para gerar consultas SQL usando o Atlassian Intelligence funcionam, esses modelos às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que gerar consultas SQL usando o Atlassian Intelligence é menos útil em cenários em que:
Por esse motivo, é recomendado que você pense nas situações em que usa o Atlassian Intelligence e analise a qualidade das respostas que recebe antes de compartilhar com outras pessoas. Você também pode querer considerar:
|
Você deve ter dúvidas sobre como seus dados vão ser usados na geração de consultas SQL com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na Trust Center. O que é processado:
Quando se trata dos seus dados, a geração de consultas SQL usando o Atlassian Intelligence segue as seguintes medidas.
|
IA generativa no editor
O Atlassian Intelligence em experiências de edição é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os modelos OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
O Atlassian Intelligence ajuda a impulsionar a comunicação eficaz entre todas as equipes de uma organização para melhorar a eficiência, a tomada de decisões e os processos. A gente acredita que usar o Atlassian Intelligence na edição de textos funciona melhor para:
|
É importante lembrar que, devido à forma como os modelos usados para impulsionar a Atlassian Intelligence em experiências de edição funcionam, às vezes eles podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas que seja falso ou incompleto. A gente descobriu que usar o Atlassian Intelligence para editar textos é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como o Atlassian Intelligence usa os seus dados para editar textos. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos seus dados, o Atlassian Intelligence aplica as seguintes medidas para editar textos:
|
Pesquisar respostas no Confluence
Pesquise respostas no Confluence usando o Atlassian Intelligence com os modelos LLM desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
As bases de conhecimento crescem mais rápido do que os usuários conseguem acompanhar. Pesquisar respostas no Confluence com o Atlassian Intelligence oferece um caminho mais rápido para as principais informações que os clientes precisam para o progresso do trabalho. Essa função é útil para encontrar as informações de que você precisa com facilidade. Ela entende os tipos de perguntas que você faria a um colega de equipe e a responde de imediato. Descubra mais sobre o uso do Atlassian Intelligence para pesquisar respostas no Confluence. A gente acredita que pesquisar respostas no Confluence com o Atlassian Intelligence funciona melhor quando o site do Confluence tem bastante conteúdo detalhado, completo e atualizado. Essa função não gera conteúdo novo, mas pesquisa páginas e blogs do Confluence (respeitando as restrições) para encontrar uma resposta adequada para a pergunta. O Atlassian Intelligence apenas gera respostas com base no que está no Confluence e no que você tem acesso, em específico. Não sabe o que perguntar?Veja aqui algumas sugestões
|
A gente entende que você pode ter dúvidas sobre como a pesquisa de respostas no Confluence usando o Atlassian Intelligence usa os dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos dados, a pesquisa de respostas no Confluence usando o Atlassian Intelligence aplica as seguintes medidas:
|
Pesquisar itens no Jira
O Atlassian Intelligence usa grandes modelos de linguagem desenvolvidos pela OpenAI para pesquisar itens no Jira. Isso inclui os modelos da OpenAI descritos aqui, aperfeiçoados pela Atlassian com dados gerados de forma sintética. O Atlassian Intelligence usa esses modelos para analisar e entender linguagem natural e depois a traduz para o código da Linguagem de Consulta do Jira (JQL) nos produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Ou seja, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e o ajuste da OpenAI. Você também pode ler mais sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Agora é possível fazer perguntas ao Atlassian Intelligence em linguagem cotidiana, em vez de elaborar consultas complexas. Ao usar o Atlassian Intelligence para pesquisar itens, a solicitação é traduzida para consultas JQL que ajuda a pesquisar itens específicos com rapidez. A gente acredita que usar o Atlassian Intelligence para pesquisar itens funciona melhor em situações em que:
|
É importante lembrar que, devido à forma como os modelos usados para pesquisar itens com o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acredita que pesquisar itens com o Atlassian Intelligence é menos útil em situações em que:
Por esse motivo, é recomendado que você pense nas situações em que usa o Atlassian Intelligence e analise a qualidade das respostas que recebe antes de compartilhar com outras pessoas. Além disso, seja o mais específico possível sobre o que vai pedir para o Atlassian Intelligence fazer. Inclua os campos e valores exatos que quer encontrar. |
Você deve ter dúvidas sobre como a pesquisa de itens com o Atlassian Intelligence usa os seus dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos dados, o Atlassian Intelligence aplica as seguintes medidas para pesquisar itens:
|
Sugira tipos de solicitação no Jira Service Management
Use o Atlassian Intelligence para sugerir os tipos de solicitação com base em grandes modelos de linguagem desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar as entradas em linguagem natural e gerar recomendações para os nomes dos tipos de solicitação e descrições para você no Jira Service Management. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Receba sugestões do Atlassian Intelligence e economize tempo sem ter que tentar descobrir quais tipos de solicitação você precisa criar para o projeto. Apenas descreva o trabalho e o que a equipe costuma gerenciar para ver quais tipos de solicitações você pode criar. Escolha uma das sugestões geradas pelo Atlassian Intelligence para criar um tipo de solicitação. Saiba mais sobre como usar o Atlassian Intelligence para sugerir tipos de solicitação. A gente acredita que usar o Atlassian Intelligence para sugerir tipos de solicitação funciona melhor em situações em que:
|
É importante lembrar que, devido à forma como os modelos usados para sugerir tipos de solicitação com o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente percebeu que usar o Atlassian Intelligence para sugerir tipos de solicitação é menos útil em situações em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como os seus dados são usados pelo Atlassian Intelligence para sugerir tipos de solicitação. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos seus dados, o Atlassian Intelligence aplica as seguintes medidas para sugerir tipos de solicitação:
|
Resuma as informações do item no Jira Service Management
Resuma as informações do item usando o Atlassian Intelligence com base em grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os modelos OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Em vez de ler descrições longas e vários comentários sobre um item do Jira Service Management, use o Atlassian Intelligence para resumir essas informações para você. Ajude os agentes a entender com rapidez o contexto do item e qualquer progresso feito, permitindo que eles executem ações rápidas e ofereçam assistência no momento certo. A gente acredita que resumir as informações do item usando o Atlassian Intelligence funciona melhor para:
|
É importante lembrar que, devido à forma como os modelos usados para resumir as informações do item usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acredita que resumir as informações do item usando o Atlassian Intelligence é menos útil em cenários quando:
Por esse motivo, é recomendado que você pense nas situações em que usa o Atlassian Intelligence e analise a qualidade das respostas que recebe antes de compartilhar com outras pessoas. |
A gente entende que você pode ter dúvidas sobre como o resumo das informações do item usando o Atlassian Intelligence usa os dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos dados, o resumo das informações do item usando o Atlassian Intelligence aplica as seguintes medidas:
|
Escreva fórmulas personalizadas usando o Atlassian Intelligence
Use o Atlassian Intelligence para escrever fórmulas personalizadas com base em grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar a linguagem natural e, em seguida, a traduz em SQLite no Atlassian Analytics. Eles geram respostas com base em suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Em vez de escrever suas próprias expressões SQLite do zero, pergunte ou descreva para o Atlassian Intelligence como você deseja transformar os dados na sua tabela de resultados e ele vai criar uma expressão SQLite usada para fórmulas personalizadas. Depois que você faz uma pergunta, o Atlassian Intelligence usa os dados na tabela de resultados da etapa anterior do Visual SQL para gerar uma expressão SQLite que aplica cálculos ou operações a esses dados para seu gráfico. Isso também pode ajudar você a aprender sobre as funções SQLite e a sintaxe delas. Usar o Atlassian Intelligence para escrever fórmulas personalizadas funciona melhor em situações em que:
|
Ao usar fórmulas personalizadas, tenha em mente que os modelos usados no Atlassian Intelligence às vezes podem se comportar de maneira imprecisa, incompleta ou não confiável. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou está incompleto. A gente descobriu que escrever fórmulas personalizadas usando o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados são usados para escrever fórmulas personalizadas com o Atlassian Intelligence. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos dados, o Atlassian Intelligence aplica as seguintes medidas para escrever fórmulas personalizadas. As solicitações (dados de entrada) e respostas (dados de saída):
A OpenAI é um subprocessador que consta na Lista de subprocessadores. Eles não usam os dados de entrada e de saídas para nenhuma finalidade além de processar as solicitações. |
Leia mais sobre o Atlassian Intelligence
Descubra mais sobre como usar o Atlassian Intelligence
Saiba como usar o Atlassian Intelligence para pesquisar respostas no Confluence
O Atlassian Intelligence e o Rovo foram criados para proporcionar transparência
Compromisso sem papo furado com a comunicação aberta e a imputabilidade, bem como de ajudar as equipes a usar o AI com responsabilidade.
Rovo
Selecione uma das funções do Rovo abaixo para ter uma visão transparente do uso de dados e dos casos de uso.
Acelere o trabalho com o AI
Selecione uma das funções do Atlassian Intelligence abaixo para ter uma visão transparente do uso de dados e dos casos de uso.
Respostas do Atlassian Intelligence no Jira Service Management
As respostas do Atlassian Intelligence são alimentadas por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os modelos OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
A função de respostas do Atlassian Intelligence se conecta ao agente de serviço virtual no Jira Service Management. Ela usa inteligência artificial generativa para pesquisar nos espaços vinculados da base de conhecimento e responder as perguntas dos seus clientes. A gente acredita que as respostas do Atlassian Intelligence funcionam melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar as respostas do Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acha que as respostas do Atlassian Intelligence são menos úteis em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelas respostas do Atlassian Intelligence no Jira Service Management. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
|
Automação usando o Atlassian Intelligence
A automação ao usar o Atlassian Intelligence é alimentada por modelos GPT desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar a entrada de linguagem natural e gerar uma regra de automação no Jira e no Confluence. Eles geram respostas com base em suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
A criação de regras de automação está no centro da experiência diária de automação, e a gente quer tornar isso ainda mais fácil para você ao adicionar o Atlassian Intelligence ao criador de regras de automação no Jira e no Confluence. Agora, é possível criar regras de automação digitando e descrevendo o que você quer automatizar. Deixe que o Atlassian Intelligence cuide de todo o trabalho pesado para você. Saiba mais sobre Automação usando o Atlassian Intelligence para Jira e para Confluence. A gente acredita que a Automação usando o Atlassian Intelligence para o Jira e o Confluence funciona melhor em cenários em que você não tem certeza de como começar ou quer acelerar o processo de criação de regras. Não tem certeza da melhor forma de criar uma regra de automação?Regras de automação são criadas por uma combinação de diferentes tipos de componentes: acionadores, ações, condições e ramificações. Pense nos componentes como os alicerces de uma regra. Para criar uma regra com sucesso com o Atlassian Intelligence, ela deve conter pelo menos um acionador e uma ação. Por exemplo: No Jira: Toda segunda-feira, encontre todas as tarefas com data de entrega para os próximos sete dias e envie um e-mail de lembrete ao responsável. Quando um ticket for transferido para Teste, atribua o ticket a John Smith. No Confluence:
Além disso, para que uma regra seja criada com sucesso, todos os componentes devem ser compatíveis com a Automação usando o Atlassian Intelligence. Ou seja, todos os acionadores, ações, condições ou ramificações na regra devem ser compatíveis com a Automação no Jira e/ou no Confluence. |
É importante lembrar que, devido à forma como os modelos usados para impulsionar a Automação usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que a Automação usando o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. A Automação usando o Atlassian Intelligence só vai funcionar com o conjunto de componentes de automação disponíveis no Jira e no Confluence. Você também pode pensar em ser o mais específico possível no que pede para o Atlassian Intelligence fazer, conforme descrito acima. |
Você deve ter dúvidas sobre como seus dados vão ser usados pela Automação com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata de dados, o uso do Atlassian Intelligence para automação do Confluence aplica as seguintes medidas:
A OpenAI é um subprocessador que consta na Lista de subprocessadores. Eles não usam os dados de entrada e de saídas para nenhuma finalidade além de processar as solicitações. Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma determinada página ou projeto, o conteúdo desses recursos não vai ser sugerido para você na resposta recebida. Se você não quiser que o conteúdo seja disponibilizado nas respostas de outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada. |
Agrupamento de alertas
O agrupamento de alertas do Atlassian Intelligence é alimentado por grandes modelos de linguagem da OpenAI e por outros modelos de aprendizado de máquina. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos de aprendizado de máquina para analisar, gerar grupos de alertas e dar sugestões relacionadas (grupos e respondentes de alertas anteriores) nos produtos da Atlassian com base na semelhança do conteúdo dos alertas ou dos marcadores usados. Depois, o Atlassian Intelligence usa grandes modelos de linguagem para analisar e gerar descrições e conteúdo em linguagem natural para esses grupos nos produtos que a gente oferece. Esses grandes modelos de linguagem são probabilísticos e geram respostas com base nas entradas. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
O agrupamento de alertas usa o Atlassian Intelligence para identificar e agrupar alertas semelhantes. Ele também ajuda a identificar e a recomendar grupos de alerta semelhantes anteriores e respondentes de alerta anteriores (ou equipes de respondentes), com base na semelhança semântica do conteúdo do alerta ou dos marcadores usados. Para escalar o grupo de alertas para um incidente, o agrupamento de alertas também preenche com antecedência todas as informações contextuais para você revisar como parte do processo de criação do incidente. A gente acredita que o agrupamento de alertas funciona melhor nos cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar o agrupamento de alertas funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você receber podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Os grupos de alertas exibidos talvez não reflitam com precisão a semelhança semântica dos marcadores. A gente descobriu que o agrupamento de alertas é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Você e a equipe também devem usar os marcadores de alerta com consistência. |
Você deve ter dúvidas sobre como seus dados vão ser usados pelo agrupamento de alertas. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
A gente processa os dados de alerta para treinar uma versão do modelo de aprendizado de máquina no reconhecimento de padrões específicos para seus alertas. Esta versão é usada para atender apenas à sua experiência:
Em relação aos dados, o agrupamento de alertas aplica as seguintes medidas:
|
Resuma páginas e blogs usando o Atlassian Intelligence com modelos LLM desenvolvidos pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Economize tempo e obtenha os detalhes necessários para fazer seu trabalho com mais rapidez ao gerar um resumo rápido de uma página ou blog do Confluence com o Atlassian Intelligence. Saiba mais sobre como usar o Atlassian Intelligence no Confluence. A gente acredita que resumir páginas e blogs usando o Atlassian Intelligence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para resumir páginas e blogs usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Embora continuemos criando suporte para macros, tabelas e expandindo resumos, resumir páginas e blogs usando o Atlassian Intelligence é menos útil em cenários em que:
Pense nas situações em que o Atlassian Intelligence é usado e analise a qualidade das respostas recebidas antes de compartilhá-las com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence na automação do Confluence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos seus dados, resumir páginas e blogs usando o Atlassian Intelligence aplicam as seguintes medidas:
|
Defina termos usando o Atlassian Intelligence
A definição de termos usando o Atlassian Intelligence no Confluence e no Jira é baseada em grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar respostas em linguagem natural no Confluence. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. |
Uma das coisas mais desafiadoras sobre o consumo de conteúdo no Confluence e no Jira é obter o contexto necessário para entender o que você está lendo. Abreviações, acrônimos, termos desconhecidos e nomes específicos de equipes ou projetos podem levar a uma longa busca pelas informações de que você precisa. A definição de termos usando o Atlassian Intelligence vai oferecer o significado de termos empresariais, como acrônimos, nomes de projetos, sistemas ou equipes, em uma página no Confluence ou na descrição de um item no Jira. Assim, os usuários acessam as informações de que precisam, quando precisam, o que ajuda as equipes a trabalharem melhor juntas. O Atlassian Intelligence poupa tempo ao definir essas coisas para você, sem se afastar do que você está lendo. Se você encontrar uma definição que considere imprecisa, pode editar ou adicionar uma nova definição e, em seguida, definir a visibilidade para essa página ou item, para todo o espaço ou projeto ou acessar toda a organização. A gente acha que definir termos usando o Inteligência Atlassian no Confluence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para definir termos usando a Inteligência Atlassian no Confluence funcionam, esses modelos às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que definir termos usando o Atlassian Intelligence no Confluence é menos útil em cenários em que:
Além disso, no Jira, também descobrimos que, como a definição de termos usando o Atlassian Intelligence depende da pesquisa no Confluence, a função só vai funcionar no Jira se você tiver permissão para visualizar uma instância do Confluence no mesmo site da sua instância do Jira. Também é possível que você descubra que definir termos usando o Atlassian Intelligence não funciona conforme o esperado em espaços do Confluence ou instâncias do Jira que têm conteúdo escrito em vários idiomas. |
Você deve ter dúvidas sobre como seus dados vão ser usados para definir termos com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos dados, o Atlassian Intelligence aplica as seguintes medidas para definir termos:
|
IA generativa no editor
O Atlassian Intelligence em experiências de edição é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os modelos OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
O Atlassian Intelligence ajuda a impulsionar a comunicação eficaz entre todas as equipes de uma organização para melhorar a eficiência, a tomada de decisões e os processos. A gente acredita que usar o Atlassian Intelligence na edição de textos funciona melhor para:
|
É importante lembrar que, devido à forma como os modelos usados para impulsionar a Atlassian Intelligence em experiências de edição funcionam, às vezes eles podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas que seja falso ou incompleto. A gente descobriu que usar o Atlassian Intelligence para editar textos é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence para editar textos. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos seus dados, o Atlassian Intelligence aplica as seguintes medidas para editar textos:
|
Resuma as informações do item no Jira Service Management
Resuma as informações do item usando o Atlassian Intelligence com base em grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os modelos OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Em vez de ler descrições longas e vários comentários sobre um item do Jira Service Management, use o Atlassian Intelligence para resumir essas informações para você. Ajude os agentes a entender com rapidez o contexto do item e qualquer progresso feito, permitindo que eles executem ações rápidas e ofereçam assistência no momento certo. A gente acredita que resumir as informações do item usando o Atlassian Intelligence funciona melhor para:
|
É importante lembrar que, devido à forma como os modelos usados para resumir as informações do item usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acredita que resumir as informações do item usando o Atlassian Intelligence é menos útil em cenários quando:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. |
Você deve ter dúvidas sobre como seus dados vão ser usados no resumo das informações do item com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos dados, o resumo das informações do item usando o Atlassian Intelligence aplica as seguintes medidas:
|
IA generativa no editor
O resumo de links inteligentes com IA usa grandes modelos de linguagem desenvolvidos pela OpenAI. Eles incluem os modelos descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Depois que você passa o cursor do mouse sobre um link inteligente do Jira, Confluence e Documentos Google, o Atlassian Intelligence ajuda a resumir o conteúdo. Isso permite que você determine a importância e o valor do link para decidir sua próxima ação. Assim, você não precisa sair da página atual e trocar de contexto. Acreditamos que o recurso Resumir links inteligentes com IA funciona melhor nos cenários em que:
|
Vale lembrar que os modelos às vezes podem ter um comportamento impreciso, incompleto ou não confiável devido à maneira como eles costumavam alimentar o recurso Resumir links inteligentes com IA. Por exemplo, os resumos que você recebe podem não refletir com precisão o conteúdo em que eles se baseiam ou incluir conteúdo que parece razoável, mas é falso ou incompleto. Descobrimos que o recurso Resumir links inteligentes com IA é menos útil nos cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. |
Você deve ter dúvidas sobre como seus dados vão ser usados no resumo das informações do item com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, o recurso Resumir links inteligentes com IA aplica as seguintes medidas. Seus resumos:
|
Resumo rápido do Confluence
Use o Atlassian Intelligence para criar fórmulas personalizadas com base em grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar a linguagem natural e, em seguida, a traduz em SQLite no Atlassian Analytics. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Em vez de escrever suas próprias expressões SQLite do zero, pergunte ou descreva para o Atlassian Intelligence como você deseja transformar os dados na sua tabela de resultados e ele vai criar uma expressão SQLite usada para fórmulas personalizadas. Depois que você faz uma pergunta, o Atlassian Intelligence usa os dados na tabela de resultados da etapa anterior do Visual SQL para gerar uma expressão SQLite que aplica cálculos ou operações a esses dados para seu gráfico. Isso também pode ajudar você a aprender sobre as funções SQLite e a sintaxe delas. Usar o Atlassian Intelligence para escrever fórmulas personalizadas funciona melhor em situações em que:
|
Ao usar fórmulas personalizadas, tenha em mente que os modelos usados no Atlassian Intelligence às vezes podem se comportar de maneira imprecisa, incompleta ou não confiável. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou está incompleto. A gente descobriu que escrever fórmulas personalizadas usando o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence na automação do Confluence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos seus dados, resumir páginas e blogs usando o Atlassian Intelligence aplicam as seguintes medidas:
|
Use o AI para impulsionar a ação
Selecione uma das funções do Atlassian Intelligence abaixo para ter uma visão transparente do uso de dados e dos casos de uso.
Resuma páginas e blogs usando o Atlassian Intelligence com modelos LLM desenvolvidos pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Ao escalar um ou mais alertas ou grupos de alertas sobre um incidente no Jira Service Management, a função "Criar incidente com o AI" usa o Atlassian Intelligence para escrever todas as informações contextuais com rapidez para você revisar durante o processo de criação do incidente. Ela permite que os usuários entendam logo o contexto do incidente criado a partir desses alertas ou grupos de alertas e que revisem e confirmem as informações pré-redigidas, como título, descrição e prioridade do alerta quando ele for transformado em incidente. A gente acredita que a função "Criar incidente com o AI" funciona melhor nos cenários em que:
|
É importante lembrar que, às vezes, devido ao funcionamento dos modelos usados para alimentar a função "Criar incidente com o AI", esses modelos podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente percebeu que a função "Criar incidente com o AI" é menos útil nos cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de enviar o texto para outras pessoas. Para conseguir os melhores resultados, seja o mais específico possível a respeito do que você pede para o Atlassian Intelligence fazer. Além disso, seja o mais específico possível sobre o que vai pedir para o Atlassian Intelligence fazer. |
A gente entende que você pode ter dúvidas sobre como a função "Criar incidente com o AI" usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, a função "Criar incidente com o AI" aplica as seguintes medidas:
|
Create post-incident review
PIR (Post-Incident Review) creation by Atlassian Intelligence is powered by large language models developed by OpenAI. These large language models include OpenAI’s GPT series of models. Atlassian Intelligence uses these models to analyze and generate natural language within our products. These models generate responses based on users' inputs and are probabilistic in nature. This means that the responses are generated by predicting the most probable next word or text, based on the data that they’ve been trained on. Read more about the capabilities of OpenAI’s models, or about this approach in OpenAI’s research papers. |
PIRs are a core part of the incident management process, helping incident responders and managers learn from current incidents and pass along insights to prevent similar incidents in the future. Atlassian Intelligence helps to accelerate the often time-consuming task of compiling a PIR by suggesting a PIR description based on relevant contextual information in your Jira Service Management instance and chat tools like Slack for you to review. We believe that PIR creation using AI works best in scenarios where:
|
It’s important to remember that because of the way that the models used to power PIR creation work, they can sometimes behave in ways that are inaccurate, incomplete, or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on or include content that might sound reasonable but is false or incomplete. We’ve found that PIR creation using AI is less useful in scenarios where:
For this reason, we encourage you to think about situations where you can use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others. You might also want to think about:
|
We understand you may have questions about how create post-incident review using AI uses your data. This section supplements the information available on our FAQ page. We process:
When it comes to your data, PIR creation using AI applies the following measures.
|
Gere descrições de pull request com o Atlassian Intelligence
A geração de descrições de pull request com o Atlassian Intelligence é alimentada por grandes modelos de linguagem (LLM) desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural e código nos produtos. Eles geram respostas com base em suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
O Atlassian Intelligence pode ajudar você a gerar, transformar e resumir conteúdo enquanto você escreve descrições ou comentários de pull request na experiência de revisão de código do Bitbucket Cloud. Ou seja, ele:
A gente acredita que gerar descrições de pull request do Bitbucket Cloud com o Atlassian Intelligence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar essa função funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que gerar descrições de pull request do Bitbucket Cloud com o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados para definir termos com o Atlassian Intelligence no Confluence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata de dados próprios, a geração de descrições de pull request com o Atlassian Intelligence segue as seguintes medidas:
|
Gere consultas SQL no Atlassian Analytics
A geração de consultas SQL usando o Atlassian Intelligence no Atlassian Analytics é alimentada por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os modelos OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e entender a linguagem natural e, em seguida, a traduz em linguagem de consulta estruturada (SQL) no Atlassian Analytics. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Em vez de escrever as próprias consultas SQL do zero, use linguagem natural para fazer uma pergunta ao Atlassian Intelligence, que vai transformar o texto em SQL. Depois de fazer uma pergunta, o Atlassian Intelligence usa o esquema do Atlassian Data Lake da fonte de dados selecionada para gerar uma consulta SQL que pode ser usada para criar gráficos nos painéis do Atlassian Analytics e pode ajudar você a aprender sobre o esquema no Data Lake. A gente acha que gerar consultas SQL usando o Atlassian Intelligence funciona melhor em cenários em que:
Não sabe o que perguntar?Aqui estão algumas sugestões:
|
É importante lembrar que, devido à forma como os modelos usados para gerar consultas SQL usando o Atlassian Intelligence funcionam, esses modelos às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que gerar consultas SQL usando o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pela geração de consultas SQL com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, a geração de consultas SQL usando o Atlassian Intelligence segue as seguintes medidas.
|
Pesquisar respostas no Confluence
Pesquise respostas no Confluence usando o Atlassian Intelligence com os modelos LLM desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
As bases de conhecimento crescem mais rápido do que os usuários conseguem acompanhar. Pesquisar respostas no Confluence com o Atlassian Intelligence oferece um caminho mais rápido para as principais informações que os clientes precisam para o progresso do trabalho. Essa função é útil para encontrar as informações de que você precisa com facilidade. Ela entende os tipos de perguntas que você faria a um colega de equipe e a responde de imediato. Descubra mais sobre o uso do Atlassian Intelligence para pesquisar respostas no Confluence. A gente acredita que pesquisar respostas no Confluence com o Atlassian Intelligence funciona melhor quando o site do Confluence tem bastante conteúdo detalhado, completo e atualizado. Essa função não gera conteúdo novo, mas pesquisa páginas e blogs do Confluence (respeitando as restrições) para encontrar uma resposta adequada para a pergunta. O Atlassian Intelligence apenas gera respostas com base no que está no Confluence e no que você tem acesso, em específico. Não sabe o que perguntar?Veja aqui algumas sugestões
|
Você deve ter dúvidas sobre como seus dados vão ser usados pela pesquisa de respostas no Confluence com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos dados, a pesquisa de respostas no Confluence usando o Atlassian Intelligence aplica as seguintes medidas:
|
Pesquisar itens no Jira
O Atlassian Intelligence usa grandes modelos de linguagem desenvolvidos pela OpenAI para pesquisar itens no Jira. Isso inclui os modelos da OpenAI descritos aqui, aperfeiçoados pela Atlassian com dados gerados de forma sintética. O Atlassian Intelligence usa esses modelos para analisar e entender linguagem natural e depois a traduz para o código da Linguagem de Consulta do Jira (JQL) nos produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Ou seja, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e o ajuste da OpenAI. Você também pode ler mais sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Agora é possível fazer perguntas ao Atlassian Intelligence em linguagem cotidiana, em vez de elaborar consultas complexas. Ao usar o Atlassian Intelligence para pesquisar itens, a solicitação é traduzida para consultas JQL que ajuda a pesquisar itens específicos com rapidez. A gente acredita que usar o Atlassian Intelligence para pesquisar itens funciona melhor em situações em que:
|
É importante lembrar que, devido à forma como os modelos usados para pesquisar itens com o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acredita que pesquisar itens com o Atlassian Intelligence é menos útil em situações em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Além disso, seja o mais específico possível sobre o que vai pedir para o Atlassian Intelligence fazer. Inclua os campos e valores exatos que quer encontrar. |
Você deve ter dúvidas sobre como sobre como seus dados vão ser usados pela pesquisa de itens com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos dados, o Atlassian Intelligence aplica as seguintes medidas para pesquisar itens:
|
Obtenha insights instantâneos de seus dados
Selecione uma das funções do Atlassian Intelligence abaixo para ter uma visão transparente do uso de dados e dos casos de uso.
Chart Insights
O Chart insights é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
O Chart insights usa o Atlassian Intelligence para ajudar a acelerar a compreensão dos dados em qualquer gráfico no Atlassian Analytics. Isso é feito usando o título do painel, o título do gráfico e os dados do gráfico (incluindo cabeçalhos de coluna e valores de linha) para gerar um resumo em linguagem natural desse gráfico e de seus dados. Também vai ter como objetivo identificar quaisquer tendências ou anomalias para oferecer alguns insights sobre esse gráfico. A gente acredita que o Chart insights funciona melhor em cenários em que:
Gráficos de barras, gráficos de linhas e gráficos de barras funcionam melhor com essa função, pois costumam ter tendências, datas e muitas linhas de dados. |
É importante lembrar que, devido à forma como os modelos usados para alimentar o Chart insights funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que o Chart insights é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Chart Insights. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata de dados, o Chart insights aplica as seguintes medidas.
|
Sugira tipos de solicitação no Jira Service Management
Use o Atlassian Intelligence para sugerir os tipos de solicitação com base em grandes modelos de linguagem desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar as entradas em linguagem natural e gerar recomendações para os nomes dos tipos de solicitação e descrições para você no Jira Service Management. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Receba sugestões do Atlassian Intelligence e economize tempo sem ter que tentar descobrir quais tipos de solicitação você precisa criar para o projeto. Apenas descreva o trabalho e o que a equipe costuma gerenciar para ver quais tipos de solicitações você pode criar. Escolha uma das sugestões geradas pelo Atlassian Intelligence para criar um tipo de solicitação. Saiba mais sobre como usar o Atlassian Intelligence para sugerir tipos de solicitação. A gente acredita que usar o Atlassian Intelligence para sugerir tipos de solicitação funciona melhor em situações em que:
|
É importante lembrar que, devido à forma como os modelos usados para sugerir tipos de solicitação com o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente percebeu que usar o Atlassian Intelligence para sugerir tipos de solicitação é menos útil em situações em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence para sugerir tipos de solicitação. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos seus dados, o Atlassian Intelligence aplica as seguintes medidas para sugerir tipos de solicitação:
|
Referências
Receba atualizações em tempo real do status de produtos Atlassian na Página de status.
Saiba mais sobre o Atlassian Intelligence
Entenda como a Atlassian gerencia os dados do cliente.