Une meilleure transparence avec Atlassian Intelligence et Rovo
Notre engagement « non au baratin » en faveur d'une communication ouverte, de la responsabilité et d'aider les équipes à utiliser l'IA de manière responsable.
Rovo
Sélectionnez une fonctionnalité Rovo ci-dessous pour avoir un aperçu transparent des cas d'usage et de l'utilisation des données.
Les agents Rovo sont alimentés par d'importants modèles de langage développés par OpenAI et Google, ainsi que par un ensemble de puissants modèles de langage libres (notamment la série Llama et la série Phi) et d'autres modèles d'apprentissage machine. Ces modèles comprennent la série GPT d'OpenAI et la série Gemini de Google. Les agents Rovo utilisent ces modèles pour fournir des fonctionnalités permettant d'analyser et de générer des réponses aux invites en langage naturel, et fournir des réponses pertinentes à partir d'Atlassian et des produits tiers connectés. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Découvrez-en plus sur les fonctionnalités des modèles d'OpenAI et de Google. Pour plus d'informations sur les modèles de langage open source, consultez les informations sur les séries Llama et Phi. À propos des agents Rovo Avec Rovo, nous fournissons un certain nombre d'agents prêts à l'emploi pour une variété de tâches telles que l'aide à la prise de décision, la publication de documentation de connaissances et le rangement ou l'organisation de tickets dans Jira. Les agents sont des coéquipiers spécialisés en IA qui peuvent aider les équipes humaines à faire avancer le travail rapidement et efficacement. La marche à suivre :
Nous pensons que les agents Rovo fonctionnent mieux dans les scénarios où :
Limites et points à prendre en compte lorsque vous utilisez les agents Rovo Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter le travail des agents Rovo, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que les agents Rovo sont moins utiles dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
Vos données et les agents Rovo Vous avez probablement des questions sur la façon dont les agents Rovo utilisent vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, les agents Rovo appliquent les mesures suivantes.
Les informations ci-dessus s'appliquent aux agents fournis par Atlassian. Pour en savoir plus, consultez les directives relatives aux données, à la confidentialité et à l'utilisation de Rovo | Rovo | Support Atlassian. Pour plus d'informations sur les agents fournis par des tiers, consultez leurs conditions générales relatives aux fournisseurs concernant leurs applications. En savoir plus sur Atlassian Intelligence |
With Rovo, we provide a number of out-of-the-box Agents, ready to use for a variety of tasks like, helping with decisionmaking, publishing knowledge documentation, and tidying up or organizing work items in Jira. Agents are specialized AI teammates that can assist human teams with moving work forward quickly and effectively. You can:
We believe that Rovo Agents work best in scenarios where:
|
It’s important to remember that because of the way that the models used to power Rovo Agents work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We’ve found that Rovo Agents are less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others. You might also want to think about:
|
We understand you may have questions about how Rovo Agents use your data. This section supplements the information available on our Trust Center. We process:
When it comes to your data, Rovo Agents apply the following measures.
The details above apply to Agents that are provided by Atlassian. For more information about Agents provided by Atlassian, please see Rovo data, privacy and usage guidelines | Rovo | Atlassian Support. For information about Agents provided by third parties, please reference the Vendor Terms provided by those third parties for their apps. Read more about Atlassian Intelligence |
La fonctionnalité Rovo Chat est alimentée par d'importants modèles de langage développés par OpenAI et Google, ainsi que par un ensemble de puissants modèles de langage libres (notamment la série Llama et la série Phi) et d'autres modèles d'apprentissage machine. Ces modèles comprennent la série GPT d'OpenAI et la série Gemini de Google. Rovo Chat utilise ces modèles pour analyser et générer des réponses aux invites en langage naturel, et fournir des réponses pertinentes à partir d'Atlassian et des produits tiers connectés. Les réponses sont générées par ces grands modèles linguistiques sur la base de vos entrées et sont de nature probabiliste. En d'autres termes, ces grands modèles de langage génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les entraîner. Découvrez-en plus sur les fonctionnalités des modèles d'OpenAI et de Google. Pour plus d'informations sur les modèles de langage open source, consultez les informations sur les séries Llama et Phi. Cas d'usages pour de Rovo Chat Rovo Chat vous permet d'accéder aux connaissances de votre organisation via une interface conversationnelle. Cela signifie que vous pouvez demander à Rovo d'écrire, de lire, de revoir ou de créer des choses de la même manière que vous le feriez à une personne, sans perturber votre workflow. Rovo Chat comprend le contexte de votre travail (à la fois au sein d'Atlassian et de vos produits tiers connectés) pour répondre à vos questions ou vous aider à trouver des idées ou des informations. Nous pensons que Rovo Chat fonctionne mieux dans les scénarios où :
Les utilisateurs peuvent également accéder à Rovo Chat via une extension de navigateur Chrome. Pour en savoir plus sur l'accès à Rovo Chat, cliquez ici et ici. Points à prendre en compte lors de l'utilisation de Rovo Chat Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter le travail de Rovo Chat, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que Rovo Chat est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Rovo Chat et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
Vos données et Rovo Chat Vous avez probablement des questions sur la façon dont Rovo Chat utilise vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons : Vos prompts (contributions) et les réponses (résultats).
En ce qui concerne vos données, Rovo Chat applique les mesures suivantes.
OpenAI est un sous-traitant figurant sur notre liste de sous-traitants. Il n'utilise pas vos entrées et sorties à d'autres fins que le traitement de votre demande. Cette fonctionnalité respecte les autorisations de votre instance. Par exemple, si vous n'avez pas accès à une certaine page Confluence, la réponse que vous recevrez ne vous suggèrera pas de contenu de cette page. Si vous ne souhaitez pas que votre contenu soit disponible en réponse aux autres utilisateurs de votre instance, demandez à l'administrateur de votre organisation de vérifier que vos autorisations sont correctement définies. Lorsque vous accédez à Rovo Chat en passant par l'extension de navigateur Chrome, l'assistant ne lit que le contenu de la page web consultée pour compléter le contenu déjà présent dans vos produits Atlassian. Aucune donnée supplémentaire provenant de la page web ne sera stockée. En savoir plus sur Atlassian Intelligence En savoir plus sur l'utilisation d'Atlassian Intelligence |
Rovo Chat allows allows you to access the knowledge of your organization through a conversational interface. This means you can ask Rovo to write, read, review, or create things the same way you might ask a person, without disrupting your workflow. Chat understands the context of your work (both within Atlassian and your connected third-party products) to answer questions, or help provide ideas or insights. We believe that Rovo Chat works best in scenarios where:
Rovo Chat can also be accessed by users via a Chrome browser extension. Learn more about accessing Rovo Chat here and here. |
It’s important to remember that because of the way that the models used to power Rovo Chat work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We’ve found that Rovo Chat is less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Rovo Chat and review the quality of the responses you receive before sharing them with others. You might also want to think about:
|
We understand you may have questions about how Rovo Chat uses your data. This section supplements the information available on our Trust Center. We process: Your prompts (inputs) and responses (outputs).
When it comes to your data, Rovo Chat applies the following measures.
OpenAI is a subprocessor on our List of Subprocessors. They do not use your inputs and outputs for any purpose besides processing or acting on your request. This feature follows the permissions in your instance. For example, if you do not have access to a certain Confluence page, you will not be suggested content from that page in the response you receive. If you do not want your content to be available in responses to other users in your instance, please work with your org admin to ensure your permissions are set appropriately. When you access Rovo Chat from the Chrome browser extension, Chat will only read the content on the web page you are viewing to complement the content already within your Atlassian products. No additional data from the web page will be stored. Read more about Atlassian Intelligence Discover more about using Atlassian Intelligence |
La Recherche Rovo utilise Atlassian Intelligence pour améliorer les fonctionnalités de recherche d'Atlassian et d'outils tiers. La fonctionnalité Recherche Rovo est alimentée par des LLM développés par OpenAI et Google, ainsi que par un ensemble de LLM open source (notamment la série Llama et la série Phi) et d'autres modèles d'apprentissage machine. Ces modèles comprennent la série GPT d'OpenAI et la série Gemini de Google. La Recherche Rovo utilise ces modèles pour fournir des fonctionnalités telles que la recherche sémantique, le classement par pertinence et le traitement du langage naturel. Cela inclut l'analyse et la génération de réponses aux requêtes de recherche en langage naturel, et la fourniture de réponses pertinentes à partir d'Atlassian et des produits tiers connectés. Les réponses sont générées par ces LLM sur la base de vos entrées et sont de nature probabiliste. En d'autres termes, ces LLM génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les entraîner. Découvrez-en plus sur les fonctionnalités des modèles d'OpenAI et de Google. Pour plus d'informations sur les modèles de langage open source, consultez les informations sur les séries Llama et Phi. Cas d'usages pour la Recherche Rovo La Recherche Rovo permet aux utilisateurs de réaliser des recherches sur de multiples outils et plateformes, y compris des produits Atlassian et des produits tiers connectés, en fournissant des résultats contextuels et pertinents afin d'améliorer la collaboration et la productivité des équipes. Nous pensons que la Recherche Rovo fonctionne mieux dans les scénarios où :
Points à prendre en compte lors de l'utilisation de la Recherche Rovo Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter la Recherche Rovo, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la Recherche Rovo est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Rovo et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
Vos données et la Recherche Rovo Vous avez probablement des questions sur la façon dont la Recherche Rovo utilise vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, la Recherche Rovo applique les mesures suivantes.
En savoir plus sur Atlassian Intelligence Qu'est-ce qu'Atlassian Intelligence ? | Support Atlassian Rovo : débloquez les connaissances organisationnelles grâce à GenAI | Atlassian |
Rovo Search enables users to search across multiple tools and platforms, including Atlassian products and connected third-party products, providing contextual and relevant results to enhance team collaboration and productivity. We believe that Rovo Search works best in scenarios where:
|
It’s important to remember that because of the way that the models used to power Rovo Search work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We’ve found that Rovo Search is less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Rovo and review the quality of the responses you receive before sharing them with others. You might also want to think about:
|
We understand you may have questions about how Rovo Search uses your data. This section supplements the information available on our Trust Center. We process:
When it comes to your data, Rovo Search applies the following measures.
Read more about Atlassian Intelligence What is Atlassian Intelligence? | Atlassian Support Rovo: Unlock organizational knowledge with GenAI | Atlassian |
Accélérez le travail grâce à l'IA
Sélectionnez une fonctionnalité Atlassian Intelligence ci-dessous pour avoir un aperçu transparent des cas d'usage et de l'utilisation des données.
- ChatOps basés sur l'IA pour la gestion des incidents
- Ressources d'IA associées
- Suggestion d'IA
- Automatisation
- Regroupement des alertes
- Résumé rapide de Confluence
- Définir les termes
- IA générative dans l'éditeur
- Reformatage des tickets
- Résumer les informations des tickets
- Résumer les liens intelligents
- Agent de service virtuel
- Résumer les informations de tickets à l'aide d'Atlassian Intelligence
- Répartition du travail par l'IA
- ChatOps basés sur l'IA pour la gestion des incidents
- Ressources d'IA associées
- Suggestion d'IA
- Automatisation
- Regroupement des alertes
- Résumé rapide de Confluence
- Définir les termes
- IA générative dans l'éditeur
- Reformatage des tickets
- Résumer les informations des tickets
- Résumer les liens intelligents
- Agent de service virtuel
- Résumer les informations de tickets à l'aide d'Atlassian Intelligence
- Répartition du travail par l'IA
Automatisation avec Atlassian Intelligence
Les fonctions des ChatOps basés sur l'IA pour la gestion des incidents sont alimentées par d'importants modèles de langage développés par OpenAI, ainsi que par un ensemble de puissants modèles de langage open source (notamment la série Llama et la série Phi) et d'autres modèles d'apprentissage machine. Ces LLM incluent la série de modèles GPT d'OpenAI. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces grands modèles de langage génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Pour en savoir plus sur les fonctionnalités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. Pour plus d'informations sur les modèles de langage open source, consultez les informations sur les séries Llama et Phi. |
Les ChatOps basés sur l'IA pour la gestion des incidents aident vos utilisateurs à accélérer le processus de résolution des incidents en proposant un résumé de l'incident concerné et de toutes les conversations correspondantes aux nouveaux utilisateurs lorsqu'ils sont ajoutés au canal Slack lié au ticket de l'incident dans Jira Service Management. De plus, ces outils peuvent enregistrer les conversations Slack dans Jira Service Management afin qu'il soit possible de s'y référer ultérieurement. Nous pensons que les ChatOps basés sur l'IA de gestion des incidents fonctionnent de manière optimale lorsque :
|
N'oubliez pas qu'en raison du fonctionnement des modèles utilisés pour alimenter les ChatOps basés sur l'IA pour la gestion des incidents, ces modèles peuvent parfois se comporter de manière imprécise, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons constaté que l'utilisation des ChatOps basés sur l'IA pour la gestion des incidents est moins utile lorsque :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez les ChatOps basés sur l'IA pour la gestion des incidents ainsi qu'à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Vous devriez également envisager de revoir les autorisations afin de vous assurer que les utilisateurs disposent des niveaux d'accès appropriés aux incidents pertinents ainsi qu'aux canaux Slack. |
Vous avez probablement des questions sur la façon dont les ChatOps basés sur l'IA pour la gestion des incidents utilisent vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, les ChatOps basés sur l'IA pour la gestion des incidents appliquent les mesures suivantes :
|
Les ressources liées à l'IA sont alimentées par d'importants modèles de langage développés par OpenAI, ainsi que par un ensemble de puissants modèles de langage libres (notamment la série Llama et la série Phi) et d'autres modèles d'apprentissage machine. Ces LLM incluent la série de modèles GPT d'OpenAI. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits ainsi que pour fournir des réponses pertinentes à partir d'Atlassian et de produits tiers connectés. Ces grands modèles de langage génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Pour en savoir plus sur les fonctionnalités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. Pour plus d'informations sur les modèles de langage open source, consultez les informations sur les séries Llama et Phi. |
Atlassian Intelligence permet à vos utilisateurs d'accélérer le processus de résolution des incidents en leur suggérant une liste de ressources auxquelles ils peuvent se référer à partir de vos espaces et articles de la base de connaissances, de vos tickets Jira et (si vous êtes un client Rovo) de tous les produits tiers que vous avez intégrés par le biais de Rovo. En savoir plus sur Rovo et les outils tiers. Nous pensons que les ressources liées à l'IA sont plus efficaces dans les cas suivants :
|
N'oubliez pas qu'en raison du mode de fonctionnement des modèles utilisés pour alimenter les ressources liées à l'IA, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que les ressources liées à l'IA sont moins utiles lorsque :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont les ressources liées à l'IA utilisent vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, les ressources liées à l'IA appliquent les mesures suivantes :
|
Les suggestions d'IA de Jira Service Management s'appuient sur de grands modèles de langage (LLM) développés par OpenAI et d'autres modèles d'apprentissage machine. Ces LLM incluent la série de modèles GPT d'OpenAI. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces grands modèles de langage génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI. |
Grâce aux suggestions de l'IA dans Jira Service Management, votre équipe peut rapidement être opérationnelle en rassemblant des informations contextuelles importantes concernant vos demandes de service et vos incidents en un coup d'œil. Atlassian Intelligence aide votre équipe à :
Les suggestions d'IA de Jira Service Management peuvent également recommander aux agents de faire remonter une demande ou un incident lorsque le SLA applicable est sur le point d'être violé. Dans le cas d'une demande de service, cette fonctionnalité peut également suggérer aux agents de faire remonter la demande lorsque les modèles utilisés pour alimenter ces suggestions identifient, sur la base du texte des commentaires du rapporteur, un sentiment d'urgence ou de colère. Nous pensons que les suggestions d'IA dans Jira Service Management fonctionnent de manière optimale lorsque :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter les suggestions d'IA dans le travail de Jira Service Management, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons constaté que les suggestions d'IA dans Jira Service Management sont moins utiles dans les cas où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont les suggestions d'IA utilisent vos données dans Jira Service Management. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, les suggestions d'IA appliquent les mesures suivantes :
|
L'automatisation à l'aide d'Atlassian Intelligence est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles afin d'analyser les saisies en langage naturel et générer pour vous une règle d'automatisation dans Jira et Confluence. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les entraîner. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
La création de règles d'automatisation est au cœur de l'expérience d'automatisation quotidienne, et nous voulons vous faciliter la tâche en ajoutant Atlassian Intelligence au générateur de règles d'automatisation de Jira et Confluence. Vous pouvez désormais facilement créer des règles d'automatisation en saisissant et en décrivant ce que vous souhaitez automatiser, puis en laissant Atlassian Intelligence prendre en charge l'essentiel des tâches de création des règles. En savoir plus sur l'automatisation à l'aide d'Atlassian Intelligence pour Jira et fou Confluence. Nous estimons que l'automatisation avec Atlassian Intelligence pour Jira et Confluence est particulièrement adaptée à des situations dans lesquelles vous ne savez pas par où commencer, ou bien lorsque vous souhaitez accélérer le processus de création de règles. Vous ne savez pas comment créer une règle d'automatisation de manière optimale ?Les règles d'automatisation sont créées en combinant différents types de composants : déclencheurs, actions, conditions et branches. Vous pouvez vous représenter les composants comme différents éléments constitutifs d'une règle. Pour créer une règle avec succès via Atlassian Intelligence, votre règle doit au minimum contenir un déclencheur et une action. Par exemple : Dans Jira : Chaque lundi, identifiez toutes les tâches dont la date d'échéance est inférieure ou égale à 7 jours, puis envoyez un e-mail de rappel aux personnes responsables. Quand un ticket passe à l'état En cours de test, l'assigner à John Smith. Dans Confluence :
Par ailleurs, pour qu'une règle soit créée avec succès, tous ses composants doivent être pris en charge par l'automatisation avec Atlassian Intelligence. Cela signifie que tous les déclencheurs, toutes les actions, conditions ou branches de votre règle doivent être compatibles avec l'automatisation dans Jira et/ou Confluence. |
Il est important de se rappeler qu'en raison du fonctionnement propre aux modèles utilisés pour alimenter l'automatisation avec Atlassian Intelligence, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que l'automatisation avec Atlassian Intelligence était moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. L'automatisation avec Atlassian Intelligence ne fonctionnera qu'avec les composants d'automatisation disponibles dans Jira et Confluence. Il vous sera également utile d'être aussi précis que possible dans les demandes adressées à Atlassian Intelligence, tel que décrit ci-dessus. |
Vous avez probablement des questions sur la façon dont l'automatisation avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, Atlassian Intelligence pour l'automatisation Confluence applique les mesures suivantes :
Tous les fournisseurs de LLM tiers sont des sous-traitants et sont répertoriés comme tels sur notre page consacrée aux sous-traitants. Ils n'utilisent pas vos contributions et résultats à d'autres fins que le traitement de votre demande. Cette fonctionnalité respecte les autorisations de votre instance. Par exemple, si vous n'avez pas accès à un projet ou à une page spécifique, la réponse que vous recevrez ne vous suggèrera pas de contenu de ces actifs. Si vous ne voulez pas que votre contenu soit disponible en réponse aux autres utilisateurs de votre instance, demandez à l'administrateur de votre organisation de vérifier que vos autorisations sont correctement définies. |
Regroupement des alertes
Le regroupement d'alertes par Atlassian Intelligence est optimisé par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces modèles incluent un algorithme conçu pour identifier des modèles dans les données d'alerte, ainsi que les séries de modèles GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles d'apprentissage machine pour analyser et générer des groupes d'alertes et proposer des suggestions connexes (anciens groupes d'alertes et anciens intervenants en cas d'alertes) au sein de nos produits en fonction de la similitude du contenu des alertes ou des tags utilisés. Atlassian Intelligence utilise ensuite de grands modèles linguistiques pour analyser et générer des descriptions et du contenu en langage naturel pour ces groupes dans nos produits. Ces grands modèles linguistiques génèrent des réponses en fonction de vos saisies et sont probabilistes. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Le regroupement des alertes utilise Atlassian Intelligence pour identifier et regrouper les alertes similaires. Il vous aide également en identifiant et en recommandant d'anciens groupes d'alertes similaires et d'anciens intervenants (ou équipes d'intervenants) en cas d'alertes, en fonction de la similitude sémantique du contenu des alertes ou des tags utilisés. Lorsque vous souhaitez transformer le groupe d'alertes en incident, le regroupement des alertes prérenseigne également toutes les informations contextuelles que vous pourrez consulter dans le cadre du processus de création de l'incident. Nous pensons que le regroupement des alertes fonctionne mieux dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter le regroupement des alertes, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Dans le cas des groupes d'alertes que vous voyez, ils ne reflètent peut-être pas exactement la similitude sémantique de leurs tags. Nous avons découvert que le regroupement des alertes est moins utile dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Envisagez également de vous assurer que vous et votre équipe suiviez des pratiques cohérentes en matière d'utilisation des tags d'alerte. |
Vous avez probablement des questions sur la façon dont le regroupement des alertes utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
Nous traitons les données de vos alertes pour créer une version du modèle d'apprentissage machine afin de reconnaître des modèles spécifiques à vos alertes. Cette version n'est utilisée que dans le cadre de votre expérience :
En ce qui concerne vos données, le regroupement des alertes applique les mesures suivantes.
|
Les résumés de pages et de billets de blog à l'aide d'Atlassian Intelligence sont optimisés par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Gagnez du temps et obtenez les informations dont vous avez besoin pour travailler plus rapidement en générant un résumé rapide d'une page ou d'un blog Confluence avec Atlassian Intelligence. En savoir plus sur l'utilisation d'Atlassian Intelligence dans Confluence. Nous pensons que le fait de résumer les pages et les blogs à l'aide d'Atlassian Intelligence est la meilleure solution dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour résumer les pages et les blogs à l'aide d'Atlassian Intelligence, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Bien que nous améliorions la prise en charge des macros, des tableaux et des extensions dans le cadre des résumés, nous estimons que le résumé de pages et de blogs via Atlassian Intelligence présente une utilité moindre dans les scénarios suivants :
Nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont Atlassian Intelligence utilise vos données pour l'automatisation Confluence. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la fonction de résumé de pages et de blogs dans Confluence à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
Définir des termes avec Atlassian Intelligence
La définition de termes à l'aide d'Atlassian Intelligence dans Confluence et Jira est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer des réponses en langage naturel dans Confluence et Jira. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
L'un des plus grands défis liés à la consommation de contenu dans Confluence et Jira implique de trouver le contexte dont vous avez besoin pour comprendre ce que vous lisez. Les abréviations, les acronymes, les termes inconnus et les noms spécifiques à une équipe ou à un projet peuvent donner lieu à une longue recherche pour trouver les informations nécessaires. La définition des termes à l'aide d'Atlassian Intelligence permettra de définir les termes spécifiques à l'entreprise (tels que les acronymes et les noms de projets, de systèmes ou d'équipes) sur une page de Confluence ou dans la description d'un ticket dans Jira. Cela fournit aux utilisateurs les informations dont ils ont besoin, quand ils en ont besoin, tout en aidant les équipes à mieux travailler ensemble. Atlassian Intelligence peut vous faire gagner du temps en définissant ces éléments pour vous, directement depuis le contenu que vous lisez. Si une définition vous semble inexacte, vous pouvez la modifier ou en ajouter une nouvelle, puis définir la visibilité pour cette page ou ce ticket, l'ensemble de l'espace ou du projet, ou l'accès à l'ensemble de votre organisation. Nous pensons que la définition de termes à l'aide d'Atlassian Intelligence dans Confluence et Jira fonctionne mieux dans les scénarios où :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour définir des termes avec Atlassian Intelligence dans Confluence, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la définition de termes à l'aide d'Atlassian Intelligence dans Confluence était moins utile dans les scénarios où :
De plus, nous avons également découvert que, du fait que la définition de termes à l'aide d'Atlassian Intelligence repose sur la recherche dans Confluence, la fonctionnalité ne fonctionnera dans Jira que si vous disposez de l'autorisation de consulter une instance Confluence sur le même site que la vôtre. Il est également possible que la définition de termes à l'aide d'Atlassian Intelligence ne fonctionne pas comme prévu dans les instances Confluence ou Jira qui hébergent des documents écrits en plusieurs langues. |
Vous avez probablement des questions sur la façon dont la définition de termes avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la définition de termes à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
IA générative dans l'éditeur
Atlassian Intelligence dans les expériences d'édition est optimisé par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Atlassian Intelligence contribue à une communication efficace entre toutes les équipes d'une organisation afin d'améliorer l'efficacité, la prise de décisions et les processus. Nous pensons que l'utilisation d'Atlassian Intelligence dans des expériences d'édition fonctionne mieux dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter Atlassian Intelligence dans les expériences d'édition, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que l'utilisation d'Atlassian Intelligence dans des expériences d'édition était moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont Atlassian Intelligence utilise vos données dans les expériences d'édition. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, les réponses d'Atlassian Intelligence dans les expériences d'édition appliquent les mesures suivantes :
|
Le reformatage de tickets s'appuie sur les grands modèles de langage développés par OpenAI, notamment la série de modèles GPT d'OpenAI. Atlassian Intelligence utilise ce modèle pour analyser et générer du langage naturel dans Jira. Ces modèles génèrent des réponses en fonction de vos contributions et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI. |
Le reformatage de tickets permet de clarifier les descriptions de vos tickets Jira en les reformatant à l'aide d'un modèle développé par Atlassian. Ce modèle couvre les types d'informations que l'on s'attend généralement à trouver dans une description de ticket Jira, comme une user story, le contexte du travail et les critères d'acceptation. Nous pensons que le reformatage de tickets fonctionne de manière optimale lorsque les descriptions de vos tickets contiennent déjà des informations utiles (telles que des critères d'acceptation ou des liens vers des sources), mais que ces informations ne sont pas formatées selon une structure claire ou cohérente. |
Il est important de se rappeler qu'en raison de leur fonctionnement, les modèles qui alimentent le reformatage de tickets peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, votre description reformatée ne reflète peut-être pas exactement le contenu sur lequel elle est basée, ou elle peut inclure des détails qui semblent raisonnables, mais qui sont faux ou incomplets. Nous avons constaté que le reformatage de tickets est moins utile dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à toujours évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Vous pouvez également penser à vérifier que la description de vos tickets inclut toutes les informations pertinentes avant de commencer à utiliser le reformatage de tickets pour les reformater. |
Vous avez probablement des questions sur la façon dont le reformatage de tickets utilise vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, le reformatage de tickets applique les mesures suivantes :
|
Résumer les informations de tickets dans Jira Service Management
Le résumé des informations des tickets à l'aide d'Atlassian Intelligence est optimisé par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Au lieu de parcourir de longues descriptions et une multitude de commentaires concernant un ticket Jira Service Management, vous pouvez utiliser Atlassian Intelligence afin d'obtenir rapidement un résumé de ces informations. Cela permet aux agents de comprendre rapidement le contexte du ticket et l'avancement réalisé, ce qui leur permet d'agir rapidement et de fournir un support rapide. Nous pensons que le fait de résumer les informations des tickets à l'aide d'Atlassian Intelligence est la meilleure solution pour :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour résumer les informations des tickets à l'aide d'Atlassian Intelligence, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert qu'il est moins utile de résumer les informations du ticket à l'aide d'Atlassian Intelligence dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. |
Vous avez peut-être des questions sur la façon dont le résumé des informations de tickets avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, le résumé d'informations de tickets à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
IA générative dans l'éditeur
Le résumé des liens intelligents à l'aide d'Atlassian Intelligence (AI) est optimisé par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Après avoir survolé un lien intelligent dans Jira, Confluence ou Google Docs, Atlassian Intelligence peut vous aider à obtenir un résumé du contenu, ce qui vous éclaire sur la pertinence et la valeur du lien, et vous permet de décider de votre prochaine action. Vous n'avez donc ni besoin de quitter la page en cours ni de changer de contexte. Nous pensons que l'option de Résumé des liens intelligents avec l'IA fonctionne mieux dans les scénarios où :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter les Résumés des liens intelligents avec l'IA, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les résumés que vous recevez peuvent ne pas refléter exactement le contenu sur lequel ils sont basés ou inclure du contenu qui semble raisonnable, mais qui en réalité est faux ou incomplet. Nous avons découvert que l'option de Résumer les liens intelligents avec l'IA est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. |
Vous avez peut-être des questions sur la façon dont le résumé des informations de tickets avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, le Résumé des liens intelligents avec l'IA applique les mesures suivantes.
|
Réponses d'Atlassian Intelligence dans Jira Service Management
L'agent de service virtuel de Jira Service Management est alimenté par d'importants modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par de puissants modèles de langage open source (notamment la série Llama, la série Phi et la série Mixtral) et d'autres modèles d'apprentissage automatique. L'agent de service virtuel utilise ces modèles de la façon suivante :
Fonctionnement des LLM : les LLM génèrent des réponses en fonction de vos contributions et sont de nature probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Les LLM utilisés pour alimenter l'agent de service virtuel incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
L'agent de service virtuel aide les équipes à automatiser les interactions de support de tier 1, grâce à un moteur Atlassian Intelligence conversationnel qui analyse et comprend les intentions, le contexte et les autorisations afin de personnaliser les interactions. À l'aide d'Atlassian Intelligence, l'agent de service virtuel aide les équipes à faire évoluer leurs centres de services et à satisfaire leurs clients grâce à trois fonctionnalités clés :
L'agent de service virtuel est disponible dans de nombreux canaux, notamment Slack, Microsoft Teams, le portail Jira Service Management, et bien plus encore. En savoir plus sur les canaux disponibles pour l'agent de service virtuel Nous pensons que l'agent de service virtuel fonctionne mieux dans ces scénarios :
|
Il est important de se rappeler qu'en raison de leur fonctionnement, les modèles utilisés pour alimenter l'agent de service virtuel peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que l'agent de service virtuel est moins utile dans ces scénarios :
Nous vous encourageons à réfléchir aux situations dans lesquelles vous utiliseriez Atlassian Intelligence et à examiner les performances de l'agent de service virtuel avant de l'activer pour vos clients. En savoir plus sur l'amélioration des performances de votre agent de service virtuel Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont l'agent de service virtuel de Jira Service Management utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, l'agent de service virtuel applique les mesures suivantes :
|
Résumer les informations de tickets à l'aide d'Atlassian Intelligence
La fonctionnalité Résumés AI dans Jira repose sur des LLM développés par OpenAI. Ces modèles incluent les modèles OpenAI décrits ici. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les entraîner. Pour en savoir plus sur les capacités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. |
Au lieu de parcourir de longues descriptions et une multitude de commentaires concernant un ticket Jira, vous pouvez utiliser Atlassian Intelligence pour bénéficier rapidement d'un résumé de ces informations. Cela permet aux agents de comprendre rapidement le contexte du ticket et l'avancement réalisé, et ainsi d'agir rapidement et de fournir un support rapide. Nous pensons que le fait de résumer les informations des tickets à l'aide d'Atlassian Intelligence est la solution idéale pour les tickets comportant un grand nombre de commentaires et/ou de longs commentaires et descriptions. |
Il est important de se rappeler qu'en raison de leur fonctionnement, les modèles qui alimentent les résumés AI dans Jira peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert qu'il est moins utile de résumer les informations du ticket à l'aide d'Atlassian Intelligence dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. |
Vous avez peut-être des questions sur la façon dont la fonctionnalité Résumé des informations de ticket à l'aide d'Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, le résumé d'informations de tickets à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
Répartition du travail par l'IA
La fonctionnalité Résumé du travail par l'IA repose sur des LLM développés par OpenAI. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Pour en savoir plus sur les capacités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. |
La fonctionnalité Répartition du travail par l'IA suggère des tickets enfant en fonction d'un ticket Jira que vous avez créé, ce qui permet de décomposer facilement les tâches volumineuses en tâches plus petites. Votre ticket est utilisé comme contexte pour générer des suggestions pour les résumés et descriptions de tickets enfant. Nous pensons que la fonctionnalité Répartition du travail par l'IA fonctionne mieux dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison de leur fonctionnement, les modèles utilisés pour alimenter la fonctionnalité Répartition du travail par l'IA peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la fonctionnalité Répartition du travail par l'IA est moins utile dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont la fonctionnalité Répartition du travail par l'IA utilise vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, la fonctionnalité Répartition du travail par l'IA applique les mesures suivantes.
|
Utilisez l'IA pour passer à l'action
Sélectionnez une fonctionnalité Atlassian Intelligence ci-dessous pour avoir un aperçu transparent des cas d'usage et de l'utilisation des données.
La création d'incidents basée sur l'IA à l'aide d'Atlassian Intelligence est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de ce que vous saisissez et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les entraîner. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Lorsque vous requalifiez une ou plusieurs alertes, ou un ou plusieurs groupes d'alertes en incident dans Jira Service Management, la fonctionnalité de création d'incident avec l'IA utilise Atlassian Intelligence pour préremplir rapidement toutes les informations contextuelles afin que vous puissiez les consulter dans le cadre du processus de création de l'incident. Cela permet aux utilisateurs de comprendre rapidement le contexte de l'incident créé à partir de ces alertes ou de ces groupes d'alertes, mais aussi de vérifier et de confirmer les informations préremplies, y compris le titre, la description et la priorité de l'alerte lorsqu'elle est requalifiée en incident. Nous pensons que la fonctionnalité de création d'incident avec l'IA fonctionne mieux dans les scénarios où :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour optimiser la fonctionnalité de création d'incident avec l'IA, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la fonctionnalité de création d'incident avec l'IA est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Pour obtenir les résultats les plus utiles, nous vous conseillons d'être aussi précis que possible dans ce que vous demandez à Atlassian Intelligence. Il vous sera également utile d'être aussi précis que possible dans les demandes adressées à Atlassian Intelligence. |
Vous avez probablement des questions sur la façon dont la fonctionnalité de création d'incident avec l'IA utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la fonctionnalité de création d'incident avec l'IA applique les mesures suivantes.
|
Créer une revue post-incident
La fonctionnalité de création de revue post-incident (PIR) par Atlassian Intelligence s'appuie sur de grands modèles de langage (LLM) développés par OpenAI. Ces LLM incluent la série de modèles GPT d'OpenAI. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de ce que les utilisateurs saisissent et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les entraîner. Pour en savoir plus sur les capacités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. |
Les PIR jouent un rôle central dans le processus de gestion des incidents, car elles aident les intervenants sur l'incident et les responsables à tirer les leçons des incidents actuels et à transmettre des informations afin d'éviter que des incidents similaires ne se reproduisent à l'avenir. Atlassian Intelligence (AI) contribue à accélérer la tâche souvent fastidieuse de compilation de PIR en vous proposant une description de la PIR basée sur les informations contextuelles pertinentes de votre instance Jira Service Management et des outils de chat tels que Slack. Il ne vous reste ensuite qu'à la vérifier. Nous pensons que la fonctionnalité Créer une revue post-incident avec AI fonctionne mieux dans les scénarios où :
|
Il est important de se rappeler qu'en raison de leur fonctionnement, les modèles utilisés pour alimenter la création de PIR peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la création de PIR est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont la fonctionnalité Créer une revue post-incident avec AI utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la fonctionnalité de création de PIR avec AI applique les mesures suivantes :
|
Générez des descriptions de pull requests avec Atlassian Intelligence
La génération de descriptions de pull requests à l'aide d'Atlassian Intelligence est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel et du code dans nos produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Atlassian Intelligence peut vous aider à générer, transformer et résumer du contenu pendant que vous rédigez des descriptions de pull requests ou des commentaires dans le cadre de l'expérience de revue de code Bitbucket Cloud. Ceci inclut :
Nous pensons que la génération de descriptions de pull requests Bitbucket Cloud avec Atlassian Intelligence fonctionne mieux dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter ce travail sur les fonctionnalité, ils peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la génération de descriptions de pull requests Bitbucket Cloud à l'aide d'Atlassian Intelligence était moins utile dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont la définition de termes avec Atlassian Intelligence dans Confluence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la génération de descriptions de pull requests à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
Générer des requêtes SQL dans Atlassian Analytics
La génération de requêtes SQL à l'aide d'Atlassian Intelligence dans Atlassian Analytics est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et comprendre le langage naturel, puis le traduit en langage de requête structuré (SQL) dans Atlassian Analytics. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Posez une question à Atlassian Intelligence en langage naturel et faites-la traduire en requête SQL, plutôt que d'écrire entièrement vos propres requêtes SQL. Lorsque vous lui avez posé une question, Atlassian Intelligence utilise le schéma Atlassian Data Lake de la source de données sélectionnée pour générer une requête SQL qui peut être utilisée pour créer des graphiques dans vos tableaux de bord Atlassian Analytics et qui peut également vous aider à en savoir plus sur le schéma dans le Data Lake (lac de données). Nous pensons que la génération de requêtes SQL à l'aide d'Atlassian Intelligence fonctionne mieux dans les scénarios où :
Je ne sais pas quelles questions poser ?Voici quelques suggestions :
|
Il est important de se rappeler qu'en raison du fonctionnement propre aux modèles utilisés pour générer des requêtes SQL à l'aide d'Atlassian Intelligence, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la génération de requêtes SQL à l'aide d'Atlassian Intelligence était moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont la génération de requêtes SQL avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la génération de requêtes SQL à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
Rechercher des réponses dans Confluence
La recherche de réponses dans Confluence à l'aide d'Atlassian Intelligence est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Les bases de connaissances se développent trop vite pour que les utilisateurs puissent suivre le rythme. La recherche de réponses dans Confluence à l'aide d'Atlassian Intelligence permet d'accéder plus rapidement aux informations clés dont les clients ont besoin afin de faire avancer leur travail. Cette fonctionnalité vous permet de trouver facilement les informations dont vous avez besoin. Elle comprend les types de questions que vous poseriez à un collègue et y répond instantanément. Plus d'informations sur l'utilisation d'Atlassian Intelligence pour rechercher des réponses dans Confluence. Nous estimons que la recherche de réponses dans Confluence à l'aide d'Atlassian Intelligence fonctionne au mieux lorsque votre site Confluence propose du contenu détaillé, complet et actualisé. Cette fonctionnalité ne génère pas de nouveau contenu, mais permet de parcourir les pages et les blogs de Confluence, dans le respect des restrictions, afin de trouver la réponse à votre question. Atlassian Intelligence génère des réponses basées uniquement sur le contenu de votre Confluence, et sur ce à quoi vous avez spécifiquement accès. Je ne sais pas quelles questions poser ?Voici quelques suggestions :
|
Vous avez probablement des questions sur la façon dont la recherche de réponses dans Confluence avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la recherche de réponses dans Confluence à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
Rechercher des tickets dans Jira
La recherche de tickets à l'aide d'Atlassian Intelligence dans Jira est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et comprendre le langage naturel, puis le traduit en code Jira Query Language (JQL) à l'intérieur de nos produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Vous pouvez désormais demander à Atlassian Intelligence ce que vous désirez en langage courant au lieu d'envoyer des requêtes complexes. En recherchant des tickets avec Atlassian Intelligence, votre message sera traduit en une requête JQL qui vous permettra de rechercher rapidement des problèmes spécifiques. Nous pensons que la recherche de tickets à l'aide d'Atlassian Intelligence fonctionne mieux dans les scénarios où :
|
Il est important de rappeler qu'en raison du fonctionnement propre aux modèles utilisés pour rechercher des tickets à l'aide d'Atlassian Intelligence, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la recherche de tickets à l'aide d'Atlassian Intelligence était moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Il vous sera également utile d'être aussi précis que possible dans les demandes adressées à Atlassian Intelligence. Veillez à inclure les champs et les valeurs exacts que vous recherchez. |
Vous avez probablement des questions sur la façon dont la recherche de tickets avec Atlassian Intelligence utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la recherche de tickets à l'aide d'Atlassian Intelligence applique les mesures suivantes :
|
Répartition du travail par l'IA
La fonctionnalité Résumé du travail par l'IA repose sur des LLM développés par OpenAI. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Pour en savoir plus sur les capacités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. |
La fonctionnalité Répartition du travail par l'IA suggère des tickets enfant en fonction d'un ticket Jira que vous avez créé, ce qui permet de décomposer facilement les tâches volumineuses en tâches plus petites. Votre ticket est utilisé comme contexte pour générer des suggestions pour les résumés et descriptions de tickets enfant. Nous pensons que la fonctionnalité Répartition du travail par l'IA fonctionne mieux dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison de leur fonctionnement, les modèles utilisés pour alimenter la fonctionnalité Répartition du travail par l'IA peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que la fonctionnalité Répartition du travail par l'IA est moins utile dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont la fonctionnalité Répartition du travail par l'IA utilise vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, la fonctionnalité Répartition du travail par l'IA applique les mesures suivantes.
|
La fonctionnalité Thèmes suggérés dans la base de connaissances est optimisée par de grands modèles de langage (LLM) développés par OpenAI et Anthropic, ainsi que par une combinaison de modèles de langage open source basés sur des transformateurs et d'autres modèles d'apprentissage machine. Ces LLM incluent la série de modèles GPT d'OpenAI et la série de modèles Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Les modèles d'encodeurs open source convertissent vos entrées textuelles en formulaires numériques (intégrations), qui sont utilisés pour identifier et définir des thèmes à partir de vos contributions. Ces grands modèles de langage génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Découvrez-en plus sur les fonctionnalités des modèles d'OpenAI et d'Anthropic. Pour plus d'informations sur les modèles de langage open source, consultez les informations sur Multi-QA-miniLM et E5-Multilingual. |
Cette fonctionnalité aide les administrateurs et les agents à comprendre les lacunes de leur base de connaissances en analysant les demandes de service reçues dans le cadre d'un projet. Elle met clairement en avant les thèmes sur lesquels les personnes en quête d'aide créent des demandes (sur la base des données des 30 derniers jours), mais pour lesquels aucune connaissance n'est disponible. En suggérant des thèmes, nous souhaitons permettre aux administrateurs de projet et aux agents de déterminer le nombre de demandes pouvant être redirigées (ou du moins résolues) grâce aux connaissances disponibles. Nous pensons que l'augmentation du nombre d'articles de connaissances influencera les performances des autres fonctionnalités de Jira Service Management, telles que les réponses AI de l'agent de service virtuel. Lorsque des administrateurs ou des agents créent des articles sur la fonctionnalité Thèmes suggérés, cela peut également contribuer à améliorer le taux de résolution des demandes résolues à l'aide des réponses AI. Nous pensons que les thèmes suggérés fonctionnent mieux dans les scénarios suivants :
|
Il est important de se rappeler qu'en raison de leur mode de fonctionnement, les modèles utilisés pour optimiser la fonctionnalité Thèmes suggérés dans la base de connaissances peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons constaté que la fonctionnalité Thèmes suggérés dans la base de connaissances est moins utile dans les scénarios suivants :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont les thèmes suggérés utilisent vos données. Cette section complète les informations disponibles dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, la fonctionnalité Thèmes suggérés dans la base de connaissances applique les mesures suivantes. Les thèmes suggérés pour vous dans la base de connaissances :
|
Obtenez des informations instantanées à partir de vos données
Sélectionnez une fonctionnalité Atlassian Intelligence ci-dessous pour avoir un aperçu transparent des cas d'usage et de l'utilisation des données.
Chart Insights
Chart Insights est optimisé par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Chart Insights utilise Atlassian Intelligence pour vous aider à mieux comprendre les données des graphiques dans Atlassian Analytics. Pour ce faire, il utilise le titre du tableau de bord, le titre du graphique et les données du graphique (y compris les en-têtes de colonne et les valeurs des lignes) pour générer un résumé en langage naturel de ce graphique et de ses données. Il visera également à identifier les tendances ou les anomalies afin de vous donner un aperçu de ce graphique. Nous pensons que Chart Insights fonctionne mieux dans les scénarios où :
Les graphiques à barres, les diagrammes linéaires et les graphiques mêlant ces deux modalités fonctionnent mieux avec cette fonctionnalité, car ils contiennent généralement des tendances, des dates et de nombreuses lignes de données. |
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour alimenter le travail de Chart Insights, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que Chart Insights est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont Chart Insights utilise vos données. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, Chart Insights applique les mesures suivantes.
|
Suggérer des types de demandes dans Jira Service Management
La suggestion de types de demandes à l'aide d'Atlassian Intelligence est optimisée par de grands modèles de langage développés par OpenAI, Google et Anthropic, ainsi que par une combinaison de grands modèles de langage open source (dont les séries Llama, Phi et Mixtral) et d'autres modèles d'apprentissage machine. Ces grands modèles de langage incluent les séries GPT d'OpenAI, Gemini de Google et Claude d'Anthropic. Atlassian Intelligence utilise ces modèles afin d'analyser les saisies en langage naturel et générer pour vous des recommandations concernant les noms et les descriptions des types de demande dans Jira Service Management. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. En savoir plus sur les fonctionnalités des modèles d'OpenAI, de Google et d'Anthropic. Pour plus d'informations sur les modèles linguistiques open source, consultez les informations sur les séries Llama et Phi. |
Passez moins de temps à réfléchir aux types de demande qu'il vous faut créer dans votre projet en bénéficiant de suggestions proposées par Atlassian Intelligence. Décrivez simplement vos activités ainsi que ce que gère votre équipe habituellement, afin de voir les types de demande que vous pourriez créer. Sélectionnez l'une des suggestions générées par Atlassian Intelligence afin de créer un type de demande. En savoir plus sur l'utilisation d'Atlassian Intelligence pour suggérer des types de demande. Nous pensons que l'utilisation d'Atlassian Intelligence pour suggérer des types de demande fonctionne au mieux dans les scénarios où :
|
Il est important de rappeler qu'en raison du fonctionnement propre aux modèles utilisés pour suggérer des types de demande à l'aide d'Atlassian Intelligence, ces modèles peuvent parfois se comporter de manière inexacte, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que l'utilisation d'Atlassian Intelligence pour suggérer des types de demande est moins utile dans les scénarios où :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. Considérez également les points suivants :
|
Vous avez probablement des questions sur la façon dont Atlassian Intelligence utilise vos données lors de la suggestion de types de demande. Cette section complète les informations disponibles sur notre page de FAQ. Ce que nous traitons :
En ce qui concerne vos données, la fonction de suggestion de types de demande d'Atlassian Intelligence applique les mesures qui suivent.
|
Suggérer des types de demandes dans Jira Service Management
L'outil de synthèse des domaines prioritaires est optimisé par les grands modèles de langage développés par OpenAI. Ils comprennent les modèles d'OpenAI décrits ici. Atlassian Intelligence utilise ces modèles pour analyser et générer du langage naturel dans ses produits. Ces modèles génèrent des réponses en fonction de vos entrées et suivent une approche probabiliste. En d'autres termes, ils génèrent leurs réponses en prédisant le mot ou le texte suivant le plus probable, sur la base des données qui ont permis de les former. Pour en savoir plus sur les capacités des modèles d'OpenAI ou sur cette approche, consultez les articles de recherche d'OpenAI. |
L'outil de synthèse des domaines prioritaires, optimisé par Atlassian Intelligence, est conçu pour fournir aux utilisateurs des informations rapides et exploitables sur leurs priorités stratégiques. Il donne un aperçu clair de l'évolution de vos stratégies et de vos priorités, cerne les domaines qui nécessitent une attention particulière et met en évidence les risques qui pourraient avoir une incidence sur vos objectifs, votre travail et vos équipes. Principaux avantages pour les cadres et les responsables d'entreprise :
|
Il est important de se rappeler qu'en raison du fonctionnement des modèles utilisés pour optimiser l'outil, ces derniers peuvent parfois se comporter de manière inadaptée, incomplète ou peu fiable. Par exemple, les réponses que vous recevrez peuvent ne pas refléter exactement le contenu sur lequel elles sont basées ou inclure du contenu qui semble raisonnable, mais qui est faux ou incomplet. Nous avons découvert que l'outil de synthèse des domaines prioritaires est d'utilité moindre quand :
C'est pourquoi nous vous encourageons à réfléchir aux situations dans lesquelles vous utilisez Atlassian Intelligence et à évaluer la qualité des réponses reçues avant de les partager avec d'autres personnes. |
Vous avez probablement des questions sur la façon dont l'outil de synthèse des domaines prioritaires utilise vos données. Cette section complète les informations figurant dans notre Trust Center. Ce que nous traitons :
En ce qui concerne vos données, l'outil de synthèse des domaines prioritaires applique les mesures suivantes.
|
En savoir plus sur Atlassian Intelligence
Références
Recevez des mises à jour en temps réel sur l'état des produits Atlassian sur notre page d'état dédiée.
En savoir plus sur Atlassian Intelligence
Découvrez comment Atlassian gère les données clients.