Close

Atlassian Intelligence steht für Transparenz

Unser Engagement für offene Kommunikation, Verantwortungsbewusstsein und Unterstützung von Teams zur verantwortungsvollen KI-Nutzung.

Atlassian Intelligence wurde entwickelt, um Teamarbeit zu beschleunigen. Und so wie mit der Arbeitsweise deines Teams musst du dich auch mit Atlassian Intelligence vertraut machen, um es optimal nutzen zu können. Auf dieser Seite erklären wir, wie unsere KI-gestützten Produkte und Features funktionieren, einschließlich ihrer Möglichkeiten und Einschränkungen und wie sie zur Gestaltung unserer Produkte beitragen. Die Informationen auf dieser Seite sollen dir helfen, den größtmöglichen Nutzen aus unseren Produkten zu gewinnen und deine Teamarbeit zu optimieren. Um mehr über unser Engagement für die verantwortungsvolle Entwicklung von Technologie zu erfahren, sieh dir unsere Prinzipien für verantwortungsvolle Technologie an.

Warnungsgruppierung

So nutzt die Warnungsgruppierung Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Die Warnungsgruppierung von Atlassian Intelligence basiert auf großen Sprachmodellen, die von OpenAI und anderen Modellen für maschinelles Lernen entwickelt wurden. Dazu zählen die hier beschriebenen OpenAI-Modelle.

Atlassian Intelligence verwendet diese Modelle für maschinelles Lernen, um Warnungsgruppen zu analysieren und zu generieren und entsprechende Vorschläge (frühere Warnungsgruppen und Reagierende) innerhalb unserer Produkte zu unterbreiten, die auf der Ähnlichkeit des Warnmeldungsinhalts oder der verwendeten Tags basieren. Atlassian Intelligence verwendet dann große Sprachmodelle, um Beschreibungen und Inhalte in natürlicher Sprache für diese Gruppen in unseren Produkten zu analysieren und zu generieren.

Diese großen Sprachmodelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Lies mehr über die Funktionen der OpenAI-Modelle oder informiere dich in den OpenAI-Forschungsberichten über den Ansatz.

Anwendungsfälle für die Warnungsgruppierung Copy link to heading Copied! Anzeigen
  

Die Warnungsgruppierung verwendet Atlassian Intelligence, um ähnliche Warnmeldungen zu identifizieren und zu gruppieren. Außerdem unterstützt dich die Funktion, indem sie frühere ähnliche Warnungsgruppen und Reagierende (oder entsprechende Teams) identifiziert und vorschlägt, basierend auf der semantischen Ähnlichkeit des Warnmeldungsinhalts oder der verwendeten Tags.

Wenn du die Warnungsgruppe zu einem Vorfall eskalieren möchtest, füllt die Warnungsgruppierung auch alle Kontextinformationen vorab aus. Im Rahmen der Vorfallerstellung kannst du diese dann überprüfen.

Die Warnungsgruppierung funktioniert am besten in den folgenden Szenarien:

  • Deine Organisation stößt häufig auf Muster ähnlicher oder doppelter Warnmeldungen, die in großer Anzahl auftreten, unabhängig davon, ob sie über einen kurzen Zeitraum oder über einen längeren Zeitraum erfasst werden.
  • Deine Organisation kategorisiert Warnmeldungen durchgängig anhand von Tags.
  • Dein Team ist oft der Meinung, dass ähnliche oder doppelte Warnmeldungen zu Vorfällen eskaliert werden sollten.
Überlegungen bei der Verwendung der Warnungsgruppierung Copy link to heading Copied! Anzeigen
  

Die Modelle zur Verwendung dieser Funktion können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind. Die Warnungsgruppen, die dir angezeigt werden, entsprechen möglicherweise nicht genau der semantischen Ähnlichkeit der zugehörigen Tags.

Wir haben festgestellt, dass die Warnungsgruppierung in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du benötigst die Warnungsgruppierung, um Zugriff auf Informationen zu erhalten, die dir zur Gruppierung der Warnmeldungen nicht ohne Weiteres zur Verfügung stehen. Die Warnungsgruppierung funktioniert innerhalb der Grenzen der konfigurierten Rollen und Berechtigungen deines Teams, sodass du nur Zugriff auf Gruppen und Einblicke für Warnmeldungen hast, die du auch aufrufen kannst.
  • Die von deinem Team verwendeten Warnungs-Tags sind nicht einheitlich oder gut gepflegt. Da die Warnungsgruppierung Warnmeldungen auf der Grundlage der semantischen Ähnlichkeit von Warnungstiteln und -Tags gruppiert, hängt die Qualität der generierten Warnungsgruppen von der Konsistenz und Fehlerfreiheit der von deinem Team und deiner Organisation verwendeten Warnungs-Tags.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Außerdem solltest du sicherstellen, dass du und dein Team einheitliche Verfahren bei der Verwendung von Warnungs-Tags befolgen.

Deine Daten und die Warnungsgruppierung Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie die Warnmeldungsgruppierung deine Daten verwendet. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für dein Prompt relevant ist, z. B. deine Warnmeldungsdaten (Warnungstitel, Warnungs-Tags, Priorität, verantwortliche Teams, Beschreibung).
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Wir verarbeiten deine Warnmeldungsdaten, um eine Version des Modells für maschinelles Lernen dafür zu trainieren, spezifische Muster in deinen Warnmeldungen zu erkennen. Diese Version wird nur verwendet, um dein Erlebnis zu verbessern:

  • Wir speichern die identifizierten Muster, um dir Einblicke zu gewähren.
  • Wir verwenden deine Warnmeldungsdaten nicht, um große Sprachmodelle zu trainieren.

In Bezug auf deine Daten wendet die Warnungsgruppierung folgende Maßnahmen an:

  • Deine Ein- und Ausgaben:
    • Sie werden nicht anderen Kunden zur Verfügung gestellt.
    • Werden nicht von OpenAI gespeichert.
    • Werden nicht zur Verbesserung von OpenAI-Modellen verwendet.
    • Werden nur verwendet, um dich zu unterstützen.
  • OpenAI ist ein Unterauftragsverarbeiter aus unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.
  • Diese Funktion richtet sich nach den Berechtigungen auf deiner Website. Wenn Atlassian Intelligence zum Beispiel 50 Warnmeldungen basierend auf ihren Tags und ihrer semantischen Ähnlichkeit gruppiert und du nur 30 davon aufrufen kannst, siehst du in der Gruppendetailansicht auch nur diese 30. Wenn du nicht möchtest, dass deine Warnmeldungen in Antworten für andere Benutzer deiner Site verfügbar sind, wende dich an deinen Organisations-/Site-Administrator, um die Berechtigungen richtig einzustellen.

Atlassian Intelligence-Antworten in Jira Service Management

Funktionsweise von Atlassian-Intelligence-Antworten in Jira Service Management Copy link to heading Copied! Anzeigen
  

Atlassian Intelligence-Antworten basieren auf großen Sprachmodellen, die von OpenAI entwickelt wurden. Dazu zählen die hier beschriebenen OpenAI-Modelle.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Lies mehr über die Funktionen der OpenAI-Modelle oder informiere dich in den OpenAI-Forschungsberichten über den Ansatz.

Anwendungsfälle für Atlassian-Intelligence-Antworten in Jira Service Management Copy link to heading Copied! Anzeigen
  

Die Funktion "Atlassian Intelligence-Antworten" kann mit dem virtuellen Service-Agenten in Jira Service Management verbunden werden. Sie nutzt künstliche Intelligenz, um in deinen verknüpften Wissensdatenbanken zu suchen und Kundenfragen zu beantworten.

Die Funktion "Atlassian Intelligence-Antworten" funktioniert am besten in folgenden Szenarien:

  • Du hast eine vollständige, aktuelle verlinkte Wissensdatenbank, auf die der virtuelle Service-Agent zugreifen kann, um mit Atlassian Intelligence-Antworten Kundenfragen zu beantworten.
  • Atlassian Intelligence-Antworten eignen sich für Kundenfragen, die folgende Merkmale haben:
    • Sie können durch die Bereitstellung von Informationen oder Anweisungen gelöst werden.
    • Sie werden in deinen vorhandenen Wissensdatenbank-Artikeln behandelt (oder können hinzugefügt werden).
    • Sie müssen in der Regel nicht an einen deiner Agenten eskaliert werden.
Erwägungen für die Verwendung von Atlassian Intelligence-Antworten in Jira Service Management Copy link to heading Copied! Anzeigen
  

Die Modelle zur Verwendung von Atlassian Intelligence-Antworten können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Verwendung von Atlassian Intelligence-Antworten in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du musst der Funktion "Atlassian Intelligence-Antworten" Zugriff auf Informationen gewähren, die dir nicht ohne Weiteres zur Verfügung stehen (z. B. in deiner verlinkten Wissensdatenbank), damit deine Anfrage richtig beantwortet werden kann.
  • Deine Wissensdatenbank ist veraltet oder unvollständig, weswegen Suchanfragen möglicherweise nicht hilfreich sind.
  • Die Artikel in deiner Wissensdatenbank liefern keine relevanten oder qualitativ hochwertigen Informationen. In diesem Fall kann es passieren, dass die Atlassian Intelligence-Antworten Kunden auf Basis dieser Artikel möglicherweise noch weniger relevante Informationen bieten.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • die proaktive Überprüfung und Aktualisierung deiner verknüpften Wissensdatenbank (und der darin enthaltenen Artikel), um sicherzustellen, dass sie vollständig und aktuell bleibt,
  • die proaktive Überprüfung der Berechtigungen und Einschränkungen, die für deine verknüpften Wissensdatenbankbereiche gelten. So stellst du sicher, dass Atlassian Intelligence-Antworten Zugriff auf die richtigen Informationen hat, damit sie auch nützlich sind.
Deine Daten und Atlassian Intelligence-Antworten in Jira Service Management Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie Atlassian Intelligence-Antworten in Jira Service Management deine Daten verwendet. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, wie deine verknüpften Wissensdatenbankbereiche.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.
  • Was deine Daten angeht, wendet Atlassian Intelligence-Antworten in Jira Service Management die folgenden Maßnahmen an:
  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Werden nicht von OpenAI gespeichert.
    • Werden nicht zur Verbesserung von OpenAI-Modellen verwendet.
    • Werden nur verwendet, um dich zu unterstützen.
  • OpenAI ist ein Unterauftragsverarbeiter aus unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.
  • Diese Funktion berücksichtigt die Berechtigungen und Einschränkungen, die für deine verknüpften Wissensdatenbankbereiche gelten. Das bedeutet, dass alle Seiten, die Kunden auf deinem Jira Service Management-Portal zur Verfügung stehen, über Atlassian Intelligence-Antworten verfügbar gemacht werden. Wenn zum Beispiel der Zugriff auf eine bestimmte Confluence-Seite eingeschränkt und diese nicht allgemein über Jira Service Management verfügbar ist, werden daraus keine Inhalte von Atlassian Intelligence-Antworten vorgeschlagen. Wenn du nicht möchtest, dass deine Inhalte in Antworten für andere Benutzer in deiner Instanz verfügbar sind, wende dich an deinen Organisationsadministrator, um die Berechtigungen entsprechend einzustellen.

Automatisierung mit Atlassian Intelligence

Anwendungsfälle für die Automatisierung mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Die Automatisierung mit Atlassian Intelligence basiert auf GPT-Modellen, die von OpenAI entwickelt wurden. Dazu zählen die hier beschriebenen OpenAI-Modelle.

Atlassian Intelligence verwendet diese Modelle, um Eingaben in natürlicher Sprache zu analysieren und für dich eine Automatisierungsregel in Jira und Confluence zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Lies mehr über die Funktionen der OpenAI-Modelle oder informiere dich in den OpenAI-Forschungsberichten über den Ansatz.

Anwendungsfälle für die Automatisierung mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Das Erstellen von Automatisierungsregeln steht bei täglichen Automatisierungsanwendungen im Mittelpunkt. Wir haben Atlassian Intelligence zum Automatisierungsregel-Builder in Jira und Confluence hinzugefügt, um diese Aufgabe für dich noch einfacher machen. Du kannst jetzt mühelos Automatisierungsregeln erstellen, indem du einfach eingibst und beschreibst, was du automatisieren möchtest. Die komplexe Erstellung der Regel kannst du dann Atlassian Intelligence überlassen. Erfahre mehr über Automatisierung mit Atlassian Intelligence für Jira und für Confluence.

Wir sind der Meinung, dass die Automatisierung mit Atlassian Intelligence für Jira und Confluence am besten in Situationen funktioniert, in denen du dir nicht sicher bist, wie du anfangen sollst, oder wenn du den Prozess der Regelerstellung beschleunigen möchtest.

Du bist dir nicht sicher, wie du am besten eine Automatisierungsregel erstellst?

Automatisierungsregeln werden aus einer Kombination verschiedener Arten von Komponenten erstellt: Trigger, Aktionen, Bedingungen und Branches. Stell dir Komponenten als die Bausteine einer Regel vor. Um mit Atlassian Intelligence erfolgreich eine Regel zu erstellen, muss diese mindestens einen Trigger und eine Aktion enthalten. Ein Beispiel:

In Jira:

Suche jeden Montag nach allen Tasks mit einem Fälligkeitsdatum in den nächsten sieben Tagen und sende der zugewiesenen Person eine E-Mail-Erinnerung.

Wenn ein Ticket in die Testphase verschoben wird, das Ticket John Smith zuweisen.

In Confluence:

  • Suche jeden Montag nach allen Tasks mit einem Fälligkeitsdatum in den nächsten sieben Tagen und sende der zugewiesenen Person eine E-Mail-Erinnerung.
  • Archiviere alle sechs Monate alle Seiten, die in dieser Zeit nicht aktualisiert wurden. Sende nach der Archivierung eine E-Mail an den Autor der Seite, um ihn darüber zu informieren.
  • Wenn eine Seite mit einer Produktspezifikation im Titel veröffentlicht wird, erstelle ein Jira-Ticket mit einem Link zu dieser Seite und bitte um deren Überprüfung.

Damit eine Regel erfolgreich erstellt werden kann, müssen außerdem alle ihre Komponenten von der Automatisierung mit Atlassian Intelligence unterstützt werden. Das bedeutet, dass alle Trigger, Aktionen, Bedingungen oder Branches in deiner Regel mit der Automatisierung in Jira und/oder Confluence kompatibel sein müssen.

Hinweise zur Automatisierung mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Bitte beachte, dass die Modelle, die zur Unterstützung der Automatisierung mit Atlassian Intelligence verwendet werden, unter Umständen ungenaue, unvollständige oder unzuverlässige Ergebnisse liefern können.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Die Automatisierung mit Atlassian Intelligence ist in folgenden Fällen weniger geeignet:

  • Du musst der Automatisierung mit Atlassian Intelligence Zugriff auf Informationen gewähren, die dir nicht ohne Weiteres zur Verfügung stehen (z. B. eine eingeschränkte Seite oder ein Projekt), um deine Anfrage richtig beantworten zu können.
  • Du musst einmalige Tasks bearbeiten.
  • Du musst Informationen aus deiner Wissensdatenbank abfragen.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Die Automatisierung mit Atlassian Intelligence funktioniert nur mit den vorhandenen verfügbaren Automatisierungskomponenten in Jira und Confluence.

Denke auch daran, dass du für Atlassian Intelligence möglichst spezifische Aufforderungen formulierst, wie oben beschrieben.

Deine Daten und Automatisierung mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie die Automatisierung mit Atlassian Intelligence deine Daten verwendet. Dieser Abschnitt ergänzt die Informationen aus unserem Trust Center.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deinen Prompt relevant ist, beispielsweise eine Confluence-Seite.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, werden für die Nutzung von Atlassian Intelligence für die Confluence-Automatisierung die folgenden Maßnahmen angewendet:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Werden nicht von OpenAI gespeichert.
    • Werden nicht zur Verbesserung von OpenAI-Modellen verwendet.
    • Werden nur verwendet, um dich zu unterstützen.

OpenAI ist ein Unterauftragsverarbeiter aus unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.

Diese Funktion richtet sich nach den Berechtigungen in deiner Instanz. Wenn du zum Beispiel keinen Zugriff auf ein bestimmtes Projekt oder eine bestimmte Seite hast, werden dir in der Antwort, die du erhältst, keine Inhalte aus diesen Ressourcen vorgeschlagen. Wenn du nicht möchtest, dass deine Inhalte in Antworten für andere Nutzer in deiner Instanz verfügbar sind, wende dich an deinen Organisationsadministrator, um die Berechtigungen richtig einzustellen.

Chart Insights

Wie Chart Insights Atlassian Intelligence nutzt Copy link to heading Copied! Anzeigen
  

Chart Insights basiert auf großen Sprachmodellen, die von OpenAI entwickelt wurden. Dazu zählen die hier beschriebenen OpenAI-Modelle.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, für ihre Antworten prognostizieren die Modelle anhand der Daten, mit denen sie trainiert wurden, welches Wort oder welcher Text wahrscheinlich als Nächstes folgt.

Lies mehr über die Funktionen der OpenAI-Modelle oder informiere dich in den OpenAI-Forschungsberichten über den Ansatz.

Anwendungsfälle für Chart Insights Copy link to heading Copied! Anzeigen
  

Chart Insights nutzt Atlassian Intelligence, um dir schnellere Dateneinblicke in Atlassian-Analytics-Diagrammen zu bieten. Dazu werden der Dashboard-Titel, der Diagrammtitel und die Diagrammdaten (einschließlich Spaltenüberschriften und Zeilenwerte) verwendet, um eine Zusammenfassung des Diagramms und der enthaltenen Daten in natürlicher Sprache zu generieren. Außerdem versucht es, Trends oder Anomalien zu identifizieren, um dir spezifische Einblicke in das Diagramm zu geben.

Chart Insights funktioniert am besten in den folgenden Szenarien:

  • Diagramme mit einer großen Anzahl von Datenzeilen
  • Diagramme mit einem Dashboard-Titel
  • Diagramme mit Spaltenüberschriften
  • Diagramme mit Werten in allen Zeilen und Spalten

Balkendiagramme, Liniendiagramme und Balken-Linien-Kombinationen funktionieren am besten mit dieser Funktion, da sie in der Regel Trends, Daten und viele Datenzeilen enthalten.

Überlegungen bei der Verwendung von Chart Insights Copy link to heading Copied! Anzeigen
  

Die Modelle zur Verwendung dieser Funktion können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass Chart Insights in den folgenden Szenarien weniger nützlich ist:

  • Diagramme mit einer oder wenigen Datenzeilen
  • Diagramme mit einem einzigen Wert
  • Diagramme ohne Titel, Achsenbeschriftungen und Spaltenüberschriften

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Lass die Richtigkeit der Erkenntnisse noch einmal von anderen Benutzern überprüfen, die möglicherweise mehr Kontext zu den Daten im Diagramm haben.
  • Berücksichtige, dass Atlassian Intelligence bei der Beantwortung nur den Kontext eines einzelnen Diagramms und nicht das gesamte Dashboard verwendet.
Deine Daten und Chart Insights Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie Chart Insights deine Daten verwendet. Dieser Abschnitt ergänzt die Informationen, die auf dieser Seite verfügbar sind.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, zum Beispiel die Daten in deinem Diagramm.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, wendet Chart Insights die folgenden Maßnahmen an.

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Sie werden nicht von OpenAI gespeichert.
    • Werden nicht zur Verbesserung von OpenAI-Modellen verwendet.
    • Werden nur verwendet, um dich zu unterstützen.
  • OpenAI ist ein Unterauftragsverarbeiter auf unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.
  • Diese Funktion verwendet nur Informationen aus dem Dashboard, auf das du Zugriff hast und für das du Einblicke angefordert hast.

Kurze Zusammenfassung in Confluence

So fasst Atlassian Intelligence Seiten und Blogs in Confluence zusammen Copy link to heading Copied! Anzeigen
  

Die Zusammenfassung von Seiten und Blogs mit Atlassian Intelligence wird durch LLM-Modelle unterstützt, die von OpenAI entwickelt wurden. Diese Modelle beinhalten OpenAI-Modelle, die hier beschrieben werden.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Lies mehr über die Funktionen der OpenAI-Modelle oder informiere dich in den OpenAI-Forschungsberichten über den Ansatz.

Anwendungsfälle für Confluence – Kurzübersicht Copy link to heading Copied! Anzeigen
  

Spare Zeit und erhalte genau die Informationen, die du für schnelleres Arbeiten benötigst. Lasse dir hierzu mit Atlassian Intelligence eine kurze Zusammenfassung einer Confluence-Seite oder eines Confluence-Blogs generieren. Weitere Informationen zur Verwendung von Atlassian Intelligence in Confluence

Wir sind der Meinung, dass das Zusammenfassen von Seiten und Blogs mit Atlassian Intelligence in den folgenden Situationen am besten funktioniert:

  • Es handelt sich um eine textlastige Seite, deren Lesezeit mindestens fünf Minuten beträgt.
  • Eine Seite weist eine Menge Text, nur wenig Bildmaterial und/oder unterschiedliche Formatierungen wie Erweiterungen auf.
Überlegungen zum Zusammenfassen von Seiten und Blogs mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Bitte beachte, dass die Funktionsweise der Modelle, die für die Zusammenfassungen von Seiten und Blogs mit Atlassian Intelligence eingesetzt werden, unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen kann.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir arbeiten zwar an einer besseren Unterstützung für Makros und Tabellen und weiten diese auf Zusammenfassungen aus, haben jedoch festgestellt, dass das Zusammenfassen von Seiten und Blogs mit Atlassian Intelligence in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du benötigst eine Zusammenfassung einer sehr kurzen Confluence-Seite, die nicht genügend Inhalte aufweist.
  • Du benötigst eine Zusammenfassung einer Confluence-Seite, bei der ein Großteil des Inhalts in Tabellen oder Erweiterungen enthalten ist.
  • Du benötigst eine Zusammenfassung einer Confluence-Seite, bei der ein Großteil des Inhalts in Makros enthalten ist.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Atlassian Intelligence zu bitten, Seiten zusammenzufassen, von denen du weißt, dass sie viele textbasierte Inhalte aufweisen.
Informationen zu deinen Daten und zur Zusammenfassung von Seiten und Blogs mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Nutzung von Atlassian Intelligence für die Confluence-Automatisierung verwendet werden. Dieser Abschnitt ergänzt die Informationen aus unserem Trust Center.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).

  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, beispielsweise Inhalte der Confluence-Seite, die du zusammenfassen möchtest.

  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.

  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, werden für die Zusammenfassung von Seiten und Blogs mit Atlassian Intelligence folgende Maßnahmen angewendet:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Werden nicht von OpenAI gespeichert.
    • Werden nicht zur Verbesserung von OpenAI verwendet.
    • Werden nur verwendet, um dich zu unterstützen.
  • OpenAI ist ein Unterauftragsverarbeiter aus unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.
  • Diese Funktion richtet sich nach den Berechtigungen in deiner Instanz. Wenn du zum Beispiel keinen Zugriff auf eine Confluence-Seite hast, wird dir diese Funktion nicht angezeigt und du kannst keine Seite mit Atlassian Intelligence zusammenfassen. Wenn du nicht möchtest, dass deine Inhalte für andere Nutzer in deiner Instanz verfügbar sind, wende dich an deinen Organisationsadministrator, um die Berechtigungen richtig einzustellen.

Begriffe mit Atlassian Intelligence definieren

Wie Atlassian Intelligence Begriffe definiert Copy link to heading Copied! Anzeigen
  

Die Definition von Begriffen mithilfe von Atlassian Intelligence in Confluence und Jira basiert auf großen Sprachmodellen, die von OpenAI entwickelt wurden. Dazu zählen die hier beschriebenen OpenAI-Modelle.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in Confluence zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Anwendungsfälle für die Definition von Begriffen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Eine der größten Herausforderungen bei der Nutzung von Inhalten in Confluence und Jira kann darin bestehen, den nötigen Kontext zu finden, um das Gelesene zu verstehen. Abkürzungen, Akronyme, unbekannte Begriffe und team- oder projektspezifische Namen können zu einer langwierigen Suche nach den nötigen Informationen führen.

Durch die Definition von Begriffen mithilfe von Atlassian Intelligence werden unternehmensspezifische Begriffe (wie Akronyme, Projekt-, System- oder Teamnamen) auf einer Seite in Confluence oder in einer Vorgangsbeschreibung in Jira definiert. Dadurch erhalten Benutzer jederzeit die von ihnen benötigten Informationen – und deine Teams können besser zusammenarbeiten.

Mit Atlassian Intelligence sparst du Zeit durch automatische Definitionen, ohne die gerade geöffnete Seite verlassen zu müssen.

Wenn du auf eine Definition stößt, die du für ungenau hältst, kannst du sie bearbeiten oder eine neue Definition hinzufügen. Anschließend kannst du festlegen, ob sie für die jeweilige Seite oder den jeweiligen Vorgang, den gesamten Bereich oder das gesamte Projekt oder für deine gesamte Organisation sichtbar sein soll.

Die Definition von Begriffen mithilfe von Atlassian Intelligence in Confluence funktioniert am besten in folgenden Szenarien:

  • Ein Unternehmen hat mehrere Seiten in seiner Confluence-Instanz, auf denen ein bestimmter Begriff erwähnt, beschrieben oder erklärt wird, auf den Atlassian Intelligence verweisen soll.
Überlegungen zur Definition von Begriffen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Die Modelle, die zur Definition von Begriffen mit Atlassian Intelligence in Confluence verwendet werden, können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Definition von Begriffen mithilfe von Atlassian Intelligence in Confluence in folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du hast in dieser Confluence-Instanz nicht ausreichend Kontext zu dem Begriff (wenn es zum Beispiel keine Seiten gibt, auf denen der bestimmte Begriff erwähnt wird, wird die Definition dieses Begriffs nicht korrekt generiert).
  • Die Definition erfordert Zugriff auf Confluence-Inhalte, zu deren Ansicht du nicht berechtigt bist.
  • Du versuchst, mehrere Begriffe statt jeweils einen einzelnen Begriff zu definieren.

Da die Definition von Begriffen mithilfe von Atlassian Intelligence von der Suche in Confluence abhängt, funktioniert sie in Jira nur, wenn du berechtigt bist, eine Confluence-Instanz auf derselben Site wie deine Jira-Instanz anzusehen.

Vielleicht wirst du auch feststellen, dass das Definieren von Begriffen mithilfe von Atlassian Intelligence in bestimmten Confluence-Bereichen oder Jira-Instanzen nicht wie erwartet funktioniert, weil die darin enthaltenen Inhalte in mehreren Sprachen verfasst sind.

Deine Daten beim Definieren von Begriffen mithilfe von Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Definition von Begriffen mit Atlassian Intelligence verwendet werden. Dieser Abschnitt ergänzt die Informationen, die in unserem Trust Center verfügbar sind.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, wie zum Beispiel der Begriff, den du definieren möchtest.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, werden bei der Definition von Begriffen mit Atlassian Intelligence folgende Maßnahmen angewendet:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Sie werden nicht anderen Kunden zur Verfügung gestellt.
    • Werden nicht von OpenAI gespeichert.
    • Werden nicht zur Verbesserung von OpenAI-Modellen verwendet.
    • Werden nur verwendet, um dich zu unterstützen.
  • OpenAI ist ein Unterauftragsverarbeiter aus unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.
  • Diese Funktion richtet sich nach bestehenden Benutzerzugriffsberechtigungen. Es werden Benutzern also keine Definitionen von Inhalten angezeigt, auf die sie keinen Zugriff haben. Stattdessen ruft die Funktion nur Inhalte und Definitionen von Seiten und Projekten ab, zu deren Ansicht der Benutzer in der Instanz berechtigt ist. Wenn du nicht möchtest, dass deine Inhalte in Antworten für andere Benutzer in deiner Instanz verfügbar sind, wende dich an deinen Organisationsadministrator, um die Berechtigungen richtig einzustellen.
  • Wenn ein Benutzer eine Definition manuell bearbeitet oder aktualisiert, wird die Definition gespeichert und ein Jahr lang aufbewahrt.

Beschreibungen für Pull-Anfragen mit Atlassian Intelligence generieren

So generiert Bitbucket Cloud mit Atlassian Intelligence Beschreibungen für Pull-Anfragen Copy link to heading Copied! Anzeigen
  

Die Generierung von Pull-Anfragen-Beschreibungen mit Atlassian Intelligence basiert auf Large Language Models (LLM), die von OpenAI entwickelt wurden. Dazu zählen die hier beschriebenen OpenAI-Modelle.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache und Code in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Weitere Informationen: Funktionen von OpenAI-Modellen und OpenAI-Forschungsberichte

Anwendungsfälle für die Generierung von Pull-Anfragen-Beschreibungen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Atlassian Intelligence kann dir helfen, Inhalte zu generieren, zu transformieren und zusammenzufassen, während du im Rahmen der Code-Prüfung von Bitbucket Cloud Beschreibungen für oder Kommentare zu Pull-Anfragen verfasst. Dazu gehört beispielsweise:

  • Auf der Grundlage der Codeänderungen in der Pull-Anfrage eine Pull-Anfragen-Beschreibung generieren
  • Den Ton einer Pull-Anfragen-Beschreibung zusammenfassen, verbessern oder ändern
  • Den Ton eines Pull-Anfragen-Kommentars zusammenfassen, verbessern oder ändern

Wir sind der Meinung, dass das Generieren von Pull-Anfragen-Beschreibungen für Bitbucket Cloud mit Atlassian Intelligence am besten in folgenden Szenarien funktioniert:

  • Du bist Programmierer und möchtest dich beim Schreiben oder Verbessern von Beschreibungen für Pull-Anfragen von Atlassian Intelligence unterstützen lassen. Das funktioniert am besten für Teams, die überprüfen und bestätigen können, dass der von Atlassian Intelligence generierte Inhalt für die jeweilige Pull-Anfragen-Beschreibung angemessen ist.
  • Du bist Codeprüfer und möchtest dich von Atlassian Intelligence dabei unterstützen lassen, den Ton oder den Inhalt eines bereits verfassten Kommentars zu einer Pull-Anfrage zu verbessern.
Überlegungen zum Generieren von Pull-Anfragen-Beschreibungen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Die Modelle zur Verwendung dieser Funktion können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass das Generieren von Pull-Anfragen-Beschreibungen für Bitbucket Cloud mit Atlassian Intelligence in folgenden Szenarien weniger nützlich ist:

  • Du benötigst die Pull-Anfragen-Beschreibung, um auf Informationen zu verweisen, die noch nicht in den Codeänderungen enthalten sind (zum Beispiel Quellcode, der sich an anderer Stelle im Repository befindet).
  • Du bist nicht in der Lage zu überprüfen und zu bestätigen, dass die von Atlassian Intelligence generierten Inhalte die Pull-Anfrage korrekt wiedergeben.
  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Beschreibe so genau wie möglich, was Atlassian Intelligence machen soll.
  • Korrigiere, prüfe und bearbeite die vom AI-Schreibassistenten generierten Ergebnisse, um Genauigkeit und Klarheit zu gewährleisten.
  • Arbeite mit anderen zusammen, um Feedback einzuholen und die Qualität deiner Ergebnisse zu verbessern.
Deine Daten und das Generieren von Pull-Anfragen-Beschreibungen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Definition von Begriffen mit Atlassian Intelligence in Confluence verwendet werden. Dieser Abschnitt ergänzt die Informationen aus unserem Trust Center.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben)
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, beispielsweise:
    • die Codeänderungen und Commit-Nachrichten in der Pull-Anfrage
    • der Inhalt deiner Pull-Anfragen-Beschreibung
    • der Inhalt deines Pull-Anfragen-Kommentars
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du für diese Funktion abgibst

In Bezug auf deine Daten gilt beim Generieren von Pull-Anfragen-Beschreibungen mit Atlassian Intelligence Folgendes:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Sie werden nicht anderen Kunden zur Verfügung gestellt.
    • Sie werden nicht von OpenAI gespeichert.
    • Sie werden nicht zur Verbesserung von OpenAI-Modellen verwendet.
    • Sie werden nur verwendet, um deine Benutzererfahrung zu verbessern.
  • OpenAI ist ein Unterauftragsverarbeiter auf unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich zur Verarbeitung deiner Anfrage.

SQL-Abfragen in Atlassian Analytics generieren

Wie Atlassian Intelligence SQL-Abfragen in Atlassian Analytics generiert Copy link to heading Copied! Anzeigen
  

Das Generieren von SQL-Abfragen mit Atlassian Intelligence in Confluence basiert auf großen Sprachmodellen, die von OpenAI entwickelt wurden. Zu diesen Modellen gehören die hier beschriebenen OpenAI-Modelle.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache zu analysieren und zu verstehen, und übersetzt sie dann innerhalb von Atlassian Analytics in SQL (Structured Query Language).

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Lies mehr über die Funktionen der OpenAI-Modelle oder informiere dich in den OpenAI-Forschungsberichten über den Ansatz.

Anwendungsfälle für das Generieren von SQL-Abfragen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Stelle Atlassian Intelligence eine Frage in natürlicher Sprache und lass sie in SQL übersetzen, anstatt deine eigenen SQL-Abfragen von Grund auf neu zu schreiben. Nachdem du eine Frage gestellt hast, verwendet Atlassian Intelligence das Atlassian Data Lake-Schema deiner ausgewählten Datenquelle, um eine SQL-Abfrage zu generieren, mit der du Diagramme in deinen Atlassian Analytics-Dashboards erstellen kannst. Außerdem kannst du damit mehr über das Schema im Data Lake erfahren.

Das Generieren von SQL-Abfragen mit Atlassian Intelligence funktioniert am besten in folgenden Szenarien:

  • Du möchtest ein benutzerdefiniertes Diagramm auf Basis der generierten SQL-Abfragen erstellen und diese bei Bedarf verfeinern.
  • Die Frage in natürlicher Sprache beinhaltet Wörter und Konzepte, auf die im Atlassian Data Lake-Schema verwiesen wird, und ist möglichst spezifisch.
  • Du möchtest mehr über das Atlassian Data Lake-Schema erfahren.

Bist du dir nicht sicher, welche Fragen du stellen sollst?

Hier sind ein paar Vorschläge:

  • Was sind die Top 5 Stichwörter nach Anzahl der offen Jira-Vorgänge?
  • Wie viele Jira-Vorgänge wurden im letzten Monat im Projekt X abgeschlossen?
  • Wie lange dauern die Top 5 Status im Schnitt an?
  • Welche 5 Confluence-Seiten wurden im letzten Monat am häufigsten als Favorit markiert?
  • Wie viele Anfragen wurden in den letzten 5 Tagen in unserem Jira Service Management-Projekt X gestellt?
Überlegungen zum Generieren von SQL-Abfragen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Die Modelle, die zum Generieren von SQL-Abfragen mit Atlassian Intelligence verwendet werden, können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Das Generieren von SQL-Abfragen mit Atlassian Intelligence ist in folgenden Fällen weniger geeignet:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du benötigst diese Funktion, um Zugriff auf Informationen zu erhalten, die im Atlassian Data Lake-Schema nicht ohne Weiteres verfügbar sind (z. B. Daten für Advanced Roadmaps), um die Frage richtig beantworten zu können.
  • Die Frage beinhaltet Verweise auf benutzerdefinierte Felder.
  • Die Frage wird in einer anderen Sprache als Englisch gestellt.
  • Du bist mit SQL nicht ausreichend vertraut, um das von Atlassian Intelligence zurückgegebene SQL zu validieren.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Beschreibe so genau wie möglich, was Atlassian Intelligence machen soll.
  • Stelle sicher, dass die verwendete Atlassian Data Lake-Datenquelle die nötigen Daten zur Beantwortung deiner Frage enthält.
Deine Daten beim Generieren von SQL-Abfragen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für das Generieren von SQL-Abfragen mit Atlassian Intelligence verwendet werden. Dieser Abschnitt ergänzt die Informationen aus unserem Trust Center.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, einschließlich der öffentlich verfügbaren Atlassian Data Lake-Schemas, die für deine Instanz gelten.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

In Bezug auf deine Daten gilt beim Generieren von SQL-Abfragen mit Atlassian Intelligence Folgendes:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Werden nicht von OpenAI gespeichert.
    • Werden nicht zur Verbesserung von OpenAI-Modellen verwendet.
    • Werden nur verwendet, um dich zu unterstützen.
  • OpenAI ist ein Unterauftragsverarbeiter aus unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.
  • Diese Funktion richtet sich nach den Berechtigungen in deiner Atlassian Data Lake-Verbindung. Wenn du zum Beispiel keinen Zugriff auf eine Atlassian Data Lake-Verbindung hast, kannst du keine SQL-Abfrage dafür generieren.

Generative AI im Editor

So funktioniert Atlassian Intelligence in einem Editor Copy link to heading Copied! Anzeigen
  

Atlassian Intelligence in einem Editor basiert auf großen Sprachmodellen, die von OpenAI entwickelt wurden. Zu diesen Modellen gehören die hier beschriebenen OpenAI-Modelle.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Lies mehr über die Funktionen der OpenAI-Modelle oder informiere dich in den OpenAI-Forschungsberichten über den Ansatz.

Anwendungsfälle für generative KI im Editor Copy link to heading Copied! Anzeigen
  

Atlassian Intelligence hilft dabei, eine effektive Kommunikation zwischen allen Teams in einer Organisation zu fördern, um Effizienz, Entscheidungsfindung und Prozesse zu verbessern.

Die Verwendung von Atlassian Intelligence in einem Editor funktioniert am besten in folgenden Szenarien:

  • Transformation vorhandener Inhalte für verschiedene Zielgruppen. Atlassian Intelligence hilft dabei, Ton und Schreibstil zu verbessern und technische Informationen für andere Teams verständlicher zu machen. Das funktioniert am besten für Teams, die ihre Texte professioneller und prägnanter verfassen möchten.
  • Zusammenfassung vorhandener Inhalte. Mit Atlassian Intelligence kannst du grobe Notizen in nützliche Strategiedokumente, Wissensdatenbankartikel, Kampagnenpläne und mehr umwandeln. Du kannst damit auch bestehende Informationen analysieren, um Aktionspläne und Maßnahmen zu definieren. Das funktioniert am besten für textlastige Seiten, auf denen es viel Kontext gibt, aus dem man schöpfen kann.
  • Generieren neuer Inhalte. Atlassian Intelligence hilft dir dabei, neue Inhalte wie Strategieseiten, Projektübersichten, Versionshinweise oder User Storys zu verfassen. Das funktioniert am besten, wenn Teams klare, spezifische Aufforderungen mit einem bestimmten Ziel verwenden.
Erwägungen für die Verwendung von Atlassian Intelligence in einem Editor Copy link to heading Copied! Anzeigen
  

Die Modelle zur Verwendung von Atlassian Intelligence in einem Editor können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Verwendung von Atlassian Intelligence in einem Editor in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst genaue und aktuelle Informationen über Personen, Orte und Fakten.
  • Du benötigst Zugriff auf Informationen, die dir nicht ohne Weiteres zur Verfügung stehen (zum Beispiel in deiner Instanz), um deine Anfrage richtig beantworten zu können.
  • Du musst Inhalte in einem Format generieren, das über Standard-Markdown hinausgeht (zum Beispiel, um ein Info-Panel von Grund auf neu zu erstellen).
  • Du musst auf Informationen verweisen, die noch nicht in dem Dokument enthalten sind, das gerade bearbeitet wird (zum Beispiel Inhalte eines anderen Dokuments oder Produkts).
  • Du musst Inhalte in anderen Sprachen als Englisch generieren und transformieren.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Beschreibe so genau wie möglich, was Atlassian Intelligence machen soll.
  • Teile komplexe Anfragen in kleinere, besser handhabbare Aufgaben ein.
  • Verwende relevante Schlüsselwörter, um die Genauigkeit der generierten Inhalte zu verbessern.
  • Verwende die korrekte Grammatik und Zeichensetzung in deinem Eingabetext.
  • Korrigiere, prüfe und bearbeite die vom AI-Schreibassistenten generierten Ergebnisse, um Genauigkeit und Klarheit zu gewährleisten.
  • Experimentiere mit verschiedenen Aufforderungen oder Varianten deines Eingabetextes, um verschiedene Ideen durchzuspielen.
  • Arbeite mit anderen zusammen, um Feedback einzuholen und die Qualität deiner Ergebnisse zu verbessern.
Deine Daten und Atlassian Intelligence in der Bearbeitungsumgebung Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie Atlassian Intelligence deine Daten in der Bearbeitungsumgebung verwendet. Dieser Abschnitt ergänzt die Informationen, die in unserem Trust Center verfügbar sind.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, beispielsweise das Produkt, von dem aus du Atlassian Intelligence getriggert hast.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, wendet Atlassian Intelligence in der Bearbeitungsumgebung die folgenden Maßnahmen an:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Werden nicht von OpenAI gespeichert.
    • Werden nicht zur Verbesserung von OpenAI-Modellen verwendet.
    • Werden nur verwendet, um dich zu unterstützen.
  • OpenAI ist ein Unterauftragsverarbeiter aus unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.
  • Diese Funktion richtet sich nach den Berechtigungen in deiner Instanz. Wenn du zum Beispiel keinen Zugriff auf eine bestimmte Confluence-Seite hast, verwendet diese Funktion keine Inhalte von dieser Seite in der angezeigten Antwort. Wenn du nicht möchtest, dass deine Inhalte in Antworten für andere Benutzer in deiner Instanz verfügbar sind, wende dich an deinen Organisationsadministrator, um die Berechtigungen entsprechend einzustellen.

Suche nach Antworten in Confluence

So sucht Atlassian Intelligence in Confluence nach Antworten Copy link to heading Copied! Anzeigen
  

Die Suche von Antworten in Confluence mit Atlassian Intelligence wird durch LLM-Modelle unterstützt, die von OpenAI entwickelt wurden. Diese Modelle beinhalten OpenAI-Modelle, die hier beschrieben werden.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Lies mehr über die Funktionen der OpenAI-Modelle oder informiere dich in den OpenAI-Forschungsberichten über den Ansatz.

Anwendungsfälle für die Suche nach Antworten in Confluence Copy link to heading Copied! Anzeigen
  

Der Umfang der Wissensdatenbanken nimmt zu schnell zu, als dass Benutzer mit dieser Entwicklung Schritt halten könnten. Dank der Suche nach Antworten in Confluence mit Atlassian Intelligence gelangen Kunden schneller an wichtige Informationen, mit denen sie ihre Aufgaben besser erledigen können. Die Funktion hilft dir dabei, die benötigten Informationen problemlos zu finden. Atlassian Intelligence versteht die Art von Fragen, die du Teamkollegen stellen würdest, und beantwortet sie sofort. Erfahre mehr über die Suche nach Antworten in Confluence mit Atlassian Intelligence.

Unserer Meinung nach eignet sich Atlassian Intelligence für die Suche nach Antworten in Confluence am besten, wenn deine Confluence-Site detaillierte, umfassende und aktuelle Inhalte umfasst.

Diese Funktion erzeugt keine neuen Inhalte, sondern durchsucht Confluence-Seiten und -Blogs (unter Beachtung von Einschränkungen), um eine Antwort auf deine Frage zu finden. Atlassian Intelligence generiert Antworten ausschließlich auf der Grundlage dessen, was in deiner Confluence-Site enthalten ist und worauf du tatsächlich Zugriff hast.

Bist du dir nicht sicher, welche Fragen du stellen sollst?

Hier sind ein paar Vorschläge:

  • Wann ist der nächste Betriebsausflug des Marketingteams?
  • Wie lautet die Richtlinie für das Arbeiten von zu Hause?
  • Was ist das Projekt Sunrise?
  • Wann findet unsere nächste Marketingkampagne statt?
  • Wo sind die Versionshinweise für das neueste Produkt von SpaceLaunch?
  • Wie reiche ich Ausgaben zur Erstattung ein?
Überlegungen zur Suche nach Antworten in Confluence mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Bitte beachte, dass die Modelle, die für die Suche nach Antworten in Confluence mit Atlassian Intelligence verwendet werden, aufgrund ihrer Funktionsweise ungenaue, unvollständige oder unzuverlässige Ergebnisse liefern können.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Verwendung von Atlassian Intelligence für die Suche nach Antworten in Confluence in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du benötigst aktuelle und korrekte Informationen zu Daten, die sich häufig ändern (zum Beispiel zu einer Roadmap, die monatlich aktualisiert wird).
  • Du benötigst aktuelle und korrekte Informationen über bestimmte Personen und die Rolle, die sie in deinem Unternehmen spielen.
  • Du benötigst Zugriff auf Informationen, die dir nicht ohne Weiteres zur Verfügung stehen (etwa auf eingeschränkte Seiten in deiner Confluence-Instanz), um deine Frage richtig beantworten zu können.
  • Die Antwort besteht aus einer Reihe verschiedener Werte oder Kategorien wie Metriken, die jede Woche aktualisiert werden.
  • Du brauchst Antworten, die nuanciert sind, Komplexitäten erfassen oder eine menschliche Denkweise erfordern.

Vielleicht wirst du auch feststellen, dass die Suche nach Antworten in Confluence mithilfe von Atlassian Intelligence in bestimmten Confluence-Bereichen nicht wie erwartet funktioniert, weil die darin enthaltenen Dokumente in mehreren Sprachen verfasst sind.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Beschreibe so genau wie möglich, was Atlassian Intelligence machen soll.
  • Stelle Fragen zu Dingen, von denen du weißt, dass sie in deiner Confluence-Instanz dokumentiert sind und auf die du Zugriff hast.
Deine Daten und die Suche nach Antworten in Confluence mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Suche nach Antworten in Confluence mit Atlassian Intelligence verwendet werden. Dieser Abschnitt ergänzt die Informationen aus unserem Trust Center.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, z. B. Inhalte von den ersten drei Seiten, die von der Confluence-Suche zurückgegeben wurden.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

In Bezug auf deine Daten gilt bei der Suche nach Antworten in Confluence mit Atlassian Intelligence Folgendes:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Werden von keinem LLM-Anbieter gespeichert.
    • Werden nicht zur Verbesserung von LLM-Modellen verwendet.
    • Werden nur verwendet, um dich zu unterstützen.
  • OpenAI ist ein Unterauftragsverarbeiter auf unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.
  • Diese Funktion richtet sich nach den Berechtigungen in deiner Instanz. Wenn du zum Beispiel keinen Zugriff auf eine bestimmte Confluence-Seite hast, verwendet diese Funktion keine Inhalte von dieser Seite in der angezeigten Antwort. Wenn du nicht möchtest, dass deine Inhalte in Antworten für andere Nutzer in deiner Instanz verfügbar sind, wende dich an deinen Unternehmensadministrator, um die Berechtigungen richtig einzustellen.

Suche nach Vorgängen in Jira

So sucht Atlassian Intelligence nach Vorgängen in Jira Copy link to heading Copied! Anzeigen
  

Die Suche nach Vorgängen mit Atlassian Intelligence in Jira basiert auf großen Sprachmodellen, die von OpenAI entwickelt wurden. Zu den Modellen gehören die hier beschriebenen OpenAI-Modelle, die von Atlassian mithilfe generierter synthetischer Daten optimiert wurden.

Atlassian Intelligence wendet diese Modelle an, um natürliche Sprache zu analysieren und zu verstehen, und übersetzt sie dann innerhalb unserer Produkte in JQL-Code (Jira Query Language).

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Erfahre mehr über die Funktionen von OpenAI-Modellen und die OpenAI-Optimierung. In den Forschungsberichten von OpenAI kannst du ebenfalls mehr über diesen Ansatz lesen.

Anwendungsfälle für die Suche nach Vorgängen in Jira Copy link to heading Copied! Anzeigen
  

Du kannst Atlassian Intelligence jetzt auch alles Mögliche in der Alltagssprache fragen, anstatt dir komplexe Abfragen ausdenken zu müssen. Bei der Suche nach Vorgängen mit Atlassian Intelligence wird deine Eingabeaufforderung in eine JQL-Abfrage übersetzt, die deine Suche nach bestimmten Vorgängen beschleunigt.

Unserer Meinung nach eignet sich Atlassian Intelligence für die Suche nach Vorgängen am besten in den folgenden Szenarien:

  • Du fragst Jira-Vorgänge mithilfe von Vorgangsfeldern ab, die in deinem Jira-Projekt verfügbar sind.
  • Die Abfrage weist bestimmte Felder und Werte auf, die eine Eingrenzung deiner Vorgangssuche ermöglichen.
  • Die von dir durchsuchten Felder und Werte sind in deinem Jira-Projekt enthalten.
  • Deine Abfrage ist auf Englisch.
  • Die Abfrage kann in JQL übersetzt werden. Da Atlassian Intelligence Eingabeaufforderungen in JQL-Code konvertiert, liefern Eingaben mit Schlüsselwörtern, die in JQL übersetzt werden können, bessere Ergebnisse.
Überlegungen zur Suche nach Vorgängen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Bitte beachte, dass die Modelle, die für die Suche nach Vorgängen mit Atlassian Intelligence verwendet werden, aufgrund ihrer Funktionsweise ungenaue, unvollständige oder unzuverlässige Ergebnisse liefern können.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Verwendung von Atlassian Intelligence für die Suche nach Vorgängen in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du suchst nach Jira-Entitäten, bei denen es sich nicht um Vorgänge handelt, beispielsweise Projekte, Boards oder Benutzer.
  • Du verwendest eine andere Sprache als Englisch für die Suche.
  • Du nutzt die Suche, um Vorgänge zu analysieren und anschließend Diagramme, Zusammenfassungen oder andere Darstellungen deiner Daten zu erstellen.
  • Für die Suche sind Funktionen erforderlich, die derzeit in JQL nicht verfügbar sind (zum Beispiel eine Frage wie "Suche Vorgänge, die ich kommentiert habe", die nicht in eine JQL-Funktion übersetzt werden kann).

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Denke auch daran, dass du für Atlassian Intelligence möglichst spezifische Aufforderungen formulierst. Stelle sicher, dass du genau die Felder und Werte eingibst, nach denen du suchst.

Deine Daten und die Suche nach Vorgängen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Suche nach Vorgängen mit Atlassian Intelligence verwendet werden. Dieser Abschnitt ergänzt die Informationen aus unserem Trust Center.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, wie zum Beispiel das aktuelle Projekt, in dem du dich befindest.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, werden bei der Suche nach Vorgängen mit Atlassian Intelligence folgende Maßnahmen angewendet:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Werden von keinem LLM-Anbieter gespeichert.
    • Werden nicht zur Verbesserung von LLM-Modellen verwendet.
    • Werden nur verwendet, um dich zu unterstützen.
  • OpenAI ist ein Unterauftragsverarbeiter aus unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.
  • Deine Suchergebnisse basieren auf den Vorgängen und Feldern, auf die du Zugriff hast (wenn du zum Beispiel keinen Zugriff auf ein bestimmtes Jira-Projekt hast, erhältst du keine Suchergebnisse für Vorgänge und Felder aus diesem Projekt).

Anfragetypen in Jira Service Management vorschlagen

So schlägt Atlassian Intelligence Anfragetypen in Jira Service Management vor Copy link to heading Copied! Anzeigen
  

Das Vorschlagen von Anfragetypen mit Atlassian Intelligence basiert auf großen Sprachmodellen, die von OpenAI entwickelt wurden. Dazu gehören die hier beschriebenen OpenAI-Modelle.

Atlassian Intelligence wendet diese Modelle an, um Eingaben in natürlicher Sprache zu analysieren und Empfehlungen für Anfragetypen und Beschreibungen für dich in Jira Service Management zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Lies mehr über die Funktionen der OpenAI-Modelle oder informiere dich in den OpenAI-Forschungsberichten über den Ansatz.

Anwendungsfälle für das Vorschlagen von Anfragetypen in Jira Service Management Copy link to heading Copied! Anzeigen
  

Verbringe weniger Zeit damit herauszufinden, welche Anfragetypen du für dein Projekt erstellen musst, und lasse dir stattdessen Vorschläge von Atlassian Intelligence geben. Beschreibe einfach deine Arbeit und welche Aufgaben dein Team normalerweise erledigt, um zu sehen, welche Arten von Anfragen du erstellen könntest. Wähle einen der von Atlassian Intelligence generierten Vorschläge aus, um einen Anfragetyp zu erstellen. Erfahre mehr darüber, wie du Atlassian Intelligence nutzen kannst, um Anfragetypen vorzuschlagen.

Unserer Meinung nach eignet sich Atlassian Intelligence für Vorschläge zu Anfragetypen am besten in den folgenden Szenarien:

  • Du hast sehr spezielle Anwendungsfälle, die die vorhandenen Vorlagen für Anfragetypen nicht abdecken.
  • Du hast sehr allgemeine Anforderungen und bist auf der Suche nach Ideen.
  • Du verwendest eine weit verbreitete Sprache wie Englisch oder Spanisch.
Erwägungen für die Verwendung von Atlassian Intelligence für Vorschläge von Anfragetypen Copy link to heading Copied! Anzeigen
  

Bitte beachte, dass die Modelle, die zum Vorschlagen von Anfragetypen mit Atlassian Intelligence verwendet werden, aufgrund ihrer Funktionsweise ungenaue, unvollständige oder unzuverlässige Ergebnisse liefern können.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Verwendung von Atlassian Intelligence für Vorschläge zu Anfragetypen in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du benötigst diese Funktion für den Zugriff auf Informationen, die dir nicht ohne Weiteres zur Verfügung stehen (zum Beispiel in deiner Instanz), um deine Anfrage richtig beantworten zu können.
  • Deine gemachten Eingabeaufforderungen sind für das Servicemanagement zu vage oder irrelevant.
  • Du verwendest keine weit verbreitete Sprache.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Beschreibe so genau wie möglich, was Atlassian Intelligence machen soll.
Deine Daten und die Verwendung von Atlassian Intelligence für Vorschläge zu Anfragetypen Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten bei der Nutzung von Atlassian Intelligence für Vorschläge zu Anfragetypen verwendet werden. Dieser Abschnitt ergänzt die Informationen aus unserem Trust Center.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, werden bei der Nutzung von Atlassian Intelligence für Vorschläge zu Anfragetypen die folgenden Maßnahmen angewendet:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Werden nicht von OpenAI gespeichert.
    • Werden nicht zur Verbesserung von OpenAI-Modellen verwendet.
    • Werden nur verwendet, um dich zu unterstützen.
  • OpenAI ist ein Unterauftragsverarbeiter aus unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.
  • Diese Funktion nutzt nur die Informationen aus deinen Eingabeaufforderungen. Es werden also alle Jira-Berechtigungen respektiert.

Zusammenfassung von Vorgangsdetails in Jira Service Management

So fasst Atlassian Intelligence Vorgangsdetails in Jira Service Management zusammen Copy link to heading Copied! Anzeigen
  

Die Zusammenfassung von Vorgangsdetails mit Atlassian Intelligence basiert auf großen Sprachmodellen, die von OpenAI entwickelt wurden. Zu diesen Modellen gehören die hier beschriebenen OpenAI-Modelle.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Lies mehr über die Funktionen der OpenAI-Modelle oder informiere dich in den OpenAI-Forschungsberichten über den Ansatz.

Anwendungsfälle für das Zusammenfassen von Vorgangsdetails in Jira Service Management Copy link to heading Copied! Anzeigen
  

Anstatt lange Beschreibungen und zahlreiche Kommentare zu einem Vorgang in Jira Service Management durchzulesen, kannst du Atlassian Intelligence nutzen, um diese Informationen schnell für dich zusammenzufassen. Das hilft Agenten, den Vorgangskontext zu verstehen und den bisherigen Fortschritt nachzuvollziehen. Sie können so schnell Maßnahmen ergreifen und Hilfe leisten.

Das Zusammenfassen von Vorgangsdetails mit Atlassian Intelligence ist besonders geeignet für:

  • Vorgänge, deren Beschreibung und Kommentare in englischer Sprache verfasst wurden.
  • Vorgänge mit einer großen Zahl von Kommentaren und/oder langen Kommentaren und Beschreibungen.
Überlegungen zum Zusammenfassen von Vorgangsdetails mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Die Modelle, die zur Zusammenfassung von Vorgangsdetails mit Atlassian Intelligence verwendet werden, können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Das Zusammenfassen von Vorgangsdetails mit Atlassian Intelligence ist in folgenden Fällen weniger geeignet:

  • Du verwendest eine andere Sprache als Englisch.
  • Der Vorgang hat keinen Verlauf oder Details

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Deine Daten und das Zusammenfassen von Vorgangsdetails mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Zusammenfassung von Vorgangsdetails mit Atlassian Intelligence verwendet werden. Dieser Abschnitt ergänzt die Informationen aus unserem Trust Center.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, z. B. Details über den Vorgang in Jira Service Management, wie die Vorgangsbeschreibung, Kommentare und am Ticket beteiligte Benutzer.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

In Bezug auf deine Daten gilt bei der Zusammenfassung von Vorgangsdetails mit Atlassian Intelligence Folgendes:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Werden nicht an andere LLM-Drittanbieter außer OpenAI gesendet.
    • Werden nicht von OpenAI gespeichert.
    • Werden nicht zur Verbesserung von OpenAI-Modellen verwendet.
    • Werden nur verwendet, um dich zu unterstützen.
  • OpenAI ist ein Unterauftragsverarbeiter aus unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.
  • Diese Funktion richtet sich nach den Berechtigungen in deiner Instanz. Die Schaltfläche "Zusammenfassen" wird nur Agenten und Projektadministratoren angezeigt.

Erstellen von benutzerdefinierten Formeln mit Atlassian Intelligence

So erstellt Atlassian Intelligence benutzerdefinierte Formeln in Atlassian Analytics Copy link to heading Copied! Anzeigen
  

Das Erstellen von benutzerdefinierten Formeln mit Atlassian Intelligence basiert auf großen Sprachmodellen, die von OpenAI entwickelt wurden. Dazu zählen die hier beschriebenen OpenAI-Modelle.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache zu analysieren, und übersetzt sie dann innerhalb von Atlassian Analytics in SQLite.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Lies mehr über die Funktionen der OpenAI-Modelle oder informiere dich in den OpenAI-Forschungsberichten über den Ansatz.

Anwendungsfälle für das Erstellen von benutzerdefinierten Formeln mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Beschreibe Atlassian Intelligence, wie du die Daten aus deiner Ergebnistabelle transformieren möchtest. AI übersetzt dies in einen SQLite-Ausdruck, der für benutzerdefinierte Formeln verwendet wird. So musst du deine SQLite-Ausdrücke nicht von Grund auf neu verfassen. Wenn du eine Frage gestellt hast, verwendet Atlassian Intelligence die Daten aus der Ergebnistabelle des vorherigen Visual SQL-Schritts, um einen SQLite-Ausdruck zu generieren, der Berechnungen oder Operationen auf diese Daten für dein Diagramm anwendet. Das kann dir auch helfen, SQLite-Funktionen und ihre Syntax besser zu verstehen.

Unserer Meinung nach funktioniert das Erstellen von benutzerdefinierten Formeln mit Atlassian Intelligence am besten in Szenarien, in denen Folgendes zutrifft:

  • Du möchtest Änderungen auf eine einzelne Spalte deiner abgefragten Daten anwenden.
  • Du möchtest mit einem generierten SQLite-Ausdruck beginnen und ihn bei Bedarf präzisieren.
  • Die Frage in natürlicher Sprache beinhaltet Wörter und Konzepte, auf die in deinen Spaltenüberschriften oder Zeilendaten verwiesen wird.
  • Du möchtest mehr über SQLite erfahren und die verfügbaren SQLite-Funktionen entdecken.
Hinweise zum Erstellen von benutzerdefinierten Formeln mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Denke bei der Verwendung benutzerdefinierter Formeln daran, dass die in Atlassian Intelligence verwendeten Modelle manchmal ungenaue, unvollständige oder unzuverlässige Ergebnisse generieren können.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Unserer Erfahrung nach ist das Erstellen von benutzerdefinierten Formeln mit Atlassian Intelligence in folgenden Fällen weniger geeignet:

  • Du möchtest Änderungen auf mehr als eine Spalte in einer einzelnen benutzerdefinierten Formel anwenden.
  • Die Funktion soll auf Informationen zugreifen, die in den Daten der Ergebnistabelle nicht ohne Weiteres verfügbar sind.
  • Der Prompt wird in einer anderen Sprache als Englisch formuliert.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Beschreibe so genau wie möglich, was Atlassian Intelligence machen soll.
  • So stellst du sicher, dass die abgefragten Daten die Daten abdecken, die zur Beantwortung deiner Frage benötigt werden
Deine Daten und das Erstellen von benutzerdefinierten Formeln mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für das Erstellen von benutzerdefinierten Formeln mit Atlassian Intelligence verwendet werden. Dieser Abschnitt ergänzt die Informationen aus unserem Trust Center.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deinen Prompt relevant ist, beispielsweise Daten aus dem Ergebnissatz des vorherigen Visual SQL-Schritts
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten

Für deine Daten gilt beim Erstellen von benutzerdefinierten Formeln mit Atlassian Intelligence Folgendes:

Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):

  • Werden nicht anderen Kunden zur Verfügung gestellt.
  • Werden nicht von OpenAI gespeichert.
  • Werden nicht zur Verbesserung von OpenAI-Modellen verwendet.
  • Werden nur verwendet, um dich zu unterstützen.

OpenAI ist ein Unterauftragsverarbeiter auf unserer Liste der Unterauftragsverarbeiter. Das Unternehmen verwendet deine Ein- und Ausgaben ausschließlich für die Bearbeitung deiner Anfrage.

Logo: Atlassian Intelligence

Atlassian Intelligence und Rovo stehen für Transparenz

Unser Engagement für offene Kommunikation, Verantwortungsbewusstsein und Unterstützung von Teams zur verantwortungsvollen KI-Nutzung.

Rovo

Wähle unten eine Rovo-Funktion aus, um einen transparenten Überblick über Anwendungsfälle und die Datennutzung zu erhalten.

Automatisierung mit Atlassian Intelligence

So nutzt die Automatisierung Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Automation using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um Eingaben in natürlicher Sprache zu analysieren und für dich eine Automatisierungsregel in Jira und Confluence zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für die Automatisierung mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Das Erstellen von Automatisierungsregeln steht bei täglichen Automatisierungsanwendungen im Mittelpunkt. Wir haben Atlassian Intelligence zum Automatisierungsregel-Builder in Jira und Confluence hinzugefügt, um diese Aufgabe für dich noch einfacher machen. Du kannst jetzt mühelos Automatisierungsregeln erstellen, indem du einfach eingibst und beschreibst, was du automatisieren möchtest. Die komplexe Erstellung der Regel kannst du dann Atlassian Intelligence überlassen. Erfahre mehr über Automatisierung mit Atlassian Intelligence für Jira und für Confluence.

Wir sind der Meinung, dass die Automatisierung mit Atlassian Intelligence für Jira und Confluence am besten in Situationen funktioniert, in denen du dir nicht sicher bist, wie du anfangen sollst, oder wenn du den Prozess der Regelerstellung beschleunigen möchtest.

Hinweise zur Automatisierung mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Bitte beachte, dass die Modelle, die zur Unterstützung der Automatisierung mit Atlassian Intelligence verwendet werden, unter Umständen ungenaue, unvollständige oder unzuverlässige Ergebnisse liefern können.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Die Automatisierung mit Atlassian Intelligence ist in folgenden Fällen weniger geeignet:

  • Du musst der Automatisierung mit Atlassian Intelligence Zugriff auf Informationen gewähren, die dir nicht ohne Weiteres zur Verfügung stehen (z. B. eine eingeschränkte Seite oder ein Projekt), um deine Anfrage richtig beantworten zu können.
  • Du musst einmalige Tasks bearbeiten.
  • Du musst Informationen aus deiner Wissensdatenbank abfragen.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Die Automatisierung mit Atlassian Intelligence funktioniert nur mit den vorhandenen verfügbaren Automatisierungskomponenten in Jira und Confluence.

Denke auch daran, dass du für Atlassian Intelligence möglichst spezifische Aufforderungen formulierst, wie oben beschrieben.

Deine Daten und Automatisierung mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie die Automatisierung mit Atlassian Intelligence deine Daten verwendet. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deinen Prompt relevant ist, beispielsweise eine Confluence-Seite.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, werden für die Nutzung von Atlassian Intelligence für die Confluence-Automatisierung die folgenden Maßnahmen angewendet:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock
    • Are not stored by any LLM vendor.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.

All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.

Diese Funktion richtet sich nach den Berechtigungen in deiner Instanz. Wenn du zum Beispiel keinen Zugriff auf ein bestimmtes Projekt oder eine bestimmte Seite hast, werden dir in der Antwort, die du erhältst, keine Inhalte aus diesen Ressourcen vorgeschlagen. Wenn du nicht möchtest, dass deine Inhalte in Antworten für andere Nutzer in deiner Instanz verfügbar sind, wende dich an deinen Organisationsadministrator, um die Berechtigungen richtig einzustellen.

How AI related resources uses Atlassian Intelligence Copy link to heading Copied! Show
  

AI related resources is powered by large language models developed by OpenAI, as well as a combination of open-source large language models (including the Llama series and Phi series) and other machine learning models. These large language models include OpenAI’s GPT series of models.

Atlassian Intelligence uses these models to analyze and generate natural language within our products, and to provide relevant responses from Atlassian and connected third-party products.

These large language models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on.

Read more about the capabilities of OpenAI’s models or about this approach in OpenAI's research papers. For more information on open-source language models, see information on the Llama series and the Phi series.

Use cases for AI related resources Copy link to heading Copied! Show
  

Atlassian Intelligence enables your users to speed up the process of resolving incidents by suggesting a list of resources that they can refer to, across your linked knowledge base spaces and articles, Jira issues, and (if you are a Rovo customer) any third-party products you have integrated through Rovo. Read more about Rovo and third party tools.

We believe that AI related resources work best in scenarios where:

  • Your organization has a lot of documentation in your linked knowledge base spaces and connected third-party tools that are relevant to and helpful for resolving incidents that occur in your organization.

  • Your team needs quick access to resources that are likely relevant to the incident when they are triaging the incident.

Considerations when using AI related resources Copy link to heading Copied! Show
  

Remember that because of the way that the models used to power AI related resources work, these models can sometimes behave in ways that are inaccurate, incomplete, or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on or include content that sounds reasonable but is false or incomplete.

We’ve found that AI related resources is less useful in scenarios where:

  • You need current and accurate information about people, places, and facts.

  • You need AI related resources to access information not readily available to you, like restricted Confluence documents (for example, access-restricted Confluence pages) to properly respond to your request.

  • You have minimal documentation available in your setup that Atlassian Intelligence can use to suggest related resources.

For this reason, we encourage you to consider situations where you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

You might also want to think about the following:

  • Reviewing permissions to ensure that users have appropriate levels of access to your relevant documentation and resources from third-party tools (like Slack channels).

  • Reviewing and confirming that your organization’s documentation is complete, up-to-date, and accurate.

Your data and AI related resources Copy link to heading Copied! Show
  

We understand you may have questions about how AI related resources uses your data. This section supplements the information available on our FAQ page.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as incident data, alerts data, documentation in your Atlassian products, and connected third-party products such as Google Docs.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Any feedback you provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, AI related resources applies the following measures:

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third-party LLM provider other than OpenAI.
    • Are not stored by OpenAI or any other third-party LLM provider.
    • Are not used to improve OpenAI or any other third party LLM provider.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • This feature follows your product’s permissions. For example, if you don’t have access to a certain Confluence page, you won’t find that page in the list of related resources. If you don’t want your content to be available in response to other users of your product, work with your organization admin to ensure the team’s access permissions are configured appropriately.
How AI suggestions in Jira Service Management use Atlassian Intelligence Copy link to heading Copied! Show
  

AI suggestions in Jira Service Management is powered by large language models developed by OpenAI, and other machine learning models. These large language models include OpenAI’s GPT series of models.

Atlassian Intelligence uses these models to analyze and generate natural language within our products.

These large language models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on.

Read more about the capabilities of OpenAI’s models.

Use cases for AI suggestions in Jira Service Management Copy link to heading Copied! Show
  

With AI suggestions in Jira Service Management, your team can quickly get up to speed by gathering important context about your service requests and incidents at a glance. Atlassian Intelligence helps your team to:

  • For service requests, understand a brief summary of the issue, details of the issue reporter, and a list of suggested steps that could help agents resolve the issue. Atlassian Intelligence also suggests ways that your team can update service requests based on this context, such as changing their priority or adding an assignee.
  • For incidents, understand a brief summary of the issue and details of the probable root cause. Atlassian Intelligence also suggests ways that your team can update incidents based on this context, such as identifying an incident as a major incident, adding responders or affected services, changing their severity or priority, or investigating the problem by creating a problem issue.

AI suggestions in Jira Service Management can also recommend that agents escalate a request or incident when the applicable SLA is about to be breached. In the case of service requests, this feature may also suggest that agents escalate that request where the models used to power these suggestions identify, based on the text of the reporter’s comments, a sense of urgency or anger with that request.

We believe that AI suggestions in Jira Service Management work best in scenarios where:

  • Your projects receive a lot of similar requests or incidents.
  • Your organization already records service requests and incidents in Jira Service Management with complete, accurate, and up-to-date information.
  • Your team members' user profiles have been populated with information about their roles, departments, and locations.
  • Your customers and team members keep a written record of all the conversations by adding comments on issues.
  • Your projects include a number of each kind of service request or incident commonly encountered by your teams.
Considerations when using AI suggestions in Jira Service Management Copy link to heading Copied! Show
  

It’s important to remember that because of the way that the models used to power AI suggestions in Jira Service Management work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, the responses that you receive might not accurately reflect the content that they are based on or include content that sounds reasonable but is false or incomplete.

We’ve found that AI suggestions in Jira Service Management are less useful in scenarios where:

  • You need current and accurate information about people, places, and facts.
  • You need suggestions for a service request or incident in circumstances where your project does not include any similar requests or incidents to learn from.
  • You need information that you don’t have access to within your project.
  • You need suggestions for assignees for whom information about their roles, departments, and locations has not been added to their profile.

For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

You might also want to think about:

  • Asking team members to make sure that their profile details (and past incidents/service requests) are fully populated before using AI suggestions in Jira Service Management.
Your data and AI suggestions in Jira Service Management Copy link to heading Copied! Show
  

We understand you may have questions about how AI suggestions in Jira Service Management uses your data. This section supplements the information available on our Trust Center.

We process:

  • The prompts (inputs) and responses (outputs)
  • Context from your instance relevant to the feature, such as similar requests or incidents, list of assignees or teammates, assets, and data in an issue like field values, comments, etc.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, AI suggestions apply the following measures.

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third-party LLM provider other than OpenAI.
    • Are not stored by OpenAI.
    • Are not used to improve OpenAI.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our List of Subprocessors. They don't use your inputs and outputs for any purpose besides processing your request.
  • This feature follows the permissions in your instance. For example, if you don't have access to a certain service request or incident, Atlassian Intelligence will not consider those requests or incidents while generating suggestions. If you don't want your content to be available to other users in your project or site, work with your org admin to ensure your permissions are set appropriately.
How Automation uses Atlassian Intelligence Copy link to heading Copied! Show
  

Automation using Atlassian Intelligence is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include OpenAI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. 

Atlassian Intelligence uses these models to analyze natural language input and generate an automation rule for you within Jira and Confluence.

These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated by predicting the most probable next word or text, based on the data that they have been trained on.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Use cases for Automation using Atlassian Intelligence Copy link to heading Copied! Show
  

Creating automation rules is at the core of the everyday automation experience, and we want to make this even easier for you by adding Atlassian Intelligence to the automation rule builder in Jira and Confluence. Now, you can easily create automation rules by simply typing in and describing what you wish to automate, and let Atlassian Intelligence handle all the heavy lifting of creating the rule for you. Find out more about Automation using Atlassian Intelligence for Jira and for Confluence.

We believe that Automation using Atlassian Intelligence for Jira and Confluence works best in scenarios when you are not sure how to get started or want to accelerate the rule creation process.

Not sure how best to create an automation rule?

Automation rules are created by a combination of different types of components: triggers, actions, conditions, and branches. Think of components as the building blocks of a rule. To successfully create a rule with Atlassian Intelligence, your rule must at least contain both a trigger and an action. For example:

In Jira:

Every Monday, find all the tasks with a due date in the next 7 days, and send the assignee a reminder email.

When a ticket moves to Testing, assign the ticket to John Smith.

In Confluence:

  • Every Monday, find all the tasks with a due date in the next 7 days, and send the assignee a reminder email.
  • Every 6 months, archive any pages that haven’t been updated in that time. After archiving, send an email to the page author letting them know.
  • When a page is published with Product Spec in the title, create a Jira ticket to review the page with a link to the page.

In addition, for a rule to be successfully created, all its components must be supported by Automation using Atlassian Intelligence. This means that any triggers, actions, conditions, or branches in your rule must be compatible with Automation in Jira and/or Confluence.

Considerations for Automation using Atlassian Intelligence Copy link to heading Copied! Show
  

It’s important to remember that because of the way that the models used to power Automation using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete.

We’ve found that Automation using Atlassian Intelligence is less useful in scenarios where:

  • You need to give Automation using Atlassian Intelligence access to information that isn’t readily available to you (for example, a restricted page or project) to properly answer your request.
  • You need to perform one-off tasks.
  • You need to query information from within your knowledge base.

For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

Automation using Atlassian Intelligence will only work with the existing set of available automation components in Jira and Confluence.

You might also want to think about being as specific as possible in what you ask Atlassian Intelligence to do, as described above.

Your data and Automation using Atlassian Intelligence Copy link to heading Copied! Show
  

We understand you may have questions about how Automation using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as a Jira project or a Confluence page.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, using Atlassian Intelligence for Confluence automation applies the following measures:

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock
    • Are not stored by any LLM vendor.
    • Are not used to improve LLM models.
    • Are used only to serve your experience.

All third-party LLM providers are subprocessors and listed as so on our  Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.

This feature follows the permissions in your instance. For example, if you do not have access to a specific project or page, you will not be suggested content from those assets in the response you receive. If you do not want your content to be available in responses to other users in your instance, work with your org admin to ensure your permissions are set appropriately.

Warnungsgruppierung

So nutzt die Warnungsgruppierung Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Alert grouping by Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle für maschinelles Lernen, um Warnungsgruppen zu analysieren und zu generieren und entsprechende Vorschläge (frühere Warnungsgruppen und Reagierende) innerhalb unserer Produkte zu unterbreiten, die auf der Ähnlichkeit des Warnmeldungsinhalts oder der verwendeten Tags basieren. Atlassian Intelligence verwendet dann große Sprachmodelle, um Beschreibungen und Inhalte in natürlicher Sprache für diese Gruppen in unseren Produkten zu analysieren und zu generieren.

Diese großen Sprachmodelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für die Warnungsgruppierung Copy link to heading Copied! Anzeigen
  

Die Warnungsgruppierung verwendet Atlassian Intelligence, um ähnliche Warnmeldungen zu identifizieren und zu gruppieren. Außerdem unterstützt dich die Funktion, indem sie frühere ähnliche Warnungsgruppen und Reagierende (oder entsprechende Teams) identifiziert und vorschlägt, basierend auf der semantischen Ähnlichkeit des Warnmeldungsinhalts oder der verwendeten Tags.

Wenn du die Warnungsgruppe zu einem Vorfall eskalieren möchtest, füllt die Warnungsgruppierung auch alle Kontextinformationen vorab aus. Im Rahmen der Vorfallerstellung kannst du diese dann überprüfen.

Die Warnungsgruppierung funktioniert am besten in den folgenden Szenarien:

  • Deine Organisation stößt häufig auf Muster ähnlicher oder doppelter Warnmeldungen, die in großer Anzahl auftreten, unabhängig davon, ob sie über einen kurzen Zeitraum oder über einen längeren Zeitraum erfasst werden.
  • Deine Organisation kategorisiert Warnmeldungen durchgängig anhand von Tags.
  • Dein Team ist oft der Meinung, dass ähnliche oder doppelte Warnmeldungen zu Vorfällen eskaliert werden sollten.
Überlegungen bei der Verwendung der Warnungsgruppierung Copy link to heading Copied! Anzeigen
  

Die Modelle zur Verwendung dieser Funktion können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind. Die Warnungsgruppen, die dir angezeigt werden, entsprechen möglicherweise nicht genau der semantischen Ähnlichkeit der zugehörigen Tags.

Wir haben festgestellt, dass die Warnungsgruppierung in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du benötigst die Warnungsgruppierung, um Zugriff auf Informationen zu erhalten, die dir zur Gruppierung der Warnmeldungen nicht ohne Weiteres zur Verfügung stehen. Die Warnungsgruppierung funktioniert innerhalb der Grenzen der konfigurierten Rollen und Berechtigungen deines Teams, sodass du nur Zugriff auf Gruppen und Einblicke für Warnmeldungen hast, die du auch aufrufen kannst.
  • Die von deinem Team verwendeten Warnungs-Tags sind nicht einheitlich oder gut gepflegt. Da die Warnungsgruppierung Warnmeldungen auf der Grundlage der semantischen Ähnlichkeit von Warnungstiteln und -Tags gruppiert, hängt die Qualität der generierten Warnungsgruppen von der Konsistenz und Fehlerfreiheit der von deinem Team und deiner Organisation verwendeten Warnungs-Tags.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Außerdem solltest du sicherstellen, dass du und dein Team einheitliche Verfahren bei der Verwendung von Warnungs-Tags befolgen.

Deine Daten und die Warnungsgruppierung Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie die Warnmeldungsgruppierung deine Daten verwendet. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für dein Prompt relevant ist, z. B. deine Warnmeldungsdaten (Warnungstitel, Warnungs-Tags, Priorität, verantwortliche Teams, Beschreibung).
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Wir verarbeiten deine Warnmeldungsdaten, um eine Version des Modells für maschinelles Lernen dafür zu trainieren, spezifische Muster in deinen Warnmeldungen zu erkennen. Diese Version wird nur verwendet, um dein Erlebnis zu verbessern:

  • Wir speichern die identifizierten Muster, um dir Einblicke zu gewähren.
  • Wir verwenden deine Warnmeldungsdaten nicht, um große Sprachmodelle zu trainieren.

In Bezug auf deine Daten wendet die Warnungsgruppierung folgende Maßnahmen an:

  • Deine Ein- und Ausgaben:
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock

    • Are not stored by any LLM vendor.

    • Are not used to improve LLM models.

    • Werden nur verwendet, um dich zu unterstützen.

  • All third-party LLM providers are subprocessors and listed as so on our subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion richtet sich nach den Berechtigungen auf deiner Website. Wenn Atlassian Intelligence zum Beispiel 50 Warnmeldungen basierend auf ihren Tags und ihrer semantischen Ähnlichkeit gruppiert und du nur 30 davon aufrufen kannst, siehst du in der Gruppendetailansicht auch nur diese 30. Wenn du nicht möchtest, dass deine Warnmeldungen in Antworten für andere Benutzer deiner Site verfügbar sind, wende dich an deinen Organisations-/Site-Administrator, um die Berechtigungen richtig einzustellen.
So fasst Atlassian Intelligence Seiten und Blogs in Confluence zusammen Copy link to heading Copied! Anzeigen
  

Summarize pages and blogs using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für Confluence – Kurzübersicht Copy link to heading Copied! Anzeigen
  

Spare Zeit und erhalte genau die Informationen, die du für schnelleres Arbeiten benötigst. Lasse dir hierzu mit Atlassian Intelligence eine kurze Zusammenfassung einer Confluence-Seite oder eines Confluence-Blogs generieren. Weitere Informationen zur Verwendung von Atlassian Intelligence in Confluence

Wir sind der Meinung, dass das Zusammenfassen von Seiten und Blogs mit Atlassian Intelligence in den folgenden Situationen am besten funktioniert:

  • Es handelt sich um eine textlastige Seite, deren Lesezeit mindestens fünf Minuten beträgt.
  • Eine Seite weist eine Menge Text, nur wenig Bildmaterial und/oder unterschiedliche Formatierungen wie Erweiterungen auf.
Überlegungen zum Zusammenfassen von Seiten und Blogs mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Bitte beachte, dass die Funktionsweise der Modelle, die für die Zusammenfassungen von Seiten und Blogs mit Atlassian Intelligence eingesetzt werden, unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen kann.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir arbeiten zwar an einer besseren Unterstützung für Makros und Tabellen und weiten diese auf Zusammenfassungen aus, haben jedoch festgestellt, dass das Zusammenfassen von Seiten und Blogs mit Atlassian Intelligence in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du benötigst eine Zusammenfassung einer sehr kurzen Confluence-Seite, die nicht genügend Inhalte aufweist.
  • Du benötigst eine Zusammenfassung einer Confluence-Seite, bei der ein Großteil des Inhalts in Tabellen oder Erweiterungen enthalten ist.
  • Du benötigst eine Zusammenfassung einer Confluence-Seite, bei der ein Großteil des Inhalts in Makros enthalten ist.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Atlassian Intelligence zu bitten, Seiten zusammenzufassen, von denen du weißt, dass sie viele textbasierte Inhalte aufweisen.
Informationen zu deinen Daten und zur Zusammenfassung von Seiten und Blogs mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Nutzung von Atlassian Intelligence für die Confluence-Automatisierung verwendet werden. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).

  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, beispielsweise Inhalte der Confluence-Seite, die du zusammenfassen möchtest.

  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.

  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, werden für die Zusammenfassung von Seiten und Blogs mit Atlassian Intelligence folgende Maßnahmen angewendet:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.
    • Are not stored by any LLM vendor.

    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion richtet sich nach den Berechtigungen in deiner Instanz. Wenn du zum Beispiel keinen Zugriff auf eine Confluence-Seite hast, wird dir diese Funktion nicht angezeigt und du kannst keine Seite mit Atlassian Intelligence zusammenfassen. Wenn du nicht möchtest, dass deine Inhalte für andere Nutzer in deiner Instanz verfügbar sind, wende dich an deinen Organisationsadministrator, um die Berechtigungen richtig einzustellen.

Begriffe mit Atlassian Intelligence definieren

Wie Atlassian Intelligence Begriffe definiert Copy link to heading Copied! Anzeigen
  

Defining terms using Atlassian Intelligence in Confluence and Jira is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in Confluence zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für die Definition von Begriffen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Eine der größten Herausforderungen bei der Nutzung von Inhalten in Confluence und Jira kann darin bestehen, den nötigen Kontext zu finden, um das Gelesene zu verstehen. Abkürzungen, Akronyme, unbekannte Begriffe und team- oder projektspezifische Namen können zu einer langwierigen Suche nach den nötigen Informationen führen.

Durch die Definition von Begriffen mithilfe von Atlassian Intelligence werden unternehmensspezifische Begriffe (wie Akronyme, Projekt-, System- oder Teamnamen) auf einer Seite in Confluence oder in einer Vorgangsbeschreibung in Jira definiert. Dadurch erhalten Benutzer jederzeit die von ihnen benötigten Informationen – und deine Teams können besser zusammenarbeiten.

Mit Atlassian Intelligence sparst du Zeit durch automatische Definitionen, ohne die gerade geöffnete Seite verlassen zu müssen.

Wenn du auf eine Definition stößt, die du für ungenau hältst, kannst du sie bearbeiten oder eine neue Definition hinzufügen. Anschließend kannst du festlegen, ob sie für die jeweilige Seite oder den jeweiligen Vorgang, den gesamten Bereich oder das gesamte Projekt oder für deine gesamte Organisation sichtbar sein soll.

Die Definition von Begriffen mithilfe von Atlassian Intelligence in Confluence funktioniert am besten in folgenden Szenarien:

  • Ein Unternehmen hat mehrere Seiten in seiner Confluence-Instanz, auf denen ein bestimmter Begriff erwähnt, beschrieben oder erklärt wird, auf den Atlassian Intelligence verweisen soll.
Überlegungen zur Definition von Begriffen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Die Modelle, die zur Definition von Begriffen mit Atlassian Intelligence in Confluence verwendet werden, können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Definition von Begriffen mithilfe von Atlassian Intelligence in Confluence in folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du hast in dieser Confluence-Instanz nicht ausreichend Kontext zu dem Begriff (wenn es zum Beispiel keine Seiten gibt, auf denen der bestimmte Begriff erwähnt wird, wird die Definition dieses Begriffs nicht korrekt generiert).
  • Die Definition erfordert Zugriff auf Confluence-Inhalte, zu deren Ansicht du nicht berechtigt bist.
  • Du versuchst, mehrere Begriffe statt jeweils einen einzelnen Begriff zu definieren.

Da die Definition von Begriffen mithilfe von Atlassian Intelligence von der Suche in Confluence abhängt, funktioniert sie in Jira nur, wenn du berechtigt bist, eine Confluence-Instanz auf derselben Site wie deine Jira-Instanz anzusehen.

Vielleicht wirst du auch feststellen, dass das Definieren von Begriffen mithilfe von Atlassian Intelligence in bestimmten Confluence-Bereichen oder Jira-Instanzen nicht wie erwartet funktioniert, weil die darin enthaltenen Inhalte in mehreren Sprachen verfasst sind.

Deine Daten beim Definieren von Begriffen mithilfe von Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Definition von Begriffen mit Atlassian Intelligence verwendet werden. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, wie zum Beispiel der Begriff, den du definieren möchtest.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, werden bei der Definition von Begriffen mit Atlassian Intelligence folgende Maßnahmen angewendet:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion richtet sich nach bestehenden Benutzerzugriffsberechtigungen. Es werden Benutzern also keine Definitionen von Inhalten angezeigt, auf die sie keinen Zugriff haben. Stattdessen ruft die Funktion nur Inhalte und Definitionen von Seiten und Projekten ab, zu deren Ansicht der Benutzer in der Instanz berechtigt ist. Wenn du nicht möchtest, dass deine Inhalte in Antworten für andere Benutzer in deiner Instanz verfügbar sind, wende dich an deinen Organisationsadministrator, um die Berechtigungen richtig einzustellen.
  • Wenn ein Benutzer eine Definition manuell bearbeitet oder aktualisiert, wird die Definition gespeichert und ein Jahr lang aufbewahrt.

Generative AI im Editor

So funktioniert Atlassian Intelligence in einem Editor Copy link to heading Copied! Anzeigen
  

Atlassian Intelligence in editing experiences is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für generative KI im Editor Copy link to heading Copied! Anzeigen
  

Atlassian Intelligence hilft dabei, eine effektive Kommunikation zwischen allen Teams in einer Organisation zu fördern, um Effizienz, Entscheidungsfindung und Prozesse zu verbessern.

Die Verwendung von Atlassian Intelligence in einem Editor funktioniert am besten in folgenden Szenarien:

  • Transformation vorhandener Inhalte für verschiedene Zielgruppen. Atlassian Intelligence hilft dabei, Ton und Schreibstil zu verbessern und technische Informationen für andere Teams verständlicher zu machen. Das funktioniert am besten für Teams, die ihre Texte professioneller und prägnanter verfassen möchten.
  • Zusammenfassung vorhandener Inhalte. Mit Atlassian Intelligence kannst du grobe Notizen in nützliche Strategiedokumente, Wissensdatenbankartikel, Kampagnenpläne und mehr umwandeln. Du kannst damit auch bestehende Informationen analysieren, um Aktionspläne und Maßnahmen zu definieren. Das funktioniert am besten für textlastige Seiten, auf denen es viel Kontext gibt, aus dem man schöpfen kann.
  • Generieren neuer Inhalte. Atlassian Intelligence hilft dir dabei, neue Inhalte wie Strategieseiten, Projektübersichten, Versionshinweise oder User Storys zu verfassen. Das funktioniert am besten, wenn Teams klare, spezifische Aufforderungen mit einem bestimmten Ziel verwenden.
Erwägungen für die Verwendung von Atlassian Intelligence in einem Editor Copy link to heading Copied! Anzeigen
  

Die Modelle zur Verwendung von Atlassian Intelligence in einem Editor können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Verwendung von Atlassian Intelligence in einem Editor in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst genaue und aktuelle Informationen über Personen, Orte und Fakten.
  • Du benötigst Zugriff auf Informationen, die dir nicht ohne Weiteres zur Verfügung stehen (zum Beispiel in deiner Instanz), um deine Anfrage richtig beantworten zu können.
  • Du musst Inhalte in einem Format generieren, das über Standard-Markdown hinausgeht (zum Beispiel, um ein Info-Panel von Grund auf neu zu erstellen).
  • Du musst auf Informationen verweisen, die noch nicht in dem Dokument enthalten sind, das gerade bearbeitet wird (zum Beispiel Inhalte eines anderen Dokuments oder Produkts).
  • Du musst Inhalte in anderen Sprachen als Englisch generieren und transformieren.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Beschreibe so genau wie möglich, was Atlassian Intelligence machen soll.
  • Teile komplexe Anfragen in kleinere, besser handhabbare Aufgaben ein.
  • Verwende relevante Schlüsselwörter, um die Genauigkeit der generierten Inhalte zu verbessern.
  • Verwende die korrekte Grammatik und Zeichensetzung in deinem Eingabetext.
  • Korrigiere, prüfe und bearbeite die vom AI-Schreibassistenten generierten Ergebnisse, um Genauigkeit und Klarheit zu gewährleisten.
  • Experimentiere mit verschiedenen Aufforderungen oder Varianten deines Eingabetextes, um verschiedene Ideen durchzuspielen.
  • Arbeite mit anderen zusammen, um Feedback einzuholen und die Qualität deiner Ergebnisse zu verbessern.
Deine Daten und Atlassian Intelligence in der Bearbeitungsumgebung Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie Atlassian Intelligence deine Daten in der Bearbeitungsumgebung verwendet. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, beispielsweise das Produkt, von dem aus du Atlassian Intelligence getriggert hast.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, wendet Atlassian Intelligence in der Bearbeitungsumgebung die folgenden Maßnahmen an:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion richtet sich nach den Berechtigungen in deiner Instanz. Wenn du zum Beispiel keinen Zugriff auf eine bestimmte Confluence-Seite hast, verwendet diese Funktion keine Inhalte von dieser Seite in der angezeigten Antwort. Wenn du nicht möchtest, dass deine Inhalte in Antworten für andere Benutzer in deiner Instanz verfügbar sind, wende dich an deinen Organisationsadministrator, um die Berechtigungen entsprechend einzustellen.
How issue reformatter uses Atlassian Intelligence Copy link to heading Copied! Show
  

Issue reformatter is powered by large language models developed by OpenAI, including OpenAI’s GPT series of models.

Atlassian Intelligence uses this model to analyze and generate natural language within Jira.

These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on.

Read more about the capabilities of OpenAI’s models.

Use cases for issue reformatter Copy link to heading Copied! Show
  

Issue reformatter helps improve the clarity of your Jira issue descriptions by reformatting them using a template developed by Atlassian. This template covers the types of information that we usually expect to see in a Jira issue description, such as a user story, context for the work, and acceptance criteria.

We believe issue reformatter works best in scenarios where your issue descriptions already contain useful information (such as acceptance criteria or links to sources) but that information is not formatted using a clear or consistent structure.

Considerations when using issue reformatter Copy link to heading Copied! Show
  

It’s important to remember that, because of the way they work, the models that power issue reformatter can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, your reformatted description might not accurately reflect the content that it was based on, or it might include details that sound reasonable but are false or incomplete.

We’ve found issue reformatter is less useful in scenarios where:

  • You need current and accurate information about people, places and facts.
  • Your issue descriptions don’t include much information, because there’s a higher chance that the models powering issue reformatter might add information that wasn’t included in your original description.

For this reason, we encourage you to think about the situations when you use Atlassian Intelligence, and always review the quality of the responses you get before sharing them with others. You might also want to think about reviewing and confirming that your issue descriptions include all relevant information before you start using issue reformatter to reformat them.

Your data and issue reformatter Copy link to heading Copied! Show
  

We understand you may have questions about how issue reformatter uses your data. This section supplements the information available on our Trust Center.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as the Jira issue description and summary.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, issue reformatter applies the following measures:

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers
    • Are not sent to any third party LLM provider other than OpenAI
    • Are not stored by Open AI.
    • Are not used to improve OpenAI's models.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our list of subprocessors. They do not use your inputs and outputs for any purpose besides processing your request.
  • This feature only uses the information available within the Jira Issue and is invoked from the Jira Issue. Therefore, it can only be invoked by a user who has permission to view the issue and will not access any other information.

Zusammenfassung von Vorgangsdetails in Jira Service Management

So fasst Atlassian Intelligence Vorgangsdetails in Jira Service Management zusammen Copy link to heading Copied! Anzeigen
  

Summarize issue details using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für das Zusammenfassen von Vorgangsdetails in Jira Service Management Copy link to heading Copied! Anzeigen
  

Anstatt lange Beschreibungen und zahlreiche Kommentare zu einem Vorgang in Jira Service Management durchzulesen, kannst du Atlassian Intelligence nutzen, um diese Informationen schnell für dich zusammenzufassen. Das hilft Agenten, den Vorgangskontext zu verstehen und den bisherigen Fortschritt nachzuvollziehen. Sie können so schnell Maßnahmen ergreifen und Hilfe leisten.

Das Zusammenfassen von Vorgangsdetails mit Atlassian Intelligence ist besonders geeignet für:

  • Vorgänge, deren Beschreibung und Kommentare in englischer Sprache verfasst wurden.
  • Vorgänge mit einer großen Zahl von Kommentaren und/oder langen Kommentaren und Beschreibungen.
Überlegungen zum Zusammenfassen von Vorgangsdetails mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Die Modelle, die zur Zusammenfassung von Vorgangsdetails mit Atlassian Intelligence verwendet werden, können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Das Zusammenfassen von Vorgangsdetails mit Atlassian Intelligence ist in folgenden Fällen weniger geeignet:

  • Du verwendest eine andere Sprache als Englisch.
  • Der Vorgang hat keinen Verlauf oder Details

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Deine Daten und das Zusammenfassen von Vorgangsdetails mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Zusammenfassung von Vorgangsdetails mit Atlassian Intelligence verwendet werden. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, z. B. Details über den Vorgang in Jira Service Management, wie die Vorgangsbeschreibung, Kommentare und am Ticket beteiligte Benutzer.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

In Bezug auf deine Daten gilt bei der Zusammenfassung von Vorgangsdetails mit Atlassian Intelligence Folgendes:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion richtet sich nach den Berechtigungen in deiner Instanz. Die Schaltfläche "Zusammenfassen" wird nur Agenten und Projektadministratoren angezeigt.

Generative AI im Editor

So fasst Atlassian Intelligence intelligente Links zusammen Copy link to heading Copied! Anzeigen
  

Summarize Smart Links with Atlassian Intelligence (AI) is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für die Zusammenfassung intelligenter Links Copy link to heading Copied! Anzeigen
  

Wenn du in Jira, Confluence oder Google Docs den Mauszeiger über einen intelligenten Link bewegst, kann dir Atlassian Intelligence den Inhalt zusammenfassen, damit du die Relevanz des Links beurteilen und über die nächsten Schritte entscheiden kannst. Dies reduziert Kontextwechsel, da du die aktuelle Seite nicht verlassen musst.

Die Zusammenfassung intelligenter Links mit KI funktioniert am besten in den folgenden Szenarien:

  • Du siehst dir eine Seite oder einen Vorgang mit einem oder mehren intelligenten Links an.
  • Du siehst dir eine Seite oder einen Vorgang mit einem oder mehren intelligenten Links an, die viele oder komplexe Informationen enthalten und daher von den Inhalten ablenken, die du eigentlich lesen wolltest.
Überlegungen zum Zusammenfassen intelligenter Links mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Die Modelle für die Zusammenfassung intelligenter Links mit KI können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Zusammenfassungen erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Zusammenfassung intelligenter Links mit KI in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du musst Inhalte zusammenfassen, die sehr kurz sind.
  • Du musst alle Metadaten und den Inhalt in einem Link zusammenfassen. Das ist zum Beispiel der Fall, wenn du alle Informationen zu den Feldwerten eines Jira-Tickets sowie zu der Beschreibung und den Kommentaren benötigst.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Deine Daten und die Zusammenfassung intelligenter Links mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Zusammenfassung von Vorgangsdetails mit Atlassian Intelligence verwendet werden. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, beispielsweise Inhalte des Links, den du zusammenfassen möchtest.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, wendet die Zusammenfassung intelligenter Links mit KI die folgenden Maßnahmen an.

  • Deine Zusammenfassungen:
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on ourSubprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion richtet sich nach den Berechtigungen in deiner Instanz. Wenn du zum Beispiel keinen Zugriff auf eine Seite oder ein Ticket in Jira, Confluence oder Google hast, kannst du die Inhalte aus dieser Quelle nicht zusammenfassen. Wenn du nicht möchtest, dass deine Inhalte in Antworten für andere Nutzer in deiner Instanz verfügbar sind, wende dich an deinen Organisationsadministrator, um die Berechtigungen richtig einzustellen.

Atlassian Intelligence-Antworten in Jira Service Management

Funktionsweise von Atlassian-Intelligence-Antworten in Jira Service Management Copy link to heading Copied! Anzeigen
  

Atlassian Intelligence answers is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für Atlassian-Intelligence-Antworten in Jira Service Management Copy link to heading Copied! Anzeigen
  

Die Funktion "Atlassian Intelligence-Antworten" kann mit dem virtuellen Service-Agenten in Jira Service Management verbunden werden. Sie nutzt künstliche Intelligenz, um in deinen verknüpften Wissensdatenbanken zu suchen und Kundenfragen zu beantworten.

Die Funktion "Atlassian Intelligence-Antworten" funktioniert am besten in folgenden Szenarien:

  • Du hast eine vollständige, aktuelle verlinkte Wissensdatenbank, auf die der virtuelle Service-Agent zugreifen kann, um mit Atlassian Intelligence-Antworten Kundenfragen zu beantworten.
  • Atlassian Intelligence-Antworten eignen sich für Kundenfragen, die folgende Merkmale haben:
    • Sie können durch die Bereitstellung von Informationen oder Anweisungen gelöst werden.
    • Sie werden in deinen vorhandenen Wissensdatenbank-Artikeln behandelt (oder können hinzugefügt werden).
    • Sie müssen in der Regel nicht an einen deiner Agenten eskaliert werden.
Erwägungen für die Verwendung von Atlassian Intelligence-Antworten in Jira Service Management Copy link to heading Copied! Anzeigen
  

Die Modelle zur Verwendung von Atlassian Intelligence-Antworten können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Verwendung von Atlassian Intelligence-Antworten in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du musst der Funktion "Atlassian Intelligence-Antworten" Zugriff auf Informationen gewähren, die dir nicht ohne Weiteres zur Verfügung stehen (z. B. in deiner verlinkten Wissensdatenbank), damit deine Anfrage richtig beantwortet werden kann.
  • Deine Wissensdatenbank ist veraltet oder unvollständig, weswegen Suchanfragen möglicherweise nicht hilfreich sind.
  • Die Artikel in deiner Wissensdatenbank liefern keine relevanten oder qualitativ hochwertigen Informationen. In diesem Fall kann es passieren, dass die Atlassian Intelligence-Antworten Kunden auf Basis dieser Artikel möglicherweise noch weniger relevante Informationen bieten.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • die proaktive Überprüfung und Aktualisierung deiner verknüpften Wissensdatenbank (und der darin enthaltenen Artikel), um sicherzustellen, dass sie vollständig und aktuell bleibt,
  • die proaktive Überprüfung der Berechtigungen und Einschränkungen, die für deine verknüpften Wissensdatenbankbereiche gelten. So stellst du sicher, dass Atlassian Intelligence-Antworten Zugriff auf die richtigen Informationen hat, damit sie auch nützlich sind.
Deine Daten und Atlassian Intelligence-Antworten in Jira Service Management Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie Atlassian Intelligence-Antworten in Jira Service Management deine Daten verwendet. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, wie deine verknüpften Wissensdatenbankbereiche.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.
  • Was deine Daten angeht, wendet Atlassian Intelligence-Antworten in Jira Service Management die folgenden Maßnahmen an:
  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.
    • Are not stored by any LLM vendor.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion berücksichtigt die Berechtigungen und Einschränkungen, die für deine verknüpften Wissensdatenbankbereiche gelten. Das bedeutet, dass alle Seiten, die Kunden auf deinem Jira Service Management-Portal zur Verfügung stehen, über Atlassian Intelligence-Antworten verfügbar gemacht werden. Wenn zum Beispiel der Zugriff auf eine bestimmte Confluence-Seite eingeschränkt und diese nicht allgemein über Jira Service Management verfügbar ist, werden daraus keine Inhalte von Atlassian Intelligence-Antworten vorgeschlagen. Wenn du nicht möchtest, dass deine Inhalte in Antworten für andere Benutzer in deiner Instanz verfügbar sind, wende dich an deinen Organisationsadministrator, um die Berechtigungen entsprechend einzustellen.
How summarize a Whiteboard uses Atlassian Intelligence Copy link to heading Copied! Show
  

Summarize a Whiteboard is powered by large language models developed by OpenAI. These large language models include OpenAI’s GPT series of models.

Atlassian Intelligence uses these models to analyze and generate natural language within our products.

These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on.

Read more about the capabilities of OpenAI's models.

Use cases for summarize a Whiteboard Copy link to heading Copied! Show
  

Save time and get the details you need to do your work faster by generating a summary of the content on a whiteboard using Atlassian Intelligence.

We believe that Summarize a Whiteboard works best in scenarios where you have already created content with a Whiteboard. You can copy or create a page from the summary Atlassian Intelligence generates using the buttons at the bottom of the summary panel. You can also rate the quality of the summary and provide feedback.

Considerations when using summarize a Whiteboard Copy link to heading Copied! Show
  

It’s important to remember that because of the way that the models used to power Summarize a Whiteboard work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete.

While we continue to build better support for macros, tables, and expand in summaries, we’ve found that Summarize a Whiteboard using Atlassian Intelligence is less useful in scenarios where:

  • You need a summary of a Whiteboard where there is not enough content.

  • You need a summary of a Whiteboard where most of the content is in links or images.

We encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

Your data and summarize a Whiteboard Copy link to heading Copied! Show
  

We understand you may have questions about how summarize a Whiteboard uses your data. This section supplements the information available on our FAQ page.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as content from the Whiteboard that you want to summarize.

  • Data about how you interact with our features, such as clickstream data and the people you work with.

  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, summarize a Whiteboard applies the following measures.

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third-party LLM provider other than OpenAI.
    • Are not stored by OpenAI.
    • Are not used to improve OpenAI.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • This feature follows the permissions in your instance. For example, if you do not have access to a Confluence page, you will not be shown this feature or be able to summarize a page using Atlassian Intelligence. If you do not want your content to be available to other users in your instance, work with your org admin to ensure your permissions are set appropriately.

Kurze Zusammenfassung in Confluence

So erstellt Atlassian Intelligence benutzerdefinierte Formeln in Atlassian Analytics Copy link to heading Copied! Anzeigen
  

Writing custom formulas using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache zu analysieren, und übersetzt sie dann innerhalb von Atlassian Analytics in SQLite.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für benutzerdefinierte Formeln mit AI Copy link to heading Copied! Anzeigen
  

Beschreibe Atlassian Intelligence, wie du die Daten aus deiner Ergebnistabelle transformieren möchtest. AI übersetzt dies in einen SQLite-Ausdruck, der für benutzerdefinierte Formeln verwendet wird. So musst du deine SQLite-Ausdrücke nicht von Grund auf neu verfassen. Wenn du eine Frage gestellt hast, verwendet Atlassian Intelligence die Daten aus der Ergebnistabelle des vorherigen Visual SQL-Schritts, um einen SQLite-Ausdruck zu generieren, der Berechnungen oder Operationen auf diese Daten für dein Diagramm anwendet. Das kann dir auch helfen, SQLite-Funktionen und ihre Syntax besser zu verstehen.

Unserer Meinung nach funktioniert das Erstellen von benutzerdefinierten Formeln mit Atlassian Intelligence am besten in Szenarien, in denen Folgendes zutrifft:

  • Du möchtest Änderungen auf eine einzelne Spalte deiner abgefragten Daten anwenden.
  • Du möchtest mit einem generierten SQLite-Ausdruck beginnen und ihn bei Bedarf präzisieren.
  • Die Frage in natürlicher Sprache beinhaltet Wörter und Konzepte, auf die in deinen Spaltenüberschriften oder Zeilendaten verwiesen wird.
  • Du möchtest mehr über SQLite erfahren und die verfügbaren SQLite-Funktionen entdecken.
Hinweise zum Erstellen von benutzerdefinierten Formeln mit AI Copy link to heading Copied! Anzeigen
  

Denke bei der Verwendung benutzerdefinierter Formeln daran, dass die in Atlassian Intelligence verwendeten Modelle manchmal ungenaue, unvollständige oder unzuverlässige Ergebnisse generieren können.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Unserer Erfahrung nach ist das Erstellen von benutzerdefinierten Formeln mit Atlassian Intelligence in folgenden Fällen weniger geeignet:

  • Du möchtest Änderungen auf mehr als eine Spalte in einer einzelnen benutzerdefinierten Formel anwenden.
  • Die Funktion soll auf Informationen zugreifen, die in den Daten der Ergebnistabelle nicht ohne Weiteres verfügbar sind.
  • Der Prompt wird in einer anderen Sprache als Englisch formuliert.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Beschreibe so genau wie möglich, was Atlassian Intelligence machen soll.
  • So stellst du sicher, dass die abgefragten Daten die Daten abdecken, die zur Beantwortung deiner Frage benötigt werden.
Deine Daten und das Erstellen von benutzerdefinierten Formeln mit AI Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Nutzung von Atlassian Intelligence für die Confluence-Automatisierung verwendet werden. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).

  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, beispielsweise Inhalte der Confluence-Seite, die du zusammenfassen möchtest.

  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.

  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, werden für die Zusammenfassung von Seiten und Blogs mit Atlassian Intelligence folgende Maßnahmen angewendet:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion richtet sich nach den Berechtigungen in deiner Instanz. Wenn du zum Beispiel keinen Zugriff auf eine Confluence-Seite hast, wird dir diese Funktion nicht angezeigt und du kannst keine Seite mit Atlassian Intelligence zusammenfassen. Wenn du nicht möchtest, dass deine Inhalte für andere Nutzer in deiner Instanz verfügbar sind, wende dich an deinen Organisationsadministrator, um die Berechtigungen richtig einzustellen.
So nutzt "create incident" Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Create incident with AI using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

These models generate responses based on your input and are probabilistic in nature. This means that their responses are generated by predicting the most probable next word or text based on the data that they've been trained on.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für "create incident with AI" Copy link to heading Copied! Anzeigen
  

Wenn du in Jira Service Management eine oder mehrere Warnmeldungen oder Warnungsgruppen zu einem Vorfall eskalierst, nutzt "create incident with AI" Atlassian Intelligence, um alle Kontextinformationen vorauszufüllen, damit du sie im Rahmen der Vorfallerstellung überprüfen kannst. Auf diese Weise können Benutzer den Kontext des Vorfalls, der anhand dieser Warnmeldungen oder Warnungsgruppen erstellt wurde, schnell verstehen und vorausgefüllte Informationen wie Titel, Beschreibung und Priorität der Warnmeldung überprüfen und bestätigen, wenn sie zu einem Vorfall eskaliert wird.

Die Funktion "create incident with AI" funktioniert am besten in den folgenden Szenarien:

  • Die Warnmeldungen, die du zu einem Vorfall eskalierst, enthalten Titel und Beschreibungen auf Englisch.
  • Die Warnmeldungen, die du zu einem Vorfall eskalierst, haben ausführliche Beschreibungen.
  • Du erstellst einen Vorfall aus mehr als einer Warnmeldung.
Überlegungen bei der Verwendung von "create incident with AI" Copy link to heading Copied! Anzeigen
  

Die Modelle zur Verwendung dieser Funktion können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass "create incident with AI" in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Die Warnmeldungen, die du zu einem Vorfall eskalierst, enthalten Titel und/oder Beschreibungen in einer anderen Sprache als Englisch.
  • Die Warnmeldungen, die du zu einem Vorfall eskalierst, enthalten nur begrenzte Informationen.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Um die nützlichsten Ergebnisse zu erhalten, solltest du so genau wie möglich beschreiben, was Atlassian Intelligence machen soll.

Denke auch daran, dass du für Atlassian Intelligence möglichst spezifische Aufforderungen formulierst.

Deine Daten und die Erstellung von Vorfällen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie "create incident with AI" deine Daten verwendet. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deinen Prompt relevant ist, beispielsweise die Beschreibung, der Titel und die Priorität der Jira Service Management-Warnmeldung.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, wendet "create incident with AI" die folgenden Maßnahmen an.

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM providor.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion richtet sich nach den Berechtigungen für Warnmeldungen in deiner Instanz. Nur Agenten, die berechtigt sind, die Warnmeldung einzusehen und zu einem Vorfall zu eskalieren, erhalten Vorschläge von Atlassian Intelligence zum Ausfüllen der Details für den Vorfall, der gerade erstellt wird.

Create post-incident review

How create post-incident review uses Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

PIR (Post-Incident Review) creation by Atlassian Intelligence is powered by large language models developed by OpenAI. These large language models include OpenAI’s GPT series of models. Atlassian Intelligence uses these models to analyze and generate natural language within our products.

These models generate responses based on users' inputs and are probabilistic in nature. This means that the responses are generated by predicting the most probable next word or text, based on the data that they’ve been trained on.

Lies mehr über die Funktionen der OpenAI-Modelle oder informiere dich in den OpenAI-Forschungsberichten über den Ansatz.

Use cases for create post-incident review with AI Copy link to heading Copied! Anzeigen
  

PIRs are a core part of the incident management process, helping incident responders and managers learn from current incidents and pass along insights to prevent similar incidents in the future. Atlassian Intelligence helps to accelerate the often time-consuming task of compiling a PIR by suggesting a PIR description based on relevant contextual information in your Jira Service Management instance and chat tools like Slack for you to review.

We believe that PIR creation using AI works best in scenarios where:

  • Your organization has a consistent practice of compiling PIRs for incidents.

  • Your team has incident details scattered across chat tools like Slack and Jira Service Management, which requires you to spend more time compiling a PIR from those sources.

  • Your organization records incidents in Jira Service Management with complete, up-to-date information.

Considerations when using create post-incident review with AI Copy link to heading Copied! Anzeigen
  

It’s important to remember that because of the way that the models used to power PIR creation work, they can sometimes behave in ways that are inaccurate, incomplete, or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on or include content that might sound reasonable but is false or incomplete.

We’ve found that PIR creation using AI is less useful in scenarios where:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • You need PIR creation to have access to information that isn’t readily available to you (for example, chat channels which you don’t have access to) to properly generate the PIR description.
  • The data available in your Jira Service Management instance is incomplete or insufficiently detailed, so the PIR creation may not be able to generate an accurate description.

For this reason, we encourage you to think about situations where you can use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

Wir empfehlen dir außerdem:

  • Being as specific as possible in what you want Atlassian Intelligence to do.
  • Ensuring that you and your team follow incident management practices consistently. For example, by recording complete and accurate details of incidents in your Jira Service Management instance and linking the relevant chat channels to the incident.
Your data and create post-incident review using AI Copy link to heading Copied! Anzeigen
  

We understand you may have questions about how create post-incident review using AI uses your data. This section supplements the information available on our FAQ page.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Context from your instance relevant to your prompt, such as incident data (such as summary, labels, priority, responder teams, and description), linked alerts, and linked Slack chat channels.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

When it comes to your data, PIR creation using AI applies the following measures.

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.

    • Werden nicht an andere LLM-Drittanbieter außer OpenAI gesendet.

    • Werden nicht von OpenAI gespeichert.

    • Werden nicht zur Verbesserung von OpenAI-Modellen verwendet.

    • Werden nur verwendet, um dich zu unterstützen.

  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page.

  • This feature follows the permissions in your instance. For example, if you do not have access to the linked alerts of the incident or linked Slack channels, you will not be suggested content from these sources in the response you receive. If you do not want your content to be available in responses to other users in your instance, please work with your org admin to ensure your permissions are set appropriately.

Beschreibungen für Pull-Anfragen mit Atlassian Intelligence generieren

So generiert Bitbucket Cloud mit Atlassian Intelligence Beschreibungen für Pull-Anfragen Copy link to heading Copied! Anzeigen
  

Generating pull request descriptions with Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache und Code in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für die Generierung von Pull-Anfragen-Beschreibungen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Atlassian Intelligence kann dir helfen, Inhalte zu generieren, zu transformieren und zusammenzufassen, während du im Rahmen der Code-Prüfung von Bitbucket Cloud Beschreibungen für oder Kommentare zu Pull-Anfragen verfasst. Dazu gehört beispielsweise:

  • Auf der Grundlage der Codeänderungen in der Pull-Anfrage eine Pull-Anfragen-Beschreibung generieren
  • Den Ton einer Pull-Anfragen-Beschreibung zusammenfassen, verbessern oder ändern
  • Den Ton eines Pull-Anfragen-Kommentars zusammenfassen, verbessern oder ändern

Wir sind der Meinung, dass das Generieren von Pull-Anfragen-Beschreibungen für Bitbucket Cloud mit Atlassian Intelligence am besten in folgenden Szenarien funktioniert:

  • Du bist Programmierer und möchtest dich beim Schreiben oder Verbessern von Beschreibungen für Pull-Anfragen von Atlassian Intelligence unterstützen lassen. Das funktioniert am besten für Teams, die überprüfen und bestätigen können, dass der von Atlassian Intelligence generierte Inhalt für die jeweilige Pull-Anfragen-Beschreibung angemessen ist.
  • Du bist Codeprüfer und möchtest dich von Atlassian Intelligence dabei unterstützen lassen, den Ton oder den Inhalt eines bereits verfassten Kommentars zu einer Pull-Anfrage zu verbessern.
Überlegungen zum Generieren von Pull-Anfragen-Beschreibungen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Die Modelle zur Verwendung dieser Funktion können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass das Generieren von Pull-Anfragen-Beschreibungen für Bitbucket Cloud mit Atlassian Intelligence in folgenden Szenarien weniger nützlich ist:

  • Du benötigst die Pull-Anfragen-Beschreibung, um auf Informationen zu verweisen, die noch nicht in den Codeänderungen enthalten sind (zum Beispiel Quellcode, der sich an anderer Stelle im Repository befindet).
  • Du bist nicht in der Lage zu überprüfen und zu bestätigen, dass die von Atlassian Intelligence generierten Inhalte die Pull-Anfrage korrekt wiedergeben.
  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Beschreibe so genau wie möglich, was Atlassian Intelligence machen soll.
  • Korrigiere, prüfe und bearbeite die vom AI-Schreibassistenten generierten Ergebnisse, um Genauigkeit und Klarheit zu gewährleisten.
  • Arbeite mit anderen zusammen, um Feedback einzuholen und die Qualität deiner Ergebnisse zu verbessern.
Deine Daten und das Generieren von Pull-Anfragen-Beschreibungen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Definition von Begriffen mit Atlassian Intelligence in Confluence verwendet werden. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben)
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, beispielsweise:
    • die Codeänderungen und Commit-Nachrichten in der Pull-Anfrage
    • der Inhalt deiner Pull-Anfragen-Beschreibung
    • der Inhalt deines Pull-Anfragen-Kommentars
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du für diese Funktion abgibst

In Bezug auf deine Daten gilt beim Generieren von Pull-Anfragen-Beschreibungen mit Atlassian Intelligence Folgendes:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page.

SQL-Abfragen in Atlassian Analytics generieren

Wie Atlassian Intelligence SQL-Abfragen in Atlassian Analytics generiert Copy link to heading Copied! Anzeigen
  

Generating SQL queries using Atlassian Intelligence in Atlassian Analytics is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache zu analysieren und zu verstehen, und übersetzt sie dann innerhalb von Atlassian Analytics in SQL (Structured Query Language).

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für das Generieren von SQL-Abfragen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Stelle Atlassian Intelligence eine Frage in natürlicher Sprache und lass sie in SQL übersetzen, anstatt deine eigenen SQL-Abfragen von Grund auf neu zu schreiben. Nachdem du eine Frage gestellt hast, verwendet Atlassian Intelligence das Atlassian Data Lake-Schema deiner ausgewählten Datenquelle, um eine SQL-Abfrage zu generieren, mit der du Diagramme in deinen Atlassian Analytics-Dashboards erstellen kannst. Außerdem kannst du damit mehr über das Schema im Data Lake erfahren.

Das Generieren von SQL-Abfragen mit Atlassian Intelligence funktioniert am besten in folgenden Szenarien:

  • Du möchtest ein benutzerdefiniertes Diagramm auf Basis der generierten SQL-Abfragen erstellen und diese bei Bedarf verfeinern.
  • Die Frage in natürlicher Sprache beinhaltet Wörter und Konzepte, auf die im Atlassian Data Lake-Schema verwiesen wird, und ist möglichst spezifisch.
  • Du möchtest mehr über das Atlassian Data Lake-Schema erfahren.

Bist du dir nicht sicher, welche Fragen du stellen sollst?

Hier sind ein paar Vorschläge:

  • Was sind die Top 5 Stichwörter nach Anzahl der offen Jira-Vorgänge?
  • Wie viele Jira-Vorgänge wurden im letzten Monat im Projekt X abgeschlossen?
  • Wie lange dauern die Top 5 Status im Schnitt an?
  • Welche 5 Confluence-Seiten wurden im letzten Monat am häufigsten als Favorit markiert?
  • Wie viele Anfragen wurden in den letzten 5 Tagen in unserem Jira Service Management-Projekt X gestellt?
Überlegungen zum Generieren von SQL-Abfragen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Die Modelle, die zum Generieren von SQL-Abfragen mit Atlassian Intelligence verwendet werden, können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Das Generieren von SQL-Abfragen mit Atlassian Intelligence ist in folgenden Fällen weniger geeignet:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du benötigst diese Funktion, um Zugriff auf Informationen zu erhalten, die im Atlassian Data Lake-Schema nicht ohne Weiteres verfügbar sind (z. B. Daten für Advanced Roadmaps), um die Frage richtig beantworten zu können.
  • Die Frage beinhaltet Verweise auf benutzerdefinierte Felder.
  • Die Frage wird in einer anderen Sprache als Englisch gestellt.
  • Du bist mit SQL nicht ausreichend vertraut, um das von Atlassian Intelligence zurückgegebene SQL zu validieren.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Beschreibe so genau wie möglich, was Atlassian Intelligence machen soll.
  • Stelle sicher, dass die verwendete Atlassian Data Lake-Datenquelle die nötigen Daten zur Beantwortung deiner Frage enthält.
Deine Daten beim Generieren von SQL-Abfragen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für das Generieren von SQL-Abfragen mit Atlassian Intelligence verwendet werden. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, einschließlich der öffentlich verfügbaren Atlassian Data Lake-Schemas, die für deine Instanz gelten.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

In Bezug auf deine Daten gilt beim Generieren von SQL-Abfragen mit Atlassian Intelligence Folgendes:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion richtet sich nach den Berechtigungen in deiner Atlassian Data Lake-Verbindung. Wenn du zum Beispiel keinen Zugriff auf eine Atlassian Data Lake-Verbindung hast, kannst du keine SQL-Abfrage dafür generieren.

Suche nach Antworten in Confluence

So sucht Atlassian Intelligence in Confluence nach Antworten Copy link to heading Copied! Anzeigen
  

Search answers in Confluence using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für die Suche nach Antworten in Confluence Copy link to heading Copied! Anzeigen
  

Der Umfang der Wissensdatenbanken nimmt zu schnell zu, als dass Benutzer mit dieser Entwicklung Schritt halten könnten. Dank der Suche nach Antworten in Confluence mit Atlassian Intelligence gelangen Kunden schneller an wichtige Informationen, mit denen sie ihre Aufgaben besser erledigen können. Die Funktion hilft dir dabei, die benötigten Informationen problemlos zu finden. Atlassian Intelligence versteht die Art von Fragen, die du Teamkollegen stellen würdest, und beantwortet sie sofort. Erfahre mehr über die Suche nach Antworten in Confluence mit Atlassian Intelligence.

Unserer Meinung nach eignet sich Atlassian Intelligence für die Suche nach Antworten in Confluence am besten, wenn deine Confluence-Site detaillierte, umfassende und aktuelle Inhalte umfasst.

Diese Funktion erzeugt keine neuen Inhalte, sondern durchsucht Confluence-Seiten und -Blogs (unter Beachtung von Einschränkungen), um eine Antwort auf deine Frage zu finden. Atlassian Intelligence generiert Antworten ausschließlich auf der Grundlage dessen, was in deiner Confluence-Site enthalten ist und worauf du tatsächlich Zugriff hast.

Bist du dir nicht sicher, welche Fragen du stellen sollst?

Hier sind ein paar Vorschläge:

  • Wann ist der nächste Betriebsausflug des Marketingteams?
  • Wie lautet die Richtlinie für das Arbeiten von zu Hause?
  • Was ist das Projekt Sunrise?
  • Wann findet unsere nächste Marketingkampagne statt?
  • Wo sind die Versionshinweise für das neueste Produkt von SpaceLaunch?
  • Wie reiche ich Ausgaben zur Erstattung ein?
Überlegungen zur Suche nach Antworten in Confluence mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Bitte beachte, dass die Modelle, die für die Suche nach Antworten in Confluence mit Atlassian Intelligence verwendet werden, aufgrund ihrer Funktionsweise ungenaue, unvollständige oder unzuverlässige Ergebnisse liefern können.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Verwendung von Atlassian Intelligence für die Suche nach Antworten in Confluence in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du benötigst aktuelle und korrekte Informationen zu Daten, die sich häufig ändern (zum Beispiel zu einer Roadmap, die monatlich aktualisiert wird).
  • Du benötigst aktuelle und korrekte Informationen über bestimmte Personen und die Rolle, die sie in deinem Unternehmen spielen.
  • Du benötigst Zugriff auf Informationen, die dir nicht ohne Weiteres zur Verfügung stehen (etwa auf eingeschränkte Seiten in deiner Confluence-Instanz), um deine Frage richtig beantworten zu können.
  • Die Antwort besteht aus einer Reihe verschiedener Werte oder Kategorien wie Metriken, die jede Woche aktualisiert werden.
  • Du brauchst Antworten, die nuanciert sind, Komplexitäten erfassen oder eine menschliche Denkweise erfordern.

Vielleicht wirst du auch feststellen, dass die Suche nach Antworten in Confluence mithilfe von Atlassian Intelligence in bestimmten Confluence-Bereichen nicht wie erwartet funktioniert, weil die darin enthaltenen Dokumente in mehreren Sprachen verfasst sind.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Beschreibe so genau wie möglich, was Atlassian Intelligence machen soll.
  • Stelle Fragen zu Dingen, von denen du weißt, dass sie in deiner Confluence-Instanz dokumentiert sind und auf die du Zugriff hast.
Deine Daten und die Suche nach Antworten in Confluence mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Suche nach Antworten in Confluence mit Atlassian Intelligence verwendet werden. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, z. B. Inhalte von den ersten drei Seiten, die von der Confluence-Suche zurückgegeben wurden.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

In Bezug auf deine Daten gilt bei der Suche nach Antworten in Confluence mit Atlassian Intelligence Folgendes:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion richtet sich nach den Berechtigungen in deiner Instanz. Wenn du zum Beispiel keinen Zugriff auf eine bestimmte Confluence-Seite hast, verwendet diese Funktion keine Inhalte von dieser Seite in der angezeigten Antwort. Wenn du nicht möchtest, dass deine Inhalte in Antworten für andere Nutzer in deiner Instanz verfügbar sind, wende dich an deinen Unternehmensadministrator, um die Berechtigungen richtig einzustellen.

Suche nach Vorgängen in Jira

So sucht Atlassian Intelligence nach Vorgängen in Jira Copy link to heading Copied! Anzeigen
  

Search issues using Atlassian Intelligence in Jira is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wendet diese Modelle an, um natürliche Sprache zu analysieren und zu verstehen, und übersetzt sie dann innerhalb unserer Produkte in JQL-Code (Jira Query Language).

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für die Suche nach Vorgängen in Jira Copy link to heading Copied! Anzeigen
  

Du kannst Atlassian Intelligence jetzt auch alles Mögliche in der Alltagssprache fragen, anstatt dir komplexe Abfragen ausdenken zu müssen. Bei der Suche nach Vorgängen mit Atlassian Intelligence wird deine Eingabeaufforderung in eine JQL-Abfrage übersetzt, die deine Suche nach bestimmten Vorgängen beschleunigt.

Unserer Meinung nach eignet sich Atlassian Intelligence für die Suche nach Vorgängen am besten in den folgenden Szenarien:

  • Du fragst Jira-Vorgänge mithilfe von Vorgangsfeldern ab, die in deinem Jira-Projekt verfügbar sind.
  • Die Abfrage weist bestimmte Felder und Werte auf, die eine Eingrenzung deiner Vorgangssuche ermöglichen.
  • Die von dir durchsuchten Felder und Werte sind in deinem Jira-Projekt enthalten.
  • Deine Abfrage ist auf Englisch.
  • Die Abfrage kann in JQL übersetzt werden. Da Atlassian Intelligence Eingabeaufforderungen in JQL-Code konvertiert, liefern Eingaben mit Schlüsselwörtern, die in JQL übersetzt werden können, bessere Ergebnisse.
Überlegungen zur Suche nach Vorgängen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Bitte beachte, dass die Modelle, die für die Suche nach Vorgängen mit Atlassian Intelligence verwendet werden, aufgrund ihrer Funktionsweise ungenaue, unvollständige oder unzuverlässige Ergebnisse liefern können.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Verwendung von Atlassian Intelligence für die Suche nach Vorgängen in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du suchst nach Jira-Entitäten, bei denen es sich nicht um Vorgänge handelt, beispielsweise Projekte, Boards oder Benutzer.
  • Du verwendest eine andere Sprache als Englisch für die Suche.
  • Du nutzt die Suche, um Vorgänge zu analysieren und anschließend Diagramme, Zusammenfassungen oder andere Darstellungen deiner Daten zu erstellen.
  • Für die Suche sind Funktionen erforderlich, die derzeit in JQL nicht verfügbar sind (zum Beispiel eine Frage wie "Suche Vorgänge, die ich kommentiert habe", die nicht in eine JQL-Funktion übersetzt werden kann).

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Denke auch daran, dass du für Atlassian Intelligence möglichst spezifische Aufforderungen formulierst. Stelle sicher, dass du genau die Felder und Werte eingibst, nach denen du suchst.

Deine Daten und die Suche nach Vorgängen mit Atlassian Intelligence Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten für die Suche nach Vorgängen mit Atlassian Intelligence verwendet werden. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, wie zum Beispiel das aktuelle Projekt, in dem du dich befindest.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, werden bei der Suche nach Vorgängen mit Atlassian Intelligence folgende Maßnahmen angewendet:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Deine Suchergebnisse basieren auf den Vorgängen und Feldern, auf die du Zugriff hast (wenn du zum Beispiel keinen Zugriff auf ein bestimmtes Jira-Projekt hast, erhältst du keine Suchergebnisse für Vorgänge und Felder aus diesem Projekt).

Sofortige Einblicke durch Daten erhalten

Wähle unten eine Atlassian Intelligence-Funktion aus, um einen transparenten Überblick über Anwendungsfälle und die Datennutzung zu erhalten.

Chart Insights

Wie Chart Insights Atlassian Intelligence nutzt Copy link to heading Copied! Anzeigen
  

Chart insights is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence verwendet diese Modelle, um natürliche Sprache in unseren Produkten zu analysieren und zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für Chart Insights Copy link to heading Copied! Anzeigen
  

Chart Insights nutzt Atlassian Intelligence, um dir schnellere Dateneinblicke in Atlassian-Analytics-Diagrammen zu bieten. Dazu werden der Dashboard-Titel, der Diagrammtitel und die Diagrammdaten (einschließlich Spaltenüberschriften und Zeilenwerte) verwendet, um eine Zusammenfassung des Diagramms und der enthaltenen Daten in natürlicher Sprache zu generieren. Außerdem versucht es, Trends oder Anomalien zu identifizieren, um dir spezifische Einblicke in das Diagramm zu geben.

Chart Insights funktioniert am besten in den folgenden Szenarien:

  • Diagramme mit einer großen Anzahl von Datenzeilen
  • Diagramme mit einem Dashboard-Titel
  • Diagramme mit Spaltenüberschriften
  • Diagramme mit Werten in allen Zeilen und Spalten

Balkendiagramme, Liniendiagramme und Balken-Linien-Kombinationen funktionieren am besten mit dieser Funktion, da sie in der Regel Trends, Daten und viele Datenzeilen enthalten.

Überlegungen bei der Verwendung von Chart Insights Copy link to heading Copied! Anzeigen
  

Die Modelle zur Verwendung dieser Funktion können unter Umständen zu ungenauen, unvollständigen oder unzuverlässigen Ergebnissen führen.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass Chart Insights in den folgenden Szenarien weniger nützlich ist:

  • Diagramme mit einer oder wenigen Datenzeilen
  • Diagramme mit einem einzigen Wert
  • Diagramme ohne Titel, Achsenbeschriftungen und Spaltenüberschriften

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Lass die Richtigkeit der Erkenntnisse noch einmal von anderen Benutzern überprüfen, die möglicherweise mehr Kontext zu den Daten im Diagramm haben.
  • Berücksichtige, dass Atlassian Intelligence bei der Beantwortung nur den Kontext eines einzelnen Diagramms und nicht das gesamte Dashboard verwendet.
Deine Daten und Chart Insights Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie Chart Insights deine Daten verwendet. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist, zum Beispiel die Daten in deinem Diagramm.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, wendet Chart Insights die folgenden Maßnahmen an.

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion verwendet nur Informationen aus dem Dashboard, auf das du Zugriff hast und für das du Einblicke angefordert hast.

Anfragetypen in Jira Service Management vorschlagen

So schlägt Atlassian Intelligence Anfragetypen in Jira Service Management vor Copy link to heading Copied! Anzeigen
  

Suggest request types using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wendet diese Modelle an, um Eingaben in natürlicher Sprache zu analysieren und Empfehlungen für Anfragetypen und Beschreibungen für dich in Jira Service Management zu generieren.

Diese Modelle generieren Antworten auf der Grundlage deiner Eingaben und sind probabilistischer Natur. Das bedeutet, sie generieren Antworten basierend auf den Daten, mit denen sie trainiert wurden. Die Modelle prognostizieren also das Wort oder den Text, das/der wahrscheinlich als Nächstes folgt.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Anwendungsfälle für das Vorschlagen von Anfragetypen in Jira Service Management Copy link to heading Copied! Anzeigen
  

Verbringe weniger Zeit damit herauszufinden, welche Anfragetypen du für dein Projekt erstellen musst, und lasse dir stattdessen Vorschläge von Atlassian Intelligence geben. Beschreibe einfach deine Arbeit und welche Aufgaben dein Team normalerweise erledigt, um zu sehen, welche Arten von Anfragen du erstellen könntest. Wähle einen der von Atlassian Intelligence generierten Vorschläge aus, um einen Anfragetyp zu erstellen. Erfahre mehr darüber, wie du Atlassian Intelligence nutzen kannst, um Anfragetypen vorzuschlagen.

Unserer Meinung nach eignet sich Atlassian Intelligence für Vorschläge zu Anfragetypen am besten in den folgenden Szenarien:

  • Du hast sehr spezielle Anwendungsfälle, die die vorhandenen Vorlagen für Anfragetypen nicht abdecken.
  • Du hast sehr allgemeine Anforderungen und bist auf der Suche nach Ideen.
  • Du verwendest eine weit verbreitete Sprache wie Englisch oder Spanisch.
Erwägungen für die Verwendung von Atlassian Intelligence für Vorschläge von Anfragetypen Copy link to heading Copied! Anzeigen
  

Bitte beachte, dass die Modelle, die zum Vorschlagen von Anfragetypen mit Atlassian Intelligence verwendet werden, aufgrund ihrer Funktionsweise ungenaue, unvollständige oder unzuverlässige Ergebnisse liefern können.

Es könnte beispielsweise sein, dass du Antworten erhältst, die den Inhalt, auf dem sie basieren, nicht genau widerspiegeln, oder Inhalte umfassen, die sinnvoll klingen, aber falsch oder unvollständig sind.

Wir haben festgestellt, dass die Verwendung von Atlassian Intelligence für Vorschläge zu Anfragetypen in den folgenden Szenarien weniger nützlich ist:

  • Du benötigst aktuelle und genaue Informationen über Personen, Orte und Fakten.
  • Du benötigst diese Funktion für den Zugriff auf Informationen, die dir nicht ohne Weiteres zur Verfügung stehen (zum Beispiel in deiner Instanz), um deine Anfrage richtig beantworten zu können.
  • Deine gemachten Eingabeaufforderungen sind für das Servicemanagement zu vage oder irrelevant.
  • Du verwendest keine weit verbreitete Sprache.

Überlege dir also, in welchen Situationen du Atlassian Intelligence verwenden möchtest. Außerdem solltest du die Qualität der generierten Antworten überprüfen, bevor du sie mit anderen teilst.

Wir empfehlen dir außerdem:

  • Beschreibe so genau wie möglich, was Atlassian Intelligence machen soll.
Deine Daten und die Verwendung von Atlassian Intelligence für Vorschläge zu Anfragetypen Copy link to heading Copied! Anzeigen
  

Du fragst dich vielleicht, wie deine Daten bei der Nutzung von Atlassian Intelligence für Vorschläge zu Anfragetypen verwendet werden. Dieser Abschnitt ergänzt die Informationen auf unserer FAQ-Seite.

Wir verarbeiten:

  • Deine Prompts (Eingaben) und Antworten (Ausgaben).
  • Kontext aus deiner Instanz, der für deine Aufforderung relevant ist.
  • Daten darüber, wie du mit unseren Funktionen interagierst, zum Beispiel Clickstream-Daten und die Personen, mit denen du zusammenarbeitest.
  • Feedback, das du zu dieser Funktion gibst, einschließlich aller Aufforderungen oder Antworten, die du als Teil deines Feedbacks teilst.

Was deine Daten angeht, werden bei der Nutzung von Atlassian Intelligence für Vorschläge zu Anfragetypen die folgenden Maßnahmen angewendet:

  • Deine Aufforderungen (Eingaben) und Antworten (Ausgaben):
    • Werden nicht anderen Kunden zur Verfügung gestellt.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • Werden nur verwendet, um dich zu unterstützen.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Diese Funktion nutzt nur die Informationen aus deinen Eingabeaufforderungen. Es werden also alle Jira-Berechtigungen respektiert.

Referenzen

Erhalte Status-Updates für Atlassian-Produkte in Echtzeit auf unserer speziellen Statusseite.

Erfahre mehr über Atlassian Intelligence

Erfahre, wie Atlassian Kundendaten verwaltet.

Weitere Informationen über Atlassian Rovo