Close

Atlassian Intelligence — funkcja opracowana z myślą o transparentności

Nasze bezkompromisowe zaangażowanie w otwartą komunikację, odpowiedzialność i pomaganie zespołom w odpowiedzialnym korzystaniu z AI.

Atlassian Intelligence opracowano, aby zapewnić dynamiczną współpracę w zespołach i przyspieszyć realizację zadań. Zrozumienie sposobu działania Atlassian Intelligence, tak samo jak poznanie najlepszych metod współpracy w zespole, pomoże zespołom efektywniej korzystać z dostępnych możliwości. Na tej stronie wyjaśnimy, jak działają nasze produkty i funkcje oparte na SI, jakie są ich możliwości i ograniczenia, oraz jak wpływają na użytkowanie naszych produktów. Wierzymy, że dzięki informacjom dostępnym na tej stronie w pełni wykorzystasz nasze produkty i usprawnisz pracę zespołową. Aby dowiedzieć się więcej o naszym zaangażowaniu w odpowiedzialne budowanie technologii, odwiedź stronę poświęconą Zasadom dotyczącym odpowiedzialnej technologii.

Grupowanie alertów

Jak grupowanie alertów wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Grupowanie alertów przez Atlassian Intelligence jest obsługiwane przez duże modele językowe opracowane przez OpenAI i inne modele uczenia maszynowego. Są wśród nich modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele uczenia maszynowego do analizowania i generowania grup alertów oraz przedstawiania powiązanych sugestii (wcześniejsze grupy alertów i wcześniejsze osoby reagujące na alerty) w naszych produktach w oparciu o podobieństwo zawartości alertów lub użytych tagów. Następnie Atlassian Intelligence wykorzystuje duże modele językowe do analizowania i generowania opisów i treści w języku naturalnym dla tych grup w naszych produktach.

Te duże modele językowe generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia do grupowania alertów Copy link to heading Copied! Pokaż
  

Grupowanie alertów wykorzystuje Atlassian Intelligence do rozpoznawania i grupowania podobnych alertów. Pomaga również rozpoznawać i rekomendować wcześniejsze podobne grupy alertów i wcześniejsze osoby reagujące na alerty (lub zespoły osób reagujących) w oparciu o semantyczne podobieństwo użytych treści alertów lub tagów.

Jeśli chcesz eskalować grupę alertów do incydentu, grupowanie alertów spowoduje również wstępne wypełnienie wszystkich informacji kontekstowych, które możesz przeglądać w ramach procesu tworzenia incydentu.

Naszym zdaniem grupowanie alertów najlepiej sprawdza się w scenariuszach, w których:

  • Organizacja często napotyka wzorce licznych podobnych lub zduplikowanych alertów, niezależnie od tego, czy występują w krótkim okresie, czy w dłuższej perspektywie czasowej.
  • Organizacja spójnie kategoryzuje alerty za pomocą tagów.
  • Zespół często dochodzi do wniosku, że podobne lub zduplikowane alerty powinny być eskalowane do incydentów.
Co należy wziąć pod uwagę podczas korzystania z grupowania alertów Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych w grupowaniu alertów, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z kolei grupy alertów, które wyświetlasz, mogą nie odzwierciedlać dokładnie semantycznego podobieństwa ich tagów.

Z naszych doświadczeń wynika, że grupowanie alertów jest mniej użyteczne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Funkcja grupowania alertów musi mieć dostęp do informacji, które nie są łatwo dostępne, a są niezbędne do odpowiedniego grupowania alertów. Grupowanie alertów działa w granicach skonfigurowanych ról i uprawnień zespołu, dzięki czemu będziesz mieć dostęp tylko do grup i analiz dotyczących alertów, do których masz uprawnienia do wyświetlania.
  • Tagi alertów używane przez Twój zespół nie są spójne lub dobrze utrzymane. Ponieważ grupowanie alertów opiera się na semantycznym podobieństwie tytułów alertów i tagów, jakość generowanych grup alertów zależy od spójności i uporządkowania tagów alertów używanych przez zespół i organizację.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Warto też zadbać, aby zespół stosował spójne praktyki dotyczące używania tagów alertów.

Twoje dane i grupowanie alertów Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki grupowanie alertów wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni dla polecenia, taki jak dane alertów (tytuły alertów, tagi alertów, priorytet, zespoły reagujące, opis).
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Przetwarzamy dane alertów, aby przeszkolić wersję modelu uczenia maszynowego w celu rozpoznawania wzorców specyficznych dla Twoich alertów. Ta wersja służy tylko do obsługi Twojego środowiska:

  • Przechowujemy rozpoznane wzorce, aby umożliwić Ci zapoznanie się z analizami.
  • Nie wykorzystujemy Twoich danych dotyczących alertów do szkolenia LLM.

Podczas grupowania alertów wobec Twoich danych stosowane są wymienione poniżej środki:

  • Twoje dane wejściowe i wyjściowe:
    • nie są dostępne dla innych klientów;
    • nie są przechowywane przez OpenAI;
    • nie są używane do ulepszania modeli OpenAI;
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja jest zgodna z uprawnieniami Twojej witryny. Przykładowo jeśli Atlassian Intelligence grupuje 50 alertów na podstawie ich tagów i podobieństwa semantycznego, a Ty masz uprawnienia do wyświetlenia tylko 30 alertów, zobaczysz tylko te 30 alertów w widoku szczegółów grupy. Jeśli nie chcesz, aby Twoje alerty były dostępne w odpowiedziach dla innych użytkowników w Twojej witrynie, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji/witryny.

Odpowiedzi Atlassian Intelligence w Jira Service Management

Jak działają odpowiedzi Atlassian Intelligence w Jira Service Management Copy link to heading Copied! Pokaż
  

Odpowiedzi Atlassian Intelligence opierają się na dużych modelach językowych opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia odpowiedzi Atlassian Intelligence w Jira Service Management Copy link to heading Copied! Pokaż
  

Funkcja odpowiedzi Atlassian Intelligence łączy się z wirtualnym agentem obsługi w Jira Service Management. Wykorzystuje generatywną sztuczną inteligencję, aby przeszukiwać powiązane przestrzenie bazy wiedzy i odpowiadać na pytania klientów.

Naszym zdaniem odpowiedzi Atlassian Intelligence najlepiej sprawdzają się w sytuacjach, w których:

  • Masz pełną i aktualną powiązaną bazę wiedzy, do której wirtualny agent obsługi ma dostęp w celu udzielania odpowiedzi na pytania klientów za pomocą odpowiedzi Atlassian Intelligence.
  • Odpowiedzi Atlassian Intelligence są używane w celu udzielenia odpowiedzi na pytania klientów, które:
    • mogą zostać rozwiązane przez podanie informacji lub instrukcji;
    • zostały omówione w istniejących artykułach bazy wiedzy (lub można je tam dodać);
    • zwykle nie wymagają eskalacji do jednego z agentów.
Uwagi dotyczące korzystania z odpowiedzi Atlassian Intelligence w Jira Service Management Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych w odpowiedziach Atlassian Intelligence, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że odpowiedzi Atlassian Intelligence są mniej przydatne w sytuacjach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • chcesz, aby w celu udzielenia poprawnej odpowiedzi na Twoje żądanie, narzędzie Atlassian Intelligence uzyskało dostęp do informacji, które nie są łatwo dostępne (na przykład znajdują się w Twojej powiązanej bazie wiedzy).
  • Twoja baza wiedzy jest nieaktualna lub niekompletna, więc wyszukiwanie może nie być pomocne.
  • Artykuły w bazie wiedzy nie zawierają informacji istotnych lub wysokiej jakości, więc odpowiedzi Atlassian Intelligence mogą na podstawie tych artykułów dostarczać klientom mniej odpowiednie informacje.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Aktywne przeglądanie i aktualizowanie powiązanej bazy wiedzy (i zawartych w niej artykułów), aby się upewnić, że pozostaje ona kompletna i aktualna.
  • Aktywne przeglądanie uprawnień i ograniczeń mających zastosowanie do powiązanych przestrzeni bazy wiedzy, aby upewnić się, że funkcja odpowiedzi Atlassian Intelligence ma dostęp do odpowiednich przydatnych informacji.
Twoje dane oraz odpowiedzi Atlassian Intelligence w Jira Service Management Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki odpowiedzi Atlassian Intelligence w Jira Service Management wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, taki jak powiązane przestrzenie bazy wiedzy.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.
  • Jeśli chodzi o Twoje dane, odpowiedzi Atlassian Intelligence w Jira Service Management:
  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są przechowywane przez OpenAI;
    • Nie są używane do ulepszania modeli OpenAI.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja jest zgodna z uprawnieniami i ograniczeniami mającymi zastosowanie do powiązanych przestrzeni bazy wiedzy. Oznacza to, że wszystkie strony dostępne dla klientów w portalu Jira Service Management są dostępne za pośrednictwem odpowiedzi Atlassian Intelligence. Na przykład jeśli dostęp do określonej strony Confluence jest ograniczony i nie jest ona ogólnie dostępna za pośrednictwem Jira Service Management, zawartość tej strony nie jest sugerowana w odpowiedziach Atlassian Intelligence. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Automatyzacja przy użyciu Atlassian Intelligence

Przypadki użycia automatyzacji przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Automatyzacja wykorzystująca Atlassian Intelligence jest oparta na modelach GPT opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy danych wprowadzanych w języku naturalnym i generowania dla użytkownika reguły automatyzacji w Jirze i Confluence.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia automatyzacji przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Tworzenie reguł to podstawa codziennej pracy związanej z automatyzacją. Chcemy je dodatkowo ułatwić, dodając Atlassian Intelligence do kreatora reguł automatyzacji w Jirze i Confluence. Teraz możesz łatwo tworzyć reguły automatyzacji, wpisując i opisując, co chcesz zautomatyzować — Atlassian Intelligence zajmie się wszystkim, co najtrudniejsze w tworzeniu reguł. Dowiedz się więcej na temat korzystania z narzędzia Atlassian Intelligence w Jirze i Confluence.

Naszym zdaniem wykorzystywanie automatyzacji przy użyciu Atlassian Intelligence w przypadku Jiry i Confluence sprawdza się najlepiej w sytuacjach, gdy nie wiesz, jak zacząć, lub chcesz przyspieszyć proces tworzenia reguł.

Nie wiesz, jak najlepiej stworzyć regułę automatyzacji?

Reguły automatyzacji są tworzone przez kombinację różnych typów komponentów: wyzwalaczy, czynności, warunków i gałęzi. Wyobraź sobie, że komponenty to podstawowe części składowe reguły. Aby utworzenie reguły za pomocą Atlassian Intelligence się powiodło, musi ona zawierać przynajmniej wyzwalacz i czynność. Przykład:

W Jirze:

Co poniedziałek wyszukuj wszystkie zadania z terminem przypadającym w ciągu kolejnych 7 dni i wysyłaj przypisanej osobie wiadomość e-mail z przypomnieniem.

Kiedy zgłoszenie przejdzie do testowania, przypisz je Janowi Kowalskiemu.

W Confluence:

  • Co poniedziałek wyszukuj wszystkie zadania z terminem przypadającym w ciągu kolejnych 7 dni i wysyłaj przypisanej osobie wiadomość e-mail z przypomnieniem.
  • Co 6 miesięcy archiwizuj wszystkie strony, które nie zostały zaktualizowane w tym czasie. Po zakończeniu archiwizacji poinformuj o tym autora strony w wiadomości e-mail.
  • Po opublikowaniu strony ze specyfikacją produktu w tytule utwórz zgłoszenie Jira, aby przejrzeć stronę z łączem do strony.

Ponadto aby tworzenie reguły powiodło się, wszystkie jej komponenty muszą być obsługiwane przez automatyzację przy użyciu Atlassian Intelligence. Oznacza to, że wszelkie wyzwalacze, czynności, warunki lub gałęzie w regule muszą być zgodne z automatyzacją w Jirze i/lub Confluence.

Co warto wziąć pod uwagę w przypadku automatyzacji przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do automatyzacji przy użyciu Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że automatyzacja przy użyciu Atlassian Intelligence jest mniej przydatna w następujących sytuacjach:

  • Musisz udzielić automatyzacji przy użyciu Atlassian Intelligence dostępu do informacji, które nie są łatwo dostępne (na przykład ze stron lub projektów objętych ograniczeniami), aby poprawnie odpowiedzieć na Twój wniosek.
  • wykonujesz zadania jednorazowe;
  • pytasz o informacje z poziomu swojej bazy wiedzy.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Automatyzacja przy użyciu Atlassian Intelligence działa tylko z istniejącym zestawem dostępnych komponentów automatyzacji w Jirze i Confluence.

Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej, jak opisano powyżej.

Twoje dane a automatyzacja przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki automatyzacja za pomocą Atlassian Intelligence wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, na przykład projekt Jira lub strona Confluence.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane w kontekście użycia Atlassian Intelligence do automatyzacji Confluence:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są przechowywane przez OpenAI.
    • Nie są używane do ulepszania modeli OpenAI.
    • są wykorzystywane tylko do obsługi Twojego środowiska.

OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.

Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do określonego projektu lub strony, otrzymana odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Analiza wykresów

Jak chart insights wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Analiza wykresów opiera się na dużych modelach językowych opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia chart insights Copy link to heading Copied! Pokaż
  

Analizy wykresów wykorzystują funkcję Atlassian Intelligence, aby pomóc użytkownikom w zrozumieniu danych na dowolnym wykresie w Atlassian Analytics. Na podstawie tytułu pulpitu, tytułu wykresu i danych wykresu (w tym nagłówków kolumn i wartości wierszy) funkcja generuje podsumowanie tego wykresu i jego danych w języku naturalnym. Podejmie też próbę rozpoznania wszelkich trendów lub anomalii, aby zapewnić Ci określone informacje na temat wykresu.

Naszym zdaniem chart insights najlepiej sprawdza się w scenariuszach, w których:

  • Wykresy mają wiele wierszy danych.
  • Wykresy mają tytuł pulpitu.
  • Wykresy mają nagłówki kolumn.
  • Wykresy mają wartości we wszystkich wierszach i kolumnach.

Wykresy słupkowe, wykresy liniowe i wykresy słupkowo-liniowe sprawdzają się najlepiej w przypadku tej funkcji funkcją, ponieważ zazwyczaj zawierają trendy, daty i wiele wierszy danych.

Co należy wziąć pod uwagę podczas korzystania z chart insights Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych w chart insights, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że chart insights jest mniej użyteczne w scenariuszach, w których:

  • Wykresy mają jeden lub tylko kilka wierszy danych.
  • Wykresy prezentują jeden typ wartości.
  • Na wykresach brakuje tytułów, etykiet osi i nagłówków kolumn.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Kontrola dokładności analiz z innymi użytkownikami, którzy mogą mieć większy kontekst dotyczący konkretnych danych wyświetlanych na wykresie.
  • Uwzględnienie, że podczas udzielania odpowiedzi Atlassian Intelligence wykorzystuje tylko kontekst pojedynczego wykresu, a nie całego pulpitu.
Twoje dane i chart insights Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki chart insights wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na tej stronie

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, np. dane z wykresu.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Chart insights stosuje następujące środki w stosunku do Twoich danych:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Dane nie są przechowywane przez OpenAI.
    • nie są używane do ulepszania modeli OpenAI;
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podmiotem podrzędnym przetwarzającym dane znajdującym się na naszej liście takich podmiotów. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja wykorzystuje tylko informacje z pulpitu, do którego masz dostęp i w przypadku którego zażądano analizy.

Krótkie podsumowanie Confluence

Jak Atlassian Intelligence podsumowuje strony i blogi w Confluence Copy link to heading Copied! Pokaż
  

Podsumowywanie stron i blogów za pomocą Atlassian Intelligence opiera się na modelach LLM opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia krótkiego podsumowania Confluence Copy link to heading Copied! Pokaż
  

Oszczędzaj czas i uzyskuj szczegóły potrzebne do szybszego wykonywania pracy, generując krótkie podsumowania stron lub blogów Confluence za pomocą Atlassian Intelligence. Dowiedz się więcej na temat korzystania z narzędzia Atlassian Intelligence w Confluence.

Naszym zdaniem podsumowywanie stron i blogów za pomocą Atlassian Intelligence najlepiej sprawdza się wówczas, gdy:

  • istnieje strona z obszernym tekstem, której przeczytanie zajmuje 5 minut lub więcej;
  • istnieje wiele treści pisanych, z ograniczoną grafiką lub innym formatowaniem, takim jak rozszerzenia na stronie.
Co warto wziąć pod uwagę przy podsumowywaniu stron i blogów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do podsumowywania stron i blogów za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Chociaż nadal pracujemy nad lepszą obsługą makr i tabel oraz rozszerzamy podsumowania, odkryliśmy, że podsumowywanie stron i blogów za pomocą Atlassian Intelligence jest mniej przydatne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • potrzebujesz podsumowania bardzo krótkiej strony Confluence, na której nie ma wystarczającej ilości treści;
  • potrzebujesz podsumowania strony Confluence, na której większość treści znajduje się w tabelach lub rozszerzeniach;
  • potrzebujesz podsumowania strony Confluence, na której większość treści znajduje się w makrach.

Zachęcamy Cię do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Proszenie Atlassian Intelligence o podsumowywanie stron, o których wiesz, że zawierają dużo tekstu.
Twoje dane a podsumowywanie stron i blogów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane do automatyzacji Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);

  • Kontekst instancji odpowiedni do podpowiedzi, np. treść ze strony Confluence, którą chcesz podsumować.

  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz

  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, podczas podsumowywania stron i blogów za pomocą Atlassian Intelligence:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są przechowywane przez OpenAI;
    • Nie są używane do ulepszania systemu OpenAI.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do strony Confluence, nie będziesz widzieć tej funkcji ani nie będziesz w stanie podsumować strony za pomocą Atlassian Intelligence. Jeśli nie chcesz, aby Twoje treści były dostępne dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Definiowanie terminów za pomocą Atlassian Intelligence

Jak Atlassian Intelligence definiuje terminy Copy link to heading Copied! Pokaż
  

Definiowanie terminów za pomocą Atlassian Intelligence w Confluence i Jira jest wspierane przez duże modele językowe opracowane przez OpenAI. Są wśród nich modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania odpowiedzi w języku naturalnym w Confluence.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przypadki użycia funkcji definiowania terminów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Jedną z najtrudniejszych rzeczy związanych z korzystaniem z treści w Confluence i Jira może być zdobycie kontekstu potrzebnego do zrozumienia tego, co czytasz. Skróty, akronimy, nieznane terminy oraz nazwy specyficzne dla zespołu lub projektu mogą wymagać czasochłonnego wyszukiwania potrzebnych informacji.

Funkcja definiowania terminów za pomocą Atlassian Intelligence pozwala uzyskać definicję terminów specyficznych dla danej firmy (np. akronimów, nazw projektów, systemów lub zespołów) na stronie w Confluence lub w opisie zgłoszenia w Jira. Dzięki temu użytkownik otrzymuje potrzebne mu informacje, kiedy ich potrzebuje — a wszystko to pomaga zespołom sprawniej współpracować.

Atlassian Intelligence pozwala Ci zaoszczędzić czas, ponieważ definiuj te rzeczy za Ciebie, dzięki czemu nie musisz przerywać lektury.

Jeśli napotkasz definicję, którą uważasz za niedokładną, możesz edytować lub dodać nową definicję, a następnie ustawić widoczność dla tej strony lub tego zgłoszenia, całej przestrzeni lub projektu bądź uzyskać dostęp do całej organizacji.

Naszym zdaniem definiowanie terminów za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:

  • Firma ma wiele stron w swojej instancji Confluence, które wspominają, opisują lub wyjaśniają, jaki jest określony termin, do którego może odwołać się Atlassian Intelligence.
Co warto wziąć pod uwagę w przypadku definiowania terminów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do definiowania odpowiedzi za pomocą Atlassian Intelligence, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Ustaliliśmy, że użycie Atlassian Intelligence do definiowania terminów w Confluence jest mniej przydatne w sytuacjach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • nie masz wystarczającego kontekstu dotyczącego terminu w tej instancji Confluence (przykładowo jeśli nie ma stron wymieniających konkretny termin, definicja tego terminu nie zostanie wygenerowana w sposób poprawny);
  • Definicja wymaga dostępu do treści Confluence, do których przeglądania nie masz uprawnień
  • próbujesz zdefiniować kilka terminów zamiast jednego terminu naraz.

Ponadto w Jira zauważyliśmy, że ponieważ definiowanie terminów za pomocą Atlassian Intelligence opiera się na wyszukiwaniu w Confluence, funkcja ta będzie działać w Jira tylko wtedy, gdy masz uprawnienia do wyświetlania instancji Confluence w tej samej witrynie co instancja Jira.

Może się również zdarzyć, że definiowanie terminów za pomocą Atlassian Intelligence nie będzie działać zgodnie z oczekiwaniami w przestrzeniach Confluence lub instancjach Jira, które zawierają treści napisane w wielu językach.

Twoje dane i definiowanie terminów przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas definiowania terminów. Ta sekcja zawiera wiadomości, które stanowią uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, np. termin, który chcesz zdefiniować.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to podczas definiowania terminów za pomocą Atlassian Intelligence stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • nie są dostępne dla innych klientów;
    • nie są przechowywane przez OpenAI;
    • nie są używane do ulepszania modeli OpenAI;
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z aktualnymi uprawnieniami dostępu użytkownika, co oznacza, że użytkownicy nie otrzymają definicji na podstawie treści, do których nie mają dostępu. Zamiast tego funkcja ściąga treści i definicje tylko ze stron i projektów, do których wyświetlania ma uprawnienia użytkownik w instancji. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.
  • Jeśli użytkownik ręcznie edytuje lub aktualizuje definicję, jest ona przechowywana przez 1 rok.

Generowanie opisów pull requestów za pomocą Atlassian Intelligence

Jak Bitbucket Cloud wykorzystuje Atlassian Intelligence do generowania opisów pull requestów Copy link to heading Copied! Pokaż
  

Generowanie opisów pull requestów za pomocą Atlassian Intelligence jest oparte na dużych modelach językowych (LLM) opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego oraz kodu w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Przeczytaj więcej o funkcjonalnościach modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia do generowania opisów pull request typu pull za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Atlassian Intelligence może pomóc w generowaniu, przekształcaniu i streszczaniu treści podczas pisania opisów lub komentarzy do pull requestów w środowisku przeglądu kodu w Bitbucket Cloud. Korzyści z tych elementów to między innymi:

  • Generowanie opisu pull requestu na podstawie zmian w kodzie zawartych w pull requeście.
  • Streszczanie, poprawianie lub modyfikowanie tonu opisu pull requestu.
  • Streszczanie, poprawianie lub modyfikowanie tonu komentarza do pull requestu.

Naszym zdaniem generowanie opisów pull requestów w Bitbucket Cloud za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:

  • Jako autor kodu chcesz wykorzystać Atlassian Intelligence do pomocy przy pisaniu lub poprawianiu opisu pull requestu. Podejście to sprawdza się najlepiej w zespołach, które są w stanie sprawdzić i potwierdzić, że treści generowane przez Atlassian Intelligence są odpowiednie do opisania pull requestu.
  • Jako recenzent kodu chcesz wykorzystać Atlassian Intelligence do pomocy przy pisaniu lub poprawianiu brzmienia bądź treści sporządzonej uprzednio wersji roboczej komentarza do pull requestu.
Zagadnienia do rozważenia w przypadku generowania opisów pull request typu pull za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi tej funkcji, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Odkryliśmy, że generowanie opisów pull requestów w Bitbucket Cloud za pomocą Atlassian Intelligence sprawdza się gorzej w sytuacjach, gdy:

  • W opisie pull requestu trzeba zawrzeć odniesienie do informacji, których zmiany kodu nie zawierają (na przykład kodu źródłowego znajdującego się w innym miejscu w repozytorium).
  • Nie da się sprawdzić i potwierdzić, że treść wygenerowana przez Atlassian Intelligence jest dokładnym odzwierciedleniem pull requestu.
  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • korekta, weryfikacja i edycja danych wyjściowych wygenerowanych przez asystenta pisania SI w celu uzyskania dokładności i przejrzystości;
  • współpraca z innymi osobami w celu zebrania opinii i poprawy jakości danych wyjściowych.
Dane użytkownika a generowanie opisów pull request typu pull za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence w Confluence wykorzystuje Twoje dane podczas definiowania terminów. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Polecenia (dane wejściowe) użytkownika a odpowiedzi (wyniki)
  • Kontekst z instancji istotny dla formułowanego polecenia, na przykład:
    • Zmiany w kodzie i komunikaty do commitów w pull requeście
    • Treść opisu pull requestu
    • Treść komentarza do pull requestu
  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz
  • Opinia, którą chcesz przekazać na temat tej funkcji

W kwestii danych użytkownika, generowanie opisów pull requestów za pomocą Atlassian Intelligence wiąże się z zastosowaniem następujących środków:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • nie są dostępne dla innych klientów;
    • Dane nie są przechowywane przez OpenAI.
    • Dane nie są używane do ulepszania modeli OpenAI.
    • Dane są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podmiotem podrzędnym przetwarzającym dane znajdującym się na naszej liście takich podmiotów. Firma nie wykorzystuje Twoich danych w żadnym innym celu poza przetworzeniem Twojego żądania.

Generowanie zapytań SQL w Atlassian Analytics

Jak Atlassian Intelligence generuje zapytania SQL w Atlassian Analytics Copy link to heading Copied! Pokaż
  

Generowanie zapytań SQL za pomocą Atlassian Intelligence w Atlassian Analytics jest wspierane przez duże modele językowe opracowane przez OpenAI. Są to modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy i rozumienia języka naturalnego, a następnie generuje na ich podstawie język SQL w Atlassian Analytics.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia generowania zapytań SQL za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Możesz zadań Atlassian Intelligence pytanie w języku naturalnym i przetłumaczyć je na SQL, zamiast pisać własne zapytania SQL od zera. Po zadaniu pytania Atlassian Intelligence wykorzystuje schemat Atlassian Data Lake wybranego źródła danych do wygenerowania zapytania SQL, które może być używane do tworzenia wykresów na pulpitach Atlassian Analytics, a także może pomóc w poznaniu schematu w Data Lake.

Naszym zdaniem generowanie zapytań SQL za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:

  • chcesz stworzyć niestandardowy wykres, zaczynając od wygenerowanego zapytania SQL i udoskonalając je w razie potrzeby;
  • pytanie w języku naturalnym zawiera słowa i pojęcia, do których odwołuje się schemat Atlassian Data Lake, tak szczegółowo, jak to tylko możliwe;
  • chcesz poznać schemat Atlassian Data Lake i dowiedzieć się więcej na jego temat.

Nie wiesz, jakie pytania zadawać?

Oto kilka sugestii:

  • Jakie jest 5 najpopularniejszych etykiet według liczby otwartych zgłoszeń Jira?
  • Ile zgłoszeń Jira zostało ukończonych w projekcie x w ciągu ostatniego miesiąca?
  • Jaki jest średni czas 5 najpopularniejszych statusów?
  • Jakie jest 5 najpopularniejszych stron Confluence w ostatnim miesiącu?
  • Ile wniosków zostało zgłoszonych w ciągu ostatnich 5 dni w naszym projekcie x w Jira Service Management?
Uwagi dotyczące generowania zapytań SQL za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do generowania zapytań SQL za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że generowanie zapytań SQL za pomocą jest mniej przydatne w następujących sytuacjach:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • funkcja ta jest potrzebna, aby uzyskać dostęp do informacji, które nie są łatwo dostępne w schemacie Atlassian Data Lake (przykładowo danych dla Advanced Roadmaps) w celu uzyskania prawidłowej odpowiedzi na pytanie;
  • pytanie zawiera odniesienia do pól niestandardowych;
  • pytanie jest zadawane w języku innym niż angielski;
  • Twoja znajomość języka SQL nie wystarcza, aby sprawdzić poprawność zapytania SQL zwróconego przez Atlassian Intelligence.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • Upewnij się, że źródło danych Atlassian Data Lake, którego używasz, zawiera dane potrzebne do udzielenia odpowiedzi na Twoje pytanie.
Twoje dane a generowanie zapytań SQL za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas generowania zapytań SQL. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi zawiera publicznie dostępne schematy Atlassian Data Lake odpowiednie do instancji.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas generowania zapytań SQL za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są przechowywane przez OpenAI.
    • Nie są używane do ulepszania modeli OpenAI.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w połączeniu Atlassian Data Lake. Przykładowo jeśli nie masz dostępu do połączenia Atlassian Data Lake, nie będzie można stworzyć zapytania SQL.

Generatywna SI w edytorze

Jak działa Atlassian Intelligence w edytorach Copy link to heading Copied! Pokaż
  

Atlassian Intelligence w edytorach opierają się na dużych modelach językowych opracowanych przez OpenAI. Są to modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia generatywnej funkcji SI w edytorze Copy link to heading Copied! Pokaż
  

Atlassian Intelligence pomaga prowadzić skuteczną komunikację we wszystkich zespołach w organizacji w celu poprawy wydajności oraz usprawnienia podejmowania decyzji i procesów.

Naszym zdaniem wykorzystanie Atlassian Intelligence w edytorach najlepiej sprawdza się w następujących scenariuszach:

  • Przekształcanie istniejących treści na potrzeby różnych odbiorców. Atlassian Intelligence pomaga w zmianie rejestru językowego, poprawia styl i ułatwia zrozumienie informacji technicznych innym zespołom. Najlepiej sprawdza się w przypadku zespołów, które chcą pisać bardziej profesjonalnie i zwięźle.
  • Podsumowanie istniejących treści. Dzięki Atlassian Intelligence można przekształcać luźne notatki w przydatną dokumentacja strategiczną, artykuły z bazy wiedzy, plany kampanii i podobne materiały. Pozwala też na analizę istniejących informacji w celu zdefiniowania planów działań i czynności do wykonania. Najlepiej sprawdza się w przypadku stron z dużą ilością tekstu, z których można czerpać dużo kontekstu.
  • Generowanie nowych treści. Atlassian Intelligence pomaga tworzyć nowe treści, takie jak strony strategii, przeglądy projektów, uwagi do wydania lub historyjki użytkowników. Najlepiej jeśli zespoły używają jasnych, konkretnych podpowiedzi, z myślą o określonym celu.
Uwagi dotyczące wykorzystania Atlassian Intelligence w edytorach Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych przez Atlassian Intelligence w edytorach, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że wykorzystanie Atlassian Intelligence w edytorach jest mniej przydatne w sytuacjach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • w celu uzyskania poprawnej odpowiedzi potrzebujesz dostępu do informacji, które nie są łatwo dostępne (przykładowo znajdują się w Twojej powiązanej bazie wiedzy);
  • chcesz wygenerować treści w formacie innym niż standardowy Markdown (na przykład w celu wygenerowania panelu informacyjnego od zera);
  • chcesz odwołać się do informacji, które nie znajdują się jeszcze obecne w edytowanym dokumencie (przykładowo treści znajdujące się w innym dokumencie lub produkcie).
  • chcesz wygenerować i przekształcić treści w językach innych niż angielski.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • podzielenie złożonych wniosków na mniejsze zadania, którymi łatwiej zarządzać;
  • włączenie odpowiednich słów kluczowych, aby poprawić dokładność generowanych treści;
  • użycie poprawnej gramatyki i interpunkcji we wprowadzanym tekście;
  • korekta, weryfikacja i edycja danych wyjściowych wygenerowanych przez asystenta pisania SI w celu uzyskania dokładności i przejrzystości;
  • eksperymentowanie z różnymi podpowiedziami lub odmianami tekstu wejściowego w celu zbadania różnych pomysłów;
  • współpraca z innymi osobami w celu zebrania opinii i poprawy jakości danych wyjściowych.
Twoje dane i Atlassian Intelligence w edytorach Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane w edytorach. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, np. produkt, z którego uruchomiono narzędzie Atlassian Intelligence.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to w kontekście używania Atlassian Intelligence w edytorach stosuje się następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są przechowywane przez OpenAI;
    • nie są używane do ulepszania modeli OpenAI;
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Na przykład jeśli nie masz dostępu do określonej strony Confluence, otrzymana odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Wyszukiwanie odpowiedzi w Confluence

Jak Atlassian Intelligence wyszukuje odpowiedzi w Confluence Copy link to heading Copied! Pokaż
  

Wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence opiera się na modelach LLM opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia do wyszukiwania odpowiedzi w Confluence Copy link to heading Copied! Pokaż
  

Bazy wiedzy rosną zbyt szybko, aby użytkownicy mogli za nimi nadążyć. Wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence skraca drogę do kluczowych informacji potrzebnych klientom do kontynuowania pracy. Funkcja ta ułatwia znajdowanie potrzebnych informacji. Rozpoznaje ona rodzaje pytań, które możesz zadać koledze z zespołu, i natychmiast na nie odpowiada. Dowiedz się więcej o tym, jak korzystać z Atlassian Intelligence w celu wyszukiwania odpowiedzi w Confluence.

Naszym zdaniem wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence działa najlepiej, gdy witryna Confluence jest pełna szczegółowych, kompletnych i aktualnych treści.

Ta funkcja nie generuje nowych treści, ale przeszukuje strony i blogi Confluence (z poszanowaniem ograniczeń), aby znaleźć odpowiedź na Twoje pytanie. Atlassian Intelligence generuje odpowiedzi wyłącznie na podstawie tego, co znajduje się w Confluence i do czego masz dostęp.

Nie wiesz, jakie pytania zadawać?

Oto kilka sugestii:

  • Kiedy zespół marketingowy będzie znów poza siedzibą firmy?
  • Jaka jest polityka pracy z domu?
  • Czym jest Project Sunrise?
  • Kiedy odbędzie się nasza kolejna kampania marketingowa?
  • Gdzie są informacje o wydaniu najnowszego produktu SpaceLaunch?
  • Jak przedłożyć wydatki w celu uzyskania zwrotu kosztów?
Co warto wziąć pod uwagę w przypadku wyszukiwania odpowiedzi w Confluence za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do wyszukiwania odpowiedzi w Confluence za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Potrzebne są aktualne i dokładne informacje, które często się zmieniają (np. aktualizowany co miesiąc plan działań).
  • Potrzebne są aktualne i dokładne informacje o konkretnych osobach i rolach, jakie odgrywają w Twojej organizacji.
  • Potrzebny jest dostęp do informacji, które nie są łatwo dostępne (np. strony z ograniczeniami w Twojej instancji Confluence) w celu uzyskania właściwej odpowiedzi.
  • Odpowiedź składa się z szeregu różnych wartości lub kategorii (np. metryki aktualizowane co tydzień).
  • Potrzebne są odpowiedzi, które wymagają rozpoznania niuansów, złożoności lub ludzkiego sposobu rozumowania.

Może się także zdarzyć, że wyszukiwanie odpowiedzi w Confluence przy użyciu Atlassian Intelligence nie będzie działało poprawnie w przestrzeniach Confluence, w których dokumenty napisane są w kilku językach.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • Zadawanie pytań na temat kwestii, o których wiesz, że są udokumentowane w instancji Confluence i do których masz dostęp.
Twoje dane i wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas wyszukiwania odpowiedzi w Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, jak na przykład treść z trzech pierwszych stron zwróconych podczas wyszukiwania w Confluence.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas wyszukiwania odpowiedzi w Confluence za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są przechowywane przez żadnego dostawcę LLM;
    • nie są używane do ulepszania modeli LLM;
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do określonej strony Confluence, funkcja nie będzie wykorzystywać w wyświetlanej odpowiedzi treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Wyszukiwanie zgłoszeń w Jira

Jak Atlassian Intelligence wyszukuje zgłoszenia w Jira Copy link to heading Copied! Pokaż
  

Wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence w Jira jest obsługiwane przez duże modele językowe opracowane przez OpenAI. Modele te obejmują opisane tutaj modele OpenAI, dopracowane przez Atlassian przy użyciu wygenerowanych danych syntetycznych.

Atlassian Intelligence wykorzystuje te modele do analizy i zrozumienia języka naturalnego, a następnie przekłada go na język JQL (Jira Query Language) w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przeczytaj więcej o możliwościach modeli OpenAI i dopracowywaniu przez OpenAI. Możesz również przeczytać więcej na temat tego podejścia w artykułach na temat badań OpenAI.

Przypadki użycia do wyszukiwania zgłoszeń w Jirze Copy link to heading Copied! Pokaż
  

Atlassian Intelligence pozwala teraz na interakcję w potocznym języku — bez konieczności formułowania złożonych zapytań. Atlassian Intelligence przekłada Twoją podpowiedź na zapytanie w JQL, które szybko pomaga w wyszukaniu konkretnych zgłoszeń.

Naszym zdaniem wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:

  • wpisujesz zapytania dotyczące zgłoszeń Jira, korzystając z pól zgłoszeń dostępnych w projekcie Jira;
  • zapytanie zawiera określone pola i wartości, które mogą pomóc zawęzić wyszukiwanie zgłoszeń;
  • pola i wartości, których szukasz, istnieją w Twoim projekcie Jira;
  • Twoje zapytanie jest w języku angielskim;
  • zapytanie można przetłumaczyć na język JQL. Ponieważ Atlassian Intelligence konwertuje podpowiedzi na kod JQL, dane wejściowe zawierające słowa kluczowe, które można przetłumaczyć na JQL, mogą zapewnić lepsze wyniki.
Co warto wziąć pod uwagę w przypadku wyszukiwania zgłoszeń za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do wyszukiwania zgłoszeń za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Otrzymane odpowiedzi mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • wyszukujesz obiekty Jira, które nie są zgłoszeniami, takie jak projekty, tablice lub użytkownicy;
  • wyszukujesz w języku innym niż angielski;
  • wyszukiwanie musi analizować zgłoszenia w celu tworzenia wykresów, podsumowań lub innych reprezentacji danych;
  • wyszukiwanie wymaga funkcji, które nie są obecnie dostępne w JQL (np. pytania „Znajdź zgłoszenia skomentowane przeze mnie” nie można przetłumaczyć na funkcję JQL).

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej. Podaj dokładnie te pola i wartości, których szukasz.

Twoje dane i wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas wyszukiwania zgłoszeń. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, np. bieżący projekt, w którym się znajdujesz.
  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to podczas wyszukiwania zgłoszeń za pomocą Atlassian Intelligence stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • nie są przechowywane przez żadnego dostawcę LLM;
    • nie są używane do ulepszania modeli LLM;
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Odpowiedzi na wyszukiwanie będą oparte na zgłoszeniach i polach, do których masz dostęp (np. jeśli nie masz dostępu do konkretnego projektu Jira, nie otrzymasz wyników wyszukiwania zgłoszeń i pól z tego projektu).

Sugeruj typy wniosku w Jira Service Management

Jak Atlassian Intelligence sugeruje typy wniosków w Jira Service Management Copy link to heading Copied! Pokaż
  

Sugerowanie typów wniosków za pomocą Atlassian Intelligence jest obsługiwane przez duże modele językowe opracowane przez OpenAI. Są wśród nich modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy danych wprowadzanych w języku naturalnym i generowania rekomendacji dotyczących nazw i opisów typów wniosków w ramach usługi Jira Service Management.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia dotyczące sugerowania typów wniosków w Jira Service Management Copy link to heading Copied! Pokaż
  

Nie trać czasu na zastanawianie się, jakie typy wniosków musisz utworzyć dla swojego projektu, a zamiast tego korzystaj z sugestii Atlassian Intelligence. Wystarczy, że opiszesz swoją pracę i to, czym zazwyczaj zarządza Twój zespół, aby zobaczyć, jakie typy wniosków możesz utworzyć. Wybierz jedną z sugestii wygenerowanych przez Atlassian Intelligence, aby utworzyć typ wniosku. Dowiedz się więcej o tym, jak używać Atlassian Intelligence w celu sugerowania typów wniosków.

Naszym zdaniem korzystanie z Atlassian Intelligence w celu sugerowania typów wniosków najlepiej sprawdza się w sytuacjach, w których:

  • występują bardzo specyficzne przypadki użycia, których istniejące szablony typów wniosków nie obsługują;
  • masz bardzo ogólne wymagania i szukasz pomysłów;
  • używasz popularnego języka (na przykład angielskiego lub hiszpańskiego).
Co należy wziąć pod uwagę podczas korzystania z Atlassian Intelligence w celu sugerowania typów wniosków Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do sugerowania typów wniosków za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Ustaliliśmy, że użycie Atlassian Intelligence do sugerowania typów wniosków jest mniej przydatne w sytuacjach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • w celu udzielenia właściwej odpowiedzi na Twój wniosek ta funkcja potrzebuje dostępu do informacji, które nie są łatwo dostępne (np. znajdują się w Twojej instancji);
  • dostarczasz podpowiedzi, które są zbyt niejasne lub nieistotne w kontekście zarządzania usługami;
  • nie używasz popularnego języka.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
Twoje dane i korzystanie z Atlassian Intelligence w celu sugerowania typów wniosków Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane w celu sugerowania typów wniosków. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • kontekst instancji odpowiedni do podpowiedzi;
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to w kontekście używania Atlassian Intelligence w celu sugerowania typów wniosków stosuje się następujące środki.

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są przechowywane przez OpenAI.
    • Nie są używane do ulepszania modeli OpenAI.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja wykorzystuje tylko informacje z podpowiedzi, więc wszystkie uprawnienia Jira są respektowane.

Podsumowanie szczegółów zgłoszenia w Jira Service Management

Jak Atlassian Intelligence podsumowuje szczegóły zgłoszenia w Jira Service Management Copy link to heading Copied! Pokaż
  

Podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence jest wspierane przez duże modele językowe opracowane przez OpenAI. Są to modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia dotyczące podsumowania szczegółów zgłoszenia w Jira Service Management Copy link to heading Copied! Pokaż
  

Zamiast czytać długie opisy i liczne komentarze na temat zgłoszenia Jira Service Management możesz użyć Atlassian Intelligence w celu szybkiego wygenerowania podsumowania tych informacji. Dzięki temu agenci mogą szybko zapoznać się z kontekstem zgłoszenia i wszelkimi postępami, a tym samym szybko podejmować działania i udzielać pomocy.

Naszym zdaniem podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence najlepiej sprawdza się w następujących przypadkach:

  • Zgłoszenia z opisem i komentarzami w języku angielskim.
  • Zgłoszenia z dużą liczbą komentarzy bądź długimi komentarzami lub opisami.
Co warto wziąć pod uwagę w przypadku podsumowania szczegółów zgłoszenia za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że podsumowanie szczegółów zgłoszenia przy użyciu Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • Użytkownik posługuje się językiem innym niż angielski
  • Zgłoszenie nie ma historii lub szczegółów

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Twoje dane i podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi zawiera szczegółowe informacje o zgłoszeniu Jira Service Management, np. opis zgłoszenia, komentarze i użytkownicy objęci zgłoszeniem.
  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI.
    • nie są przechowywane przez OpenAI;
    • nie są używane do ulepszania modeli OpenAI;
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Tylko agenci i administratorzy projektu widzą przycisk podsumowania.

Pisanie niestandardowych wzorów za pomocą Atlassian Intelligence

Jak Atlassian Intelligence zapisuje niestandardowe wzory w Atlassian Analytics Copy link to heading Copied! Pokaż
  

Zapisywanie niestandardowych wzorów za pomocą Atlassian Intelligence jest obsługiwane przez duże modele językowe opracowane przez OpenAI. Są wśród nich modele OpenAI opisane tutaj.

Atlassian Intelligence wykorzystuje te modele do analizy języka naturalnego, a następnie tłumaczy go na SQLite w Atlassian Analytics.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Przypadki użycia funkcji zapisywania niestandardowych wzorów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zamiast pisać własne wyrażenia SQLite od podstaw, zapytaj Atlassian Intelligence lub opisz, w jaki sposób chcesz przekształcić dane w tabeli wyników, a narzędzie przełoży to na wyrażenie SQLite używane do niestandardowych wzorów. Gdy zadajesz pytanie, Atlassian Intelligence wykorzystuje dane z tabeli wyników w poprzednim kroku Visual SQL do wygenerowania wyrażenia SQLite, które stosuje obliczenia lub operacje do tych danych na wykresie. Może to również pomóc w poznaniu funkcji SQLite i ich składni.

Zapisywanie niestandardowych wzorów przy użyciu Atlassian Intelligence najlepiej sprawdza się w scenariuszach, w których:

  • Chcesz zastosować zmiany w pojedynczej kolumnie danych zapytania.
  • Chcesz zacząć od wygenerowanego wyrażenia SQLite i w razie potrzeby je udoskonalić.
  • Pytanie w języku naturalnym zawiera słowa i pojęcia, do których odwołują się nagłówki kolumn lub dane wierszy.
  • Chcesz dowiedzieć się więcej o SQLite i odkryć dostępne funkcje SQLite.
Co warto wziąć pod uwagę w przypadku zapisywania niestandardowych formuł za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Podczas korzystania z niestandardowych formuł pamiętaj, że modele używane w Atlassian Intelligence mogą czasami być niedokładnie, niekompletnie lub niewiarygodnie.

Otrzymane odpowiedzi mogą na przykład nie odzwierciedlać dokładnie treści, na których zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że zapisywanie niestandardowych formuł za pomocą Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • Chcesz zastosować zmiany do więcej niż jednej kolumny w jednej niestandardowej formule.
  • Ta funkcja jest potrzebna, aby mieć dostęp do informacji, które nie są łatwo dostępne w danych tabeli wyników.
  • Polecenie jest wydawane w języku innym niż angielski.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • Upewnienie się, że dane, których dotyczy zapytanie, obejmują dane potrzebne do odpowiedzi na Twoje pytanie.
Twoje dane i zapisywanie niestandardowych formuł przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Rozumiemy, że możesz mieć pytania dotyczące sposobu wykorzystania danych podczas zapisywania niestandardowych formuł przy użyciu Atlassian Intelligence. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst z instancji dotyczący polecenia, np. włączenie danych z zestawu wyników w poprzednim kroku Visual SQL.
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.
  • Dane dotyczące interakcji użytkownika z naszymi funkcjami, takie jak dane strumienia kliknięć

Jeśli chodzi o Twoje dane, to podczas zapisywania niestandardowych formuł za pomocą Atlassian Intelligence stosowane są następujące środki:

Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):

  • Nie są dostępne dla innych klientów.
  • Nie są przechowywane przez OpenAI.
  • Nie są używane do ulepszania modeli OpenAI.
  • są wykorzystywane tylko do obsługi Twojego środowiska.

OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem wniosku.

Logo Atlassian SI.

Atlassian Intelligence i Rovo opracowano z myślą o transparentności

Nasze bezkompromisowe zaangażowanie w otwartą komunikację, odpowiedzialność i pomaganie zespołom w odpowiedzialnym korzystaniu z AI.

Rovo

Wybierz funkcję Rovo poniżej, aby uzyskać przejrzyste informacje na temat przypadków użycia i wykorzystania danych.

Automatyzacja przy użyciu Atlassian Intelligence

Jak automatyzacja wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Automation using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy danych wprowadzanych w języku naturalnym i generowania dla użytkownika reguły automatyzacji w Jirze i Confluence.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia automatyzacji przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Tworzenie reguł to podstawa codziennej pracy związanej z automatyzacją. Chcemy je dodatkowo ułatwić, dodając Atlassian Intelligence do kreatora reguł automatyzacji w Jirze i Confluence. Teraz możesz łatwo tworzyć reguły automatyzacji, wpisując i opisując, co chcesz zautomatyzować — Atlassian Intelligence zajmie się wszystkim, co najtrudniejsze w tworzeniu reguł. Dowiedz się więcej na temat korzystania z narzędzia Atlassian Intelligence w Jirze i Confluence.

Naszym zdaniem wykorzystywanie automatyzacji przy użyciu Atlassian Intelligence w przypadku Jiry i Confluence sprawdza się najlepiej w sytuacjach, gdy nie wiesz, jak zacząć, lub chcesz przyspieszyć proces tworzenia reguł.

Co warto wziąć pod uwagę w przypadku automatyzacji przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do automatyzacji przy użyciu Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że automatyzacja przy użyciu Atlassian Intelligence jest mniej przydatna w następujących sytuacjach:

  • Musisz udzielić automatyzacji przy użyciu Atlassian Intelligence dostępu do informacji, które nie są łatwo dostępne (na przykład ze stron lub projektów objętych ograniczeniami), aby poprawnie odpowiedzieć na Twój wniosek.
  • wykonujesz zadania jednorazowe;
  • pytasz o informacje z poziomu swojej bazy wiedzy.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Automatyzacja przy użyciu Atlassian Intelligence działa tylko z istniejącym zestawem dostępnych komponentów automatyzacji w Jirze i Confluence.

Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej, jak opisano powyżej.

Twoje dane a automatyzacja przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki automatyzacja za pomocą Atlassian Intelligence wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, na przykład projekt Jira lub strona Confluence.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane w kontekście użycia Atlassian Intelligence do automatyzacji Confluence:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock
    • Are not stored by any LLM vendor.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.

All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.

Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do określonego projektu lub strony, otrzymana odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

How AI related resources uses Atlassian Intelligence Copy link to heading Copied! Show
  

AI related resources is powered by large language models developed by OpenAI, as well as a combination of open-source large language models (including the Llama series and Phi series) and other machine learning models. These large language models include OpenAI’s GPT series of models.

Atlassian Intelligence uses these models to analyze and generate natural language within our products, and to provide relevant responses from Atlassian and connected third-party products.

These large language models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on.

Read more about the capabilities of OpenAI’s models or about this approach in OpenAI's research papers. For more information on open-source language models, see information on the Llama series and the Phi series.

Use cases for AI related resources Copy link to heading Copied! Show
  

Atlassian Intelligence enables your users to speed up the process of resolving incidents by suggesting a list of resources that they can refer to, across your linked knowledge base spaces and articles, Jira issues, and (if you are a Rovo customer) any third-party products you have integrated through Rovo. Read more about Rovo and third party tools.

We believe that AI related resources work best in scenarios where:

  • Your organization has a lot of documentation in your linked knowledge base spaces and connected third-party tools that are relevant to and helpful for resolving incidents that occur in your organization.

  • Your team needs quick access to resources that are likely relevant to the incident when they are triaging the incident.

Considerations when using AI related resources Copy link to heading Copied! Show
  

Remember that because of the way that the models used to power AI related resources work, these models can sometimes behave in ways that are inaccurate, incomplete, or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on or include content that sounds reasonable but is false or incomplete.

We’ve found that AI related resources is less useful in scenarios where:

  • You need current and accurate information about people, places, and facts.

  • You need AI related resources to access information not readily available to you, like restricted Confluence documents (for example, access-restricted Confluence pages) to properly respond to your request.

  • You have minimal documentation available in your setup that Atlassian Intelligence can use to suggest related resources.

For this reason, we encourage you to consider situations where you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

You might also want to think about the following:

  • Reviewing permissions to ensure that users have appropriate levels of access to your relevant documentation and resources from third-party tools (like Slack channels).

  • Reviewing and confirming that your organization’s documentation is complete, up-to-date, and accurate.

Your data and AI related resources Copy link to heading Copied! Show
  

We understand you may have questions about how AI related resources uses your data. This section supplements the information available on our FAQ page.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as incident data, alerts data, documentation in your Atlassian products, and connected third-party products such as Google Docs.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Any feedback you provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, AI related resources applies the following measures:

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third-party LLM provider other than OpenAI.
    • Are not stored by OpenAI or any other third-party LLM provider.
    • Are not used to improve OpenAI or any other third party LLM provider.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • This feature follows your product’s permissions. For example, if you don’t have access to a certain Confluence page, you won’t find that page in the list of related resources. If you don’t want your content to be available in response to other users of your product, work with your organization admin to ensure the team’s access permissions are configured appropriately.
How AI suggestions in Jira Service Management use Atlassian Intelligence Copy link to heading Copied! Show
  

AI suggestions in Jira Service Management is powered by large language models developed by OpenAI, and other machine learning models. These large language models include OpenAI’s GPT series of models.

Atlassian Intelligence uses these models to analyze and generate natural language within our products.

These large language models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on.

Read more about the capabilities of OpenAI’s models.

Use cases for AI suggestions in Jira Service Management Copy link to heading Copied! Show
  

With AI suggestions in Jira Service Management, your team can quickly get up to speed by gathering important context about your service requests and incidents at a glance. Atlassian Intelligence helps your team to:

  • For service requests, understand a brief summary of the issue, details of the issue reporter, and a list of suggested steps that could help agents resolve the issue. Atlassian Intelligence also suggests ways that your team can update service requests based on this context, such as changing their priority or adding an assignee.
  • For incidents, understand a brief summary of the issue and details of the probable root cause. Atlassian Intelligence also suggests ways that your team can update incidents based on this context, such as identifying an incident as a major incident, adding responders or affected services, changing their severity or priority, or investigating the problem by creating a problem issue.

AI suggestions in Jira Service Management can also recommend that agents escalate a request or incident when the applicable SLA is about to be breached. In the case of service requests, this feature may also suggest that agents escalate that request where the models used to power these suggestions identify, based on the text of the reporter’s comments, a sense of urgency or anger with that request.

We believe that AI suggestions in Jira Service Management work best in scenarios where:

  • Your projects receive a lot of similar requests or incidents.
  • Your organization already records service requests and incidents in Jira Service Management with complete, accurate, and up-to-date information.
  • Your team members' user profiles have been populated with information about their roles, departments, and locations.
  • Your customers and team members keep a written record of all the conversations by adding comments on issues.
  • Your projects include a number of each kind of service request or incident commonly encountered by your teams.
Considerations when using AI suggestions in Jira Service Management Copy link to heading Copied! Show
  

It’s important to remember that because of the way that the models used to power AI suggestions in Jira Service Management work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, the responses that you receive might not accurately reflect the content that they are based on or include content that sounds reasonable but is false or incomplete.

We’ve found that AI suggestions in Jira Service Management are less useful in scenarios where:

  • You need current and accurate information about people, places, and facts.
  • You need suggestions for a service request or incident in circumstances where your project does not include any similar requests or incidents to learn from.
  • You need information that you don’t have access to within your project.
  • You need suggestions for assignees for whom information about their roles, departments, and locations has not been added to their profile.

For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

You might also want to think about:

  • Asking team members to make sure that their profile details (and past incidents/service requests) are fully populated before using AI suggestions in Jira Service Management.
Your data and AI suggestions in Jira Service Management Copy link to heading Copied! Show
  

We understand you may have questions about how AI suggestions in Jira Service Management uses your data. This section supplements the information available on our Trust Center.

We process:

  • The prompts (inputs) and responses (outputs)
  • Context from your instance relevant to the feature, such as similar requests or incidents, list of assignees or teammates, assets, and data in an issue like field values, comments, etc.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, AI suggestions apply the following measures.

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third-party LLM provider other than OpenAI.
    • Are not stored by OpenAI.
    • Are not used to improve OpenAI.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our List of Subprocessors. They don't use your inputs and outputs for any purpose besides processing your request.
  • This feature follows the permissions in your instance. For example, if you don't have access to a certain service request or incident, Atlassian Intelligence will not consider those requests or incidents while generating suggestions. If you don't want your content to be available to other users in your project or site, work with your org admin to ensure your permissions are set appropriately.
How Automation uses Atlassian Intelligence Copy link to heading Copied! Show
  

Automation using Atlassian Intelligence is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include OpenAI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. 

Atlassian Intelligence uses these models to analyze natural language input and generate an automation rule for you within Jira and Confluence.

These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated by predicting the most probable next word or text, based on the data that they have been trained on.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Use cases for Automation using Atlassian Intelligence Copy link to heading Copied! Show
  

Creating automation rules is at the core of the everyday automation experience, and we want to make this even easier for you by adding Atlassian Intelligence to the automation rule builder in Jira and Confluence. Now, you can easily create automation rules by simply typing in and describing what you wish to automate, and let Atlassian Intelligence handle all the heavy lifting of creating the rule for you. Find out more about Automation using Atlassian Intelligence for Jira and for Confluence.

We believe that Automation using Atlassian Intelligence for Jira and Confluence works best in scenarios when you are not sure how to get started or want to accelerate the rule creation process.

Not sure how best to create an automation rule?

Automation rules are created by a combination of different types of components: triggers, actions, conditions, and branches. Think of components as the building blocks of a rule. To successfully create a rule with Atlassian Intelligence, your rule must at least contain both a trigger and an action. For example:

In Jira:

Every Monday, find all the tasks with a due date in the next 7 days, and send the assignee a reminder email.

When a ticket moves to Testing, assign the ticket to John Smith.

In Confluence:

  • Every Monday, find all the tasks with a due date in the next 7 days, and send the assignee a reminder email.
  • Every 6 months, archive any pages that haven’t been updated in that time. After archiving, send an email to the page author letting them know.
  • When a page is published with Product Spec in the title, create a Jira ticket to review the page with a link to the page.

In addition, for a rule to be successfully created, all its components must be supported by Automation using Atlassian Intelligence. This means that any triggers, actions, conditions, or branches in your rule must be compatible with Automation in Jira and/or Confluence.

Considerations for Automation using Atlassian Intelligence Copy link to heading Copied! Show
  

It’s important to remember that because of the way that the models used to power Automation using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete.

We’ve found that Automation using Atlassian Intelligence is less useful in scenarios where:

  • You need to give Automation using Atlassian Intelligence access to information that isn’t readily available to you (for example, a restricted page or project) to properly answer your request.
  • You need to perform one-off tasks.
  • You need to query information from within your knowledge base.

For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

Automation using Atlassian Intelligence will only work with the existing set of available automation components in Jira and Confluence.

You might also want to think about being as specific as possible in what you ask Atlassian Intelligence to do, as described above.

Your data and Automation using Atlassian Intelligence Copy link to heading Copied! Show
  

We understand you may have questions about how Automation using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as a Jira project or a Confluence page.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, using Atlassian Intelligence for Confluence automation applies the following measures:

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock
    • Are not stored by any LLM vendor.
    • Are not used to improve LLM models.
    • Are used only to serve your experience.

All third-party LLM providers are subprocessors and listed as so on our  Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.

This feature follows the permissions in your instance. For example, if you do not have access to a specific project or page, you will not be suggested content from those assets in the response you receive. If you do not want your content to be available in responses to other users in your instance, work with your org admin to ensure your permissions are set appropriately.

Grupowanie alertów

Jak grupowanie alertów wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Alert grouping by Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele uczenia maszynowego do analizowania i generowania grup alertów oraz przedstawiania powiązanych sugestii (wcześniejsze grupy alertów i wcześniejsze osoby reagujące na alerty) w naszych produktach w oparciu o podobieństwo zawartości alertów lub użytych tagów. Następnie Atlassian Intelligence wykorzystuje duże modele językowe do analizowania i generowania opisów i treści w języku naturalnym dla tych grup w naszych produktach.

Te duże modele językowe generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia do grupowania alertów Copy link to heading Copied! Pokaż
  

Grupowanie alertów wykorzystuje Atlassian Intelligence do rozpoznawania i grupowania podobnych alertów. Pomaga również rozpoznawać i rekomendować wcześniejsze podobne grupy alertów i wcześniejsze osoby reagujące na alerty (lub zespoły osób reagujących) w oparciu o semantyczne podobieństwo użytych treści alertów lub tagów.

Jeśli chcesz eskalować grupę alertów do incydentu, grupowanie alertów spowoduje również wstępne wypełnienie wszystkich informacji kontekstowych, które możesz przeglądać w ramach procesu tworzenia incydentu.

Naszym zdaniem grupowanie alertów najlepiej sprawdza się w scenariuszach, w których:

  • Organizacja często napotyka wzorce licznych podobnych lub zduplikowanych alertów, niezależnie od tego, czy występują w krótkim okresie, czy w dłuższej perspektywie czasowej.
  • Organizacja spójnie kategoryzuje alerty za pomocą tagów.
  • Zespół często dochodzi do wniosku, że podobne lub zduplikowane alerty powinny być eskalowane do incydentów.
Co należy wziąć pod uwagę podczas korzystania z grupowania alertów Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych w grupowaniu alertów, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z kolei grupy alertów, które wyświetlasz, mogą nie odzwierciedlać dokładnie semantycznego podobieństwa ich tagów.

Z naszych doświadczeń wynika, że grupowanie alertów jest mniej użyteczne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Funkcja grupowania alertów musi mieć dostęp do informacji, które nie są łatwo dostępne, a są niezbędne do odpowiedniego grupowania alertów. Grupowanie alertów działa w granicach skonfigurowanych ról i uprawnień zespołu, dzięki czemu będziesz mieć dostęp tylko do grup i analiz dotyczących alertów, do których masz uprawnienia do wyświetlania.
  • Tagi alertów używane przez Twój zespół nie są spójne lub dobrze utrzymane. Ponieważ grupowanie alertów opiera się na semantycznym podobieństwie tytułów alertów i tagów, jakość generowanych grup alertów zależy od spójności i uporządkowania tagów alertów używanych przez zespół i organizację.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Warto też zadbać, aby zespół stosował spójne praktyki dotyczące używania tagów alertów.

Twoje dane i grupowanie alertów Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki grupowanie alertów wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni dla polecenia, taki jak dane alertów (tytuły alertów, tagi alertów, priorytet, zespoły reagujące, opis).
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Przetwarzamy dane alertów, aby przeszkolić wersję modelu uczenia maszynowego w celu rozpoznawania wzorców specyficznych dla Twoich alertów. Ta wersja służy tylko do obsługi Twojego środowiska:

  • Przechowujemy rozpoznane wzorce, aby umożliwić Ci zapoznanie się z analizami.
  • Nie wykorzystujemy Twoich danych dotyczących alertów do szkolenia LLM.

Podczas grupowania alertów wobec Twoich danych stosowane są wymienione poniżej środki:

  • Twoje dane wejściowe i wyjściowe:
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock

    • Are not stored by any LLM vendor.

    • Are not used to improve LLM models.

    • są wykorzystywane tylko do obsługi Twojego środowiska.

  • All third-party LLM providers are subprocessors and listed as so on our subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja jest zgodna z uprawnieniami Twojej witryny. Przykładowo jeśli Atlassian Intelligence grupuje 50 alertów na podstawie ich tagów i podobieństwa semantycznego, a Ty masz uprawnienia do wyświetlenia tylko 30 alertów, zobaczysz tylko te 30 alertów w widoku szczegółów grupy. Jeśli nie chcesz, aby Twoje alerty były dostępne w odpowiedziach dla innych użytkowników w Twojej witrynie, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji/witryny.
Jak Atlassian Intelligence podsumowuje strony i blogi w Confluence Copy link to heading Copied! Pokaż
  

Summarize pages and blogs using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia krótkiego podsumowania Confluence Copy link to heading Copied! Pokaż
  

Oszczędzaj czas i uzyskuj szczegóły potrzebne do szybszego wykonywania pracy, generując krótkie podsumowania stron lub blogów Confluence za pomocą Atlassian Intelligence. Dowiedz się więcej na temat korzystania z narzędzia Atlassian Intelligence w Confluence.

Naszym zdaniem podsumowywanie stron i blogów za pomocą Atlassian Intelligence najlepiej sprawdza się wówczas, gdy:

  • istnieje strona z obszernym tekstem, której przeczytanie zajmuje 5 minut lub więcej;
  • istnieje wiele treści pisanych, z ograniczoną grafiką lub innym formatowaniem, takim jak rozszerzenia na stronie.
Co warto wziąć pod uwagę przy podsumowywaniu stron i blogów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do podsumowywania stron i blogów za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Chociaż nadal pracujemy nad lepszą obsługą makr i tabel oraz rozszerzamy podsumowania, odkryliśmy, że podsumowywanie stron i blogów za pomocą Atlassian Intelligence jest mniej przydatne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • potrzebujesz podsumowania bardzo krótkiej strony Confluence, na której nie ma wystarczającej ilości treści;
  • potrzebujesz podsumowania strony Confluence, na której większość treści znajduje się w tabelach lub rozszerzeniach;
  • potrzebujesz podsumowania strony Confluence, na której większość treści znajduje się w makrach.

Zachęcamy Cię do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Proszenie Atlassian Intelligence o podsumowywanie stron, o których wiesz, że zawierają dużo tekstu.
Twoje dane a podsumowywanie stron i blogów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane do automatyzacji Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);

  • Kontekst instancji odpowiedni do podpowiedzi, np. treść ze strony Confluence, którą chcesz podsumować.

  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz

  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, podczas podsumowywania stron i blogów za pomocą Atlassian Intelligence:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.
    • Are not stored by any LLM vendor.

    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do strony Confluence, nie będziesz widzieć tej funkcji ani nie będziesz w stanie podsumować strony za pomocą Atlassian Intelligence. Jeśli nie chcesz, aby Twoje treści były dostępne dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Definiowanie terminów za pomocą Atlassian Intelligence

Jak Atlassian Intelligence definiuje terminy Copy link to heading Copied! Pokaż
  

Defining terms using Atlassian Intelligence in Confluence and Jira is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania odpowiedzi w języku naturalnym w Confluence.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia funkcji definiowania terminów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Jedną z najtrudniejszych rzeczy związanych z korzystaniem z treści w Confluence i Jira może być zdobycie kontekstu potrzebnego do zrozumienia tego, co czytasz. Skróty, akronimy, nieznane terminy oraz nazwy specyficzne dla zespołu lub projektu mogą wymagać czasochłonnego wyszukiwania potrzebnych informacji.

Funkcja definiowania terminów za pomocą Atlassian Intelligence pozwala uzyskać definicję terminów specyficznych dla danej firmy (np. akronimów, nazw projektów, systemów lub zespołów) na stronie w Confluence lub w opisie zgłoszenia w Jira. Dzięki temu użytkownik otrzymuje potrzebne mu informacje, kiedy ich potrzebuje — a wszystko to pomaga zespołom sprawniej współpracować.

Atlassian Intelligence pozwala Ci zaoszczędzić czas, ponieważ definiuj te rzeczy za Ciebie, dzięki czemu nie musisz przerywać lektury.

Jeśli napotkasz definicję, którą uważasz za niedokładną, możesz edytować lub dodać nową definicję, a następnie ustawić widoczność dla tej strony lub tego zgłoszenia, całej przestrzeni lub projektu bądź uzyskać dostęp do całej organizacji.

Naszym zdaniem definiowanie terminów za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:

  • Firma ma wiele stron w swojej instancji Confluence, które wspominają, opisują lub wyjaśniają, jaki jest określony termin, do którego może odwołać się Atlassian Intelligence.
Co warto wziąć pod uwagę w przypadku definiowania terminów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do definiowania odpowiedzi za pomocą Atlassian Intelligence, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Ustaliliśmy, że użycie Atlassian Intelligence do definiowania terminów w Confluence jest mniej przydatne w sytuacjach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • nie masz wystarczającego kontekstu dotyczącego terminu w tej instancji Confluence (przykładowo jeśli nie ma stron wymieniających konkretny termin, definicja tego terminu nie zostanie wygenerowana w sposób poprawny);
  • Definicja wymaga dostępu do treści Confluence, do których przeglądania nie masz uprawnień
  • próbujesz zdefiniować kilka terminów zamiast jednego terminu naraz.

Ponadto w Jira zauważyliśmy, że ponieważ definiowanie terminów za pomocą Atlassian Intelligence opiera się na wyszukiwaniu w Confluence, funkcja ta będzie działać w Jira tylko wtedy, gdy masz uprawnienia do wyświetlania instancji Confluence w tej samej witrynie co instancja Jira.

Może się również zdarzyć, że definiowanie terminów za pomocą Atlassian Intelligence nie będzie działać zgodnie z oczekiwaniami w przestrzeniach Confluence lub instancjach Jira, które zawierają treści napisane w wielu językach.

Twoje dane i definiowanie terminów przy użyciu Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas definiowania terminów. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, np. termin, który chcesz zdefiniować.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to podczas definiowania terminów za pomocą Atlassian Intelligence stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja działa zgodnie z aktualnymi uprawnieniami dostępu użytkownika, co oznacza, że użytkownicy nie otrzymają definicji na podstawie treści, do których nie mają dostępu. Zamiast tego funkcja ściąga treści i definicje tylko ze stron i projektów, do których wyświetlania ma uprawnienia użytkownik w instancji. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.
  • Jeśli użytkownik ręcznie edytuje lub aktualizuje definicję, jest ona przechowywana przez 1 rok.

Generatywna SI w edytorze

Jak działa Atlassian Intelligence w edytorach Copy link to heading Copied! Pokaż
  

Atlassian Intelligence in editing experiences is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia generatywnej funkcji SI w edytorze Copy link to heading Copied! Pokaż
  

Atlassian Intelligence pomaga prowadzić skuteczną komunikację we wszystkich zespołach w organizacji w celu poprawy wydajności oraz usprawnienia podejmowania decyzji i procesów.

Naszym zdaniem wykorzystanie Atlassian Intelligence w edytorach najlepiej sprawdza się w następujących scenariuszach:

  • Przekształcanie istniejących treści na potrzeby różnych odbiorców. Atlassian Intelligence pomaga w zmianie rejestru językowego, poprawia styl i ułatwia zrozumienie informacji technicznych innym zespołom. Najlepiej sprawdza się w przypadku zespołów, które chcą pisać bardziej profesjonalnie i zwięźle.
  • Podsumowanie istniejących treści. Dzięki Atlassian Intelligence można przekształcać luźne notatki w przydatną dokumentacja strategiczną, artykuły z bazy wiedzy, plany kampanii i podobne materiały. Pozwala też na analizę istniejących informacji w celu zdefiniowania planów działań i czynności do wykonania. Najlepiej sprawdza się w przypadku stron z dużą ilością tekstu, z których można czerpać dużo kontekstu.
  • Generowanie nowych treści. Atlassian Intelligence pomaga tworzyć nowe treści, takie jak strony strategii, przeglądy projektów, uwagi do wydania lub historyjki użytkowników. Najlepiej jeśli zespoły używają jasnych, konkretnych podpowiedzi, z myślą o określonym celu.
Uwagi dotyczące wykorzystania Atlassian Intelligence w edytorach Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych przez Atlassian Intelligence w edytorach, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że wykorzystanie Atlassian Intelligence w edytorach jest mniej przydatne w sytuacjach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • w celu uzyskania poprawnej odpowiedzi potrzebujesz dostępu do informacji, które nie są łatwo dostępne (przykładowo znajdują się w Twojej powiązanej bazie wiedzy);
  • chcesz wygenerować treści w formacie innym niż standardowy Markdown (na przykład w celu wygenerowania panelu informacyjnego od zera);
  • chcesz odwołać się do informacji, które nie znajdują się jeszcze obecne w edytowanym dokumencie (przykładowo treści znajdujące się w innym dokumencie lub produkcie).
  • chcesz wygenerować i przekształcić treści w językach innych niż angielski.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • podzielenie złożonych wniosków na mniejsze zadania, którymi łatwiej zarządzać;
  • włączenie odpowiednich słów kluczowych, aby poprawić dokładność generowanych treści;
  • użycie poprawnej gramatyki i interpunkcji we wprowadzanym tekście;
  • korekta, weryfikacja i edycja danych wyjściowych wygenerowanych przez asystenta pisania SI w celu uzyskania dokładności i przejrzystości;
  • eksperymentowanie z różnymi podpowiedziami lub odmianami tekstu wejściowego w celu zbadania różnych pomysłów;
  • współpraca z innymi osobami w celu zebrania opinii i poprawy jakości danych wyjściowych.
Twoje dane i Atlassian Intelligence w edytorach Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane w edytorach. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, np. produkt, z którego uruchomiono narzędzie Atlassian Intelligence.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to w kontekście używania Atlassian Intelligence w edytorach stosuje się następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Na przykład jeśli nie masz dostępu do określonej strony Confluence, otrzymana odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.
How issue reformatter uses Atlassian Intelligence Copy link to heading Copied! Show
  

Issue reformatter is powered by large language models developed by OpenAI, including OpenAI’s GPT series of models.

Atlassian Intelligence uses this model to analyze and generate natural language within Jira.

These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on.

Read more about the capabilities of OpenAI’s models.

Use cases for issue reformatter Copy link to heading Copied! Show
  

Issue reformatter helps improve the clarity of your Jira issue descriptions by reformatting them using a template developed by Atlassian. This template covers the types of information that we usually expect to see in a Jira issue description, such as a user story, context for the work, and acceptance criteria.

We believe issue reformatter works best in scenarios where your issue descriptions already contain useful information (such as acceptance criteria or links to sources) but that information is not formatted using a clear or consistent structure.

Considerations when using issue reformatter Copy link to heading Copied! Show
  

It’s important to remember that, because of the way they work, the models that power issue reformatter can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, your reformatted description might not accurately reflect the content that it was based on, or it might include details that sound reasonable but are false or incomplete.

We’ve found issue reformatter is less useful in scenarios where:

  • You need current and accurate information about people, places and facts.
  • Your issue descriptions don’t include much information, because there’s a higher chance that the models powering issue reformatter might add information that wasn’t included in your original description.

For this reason, we encourage you to think about the situations when you use Atlassian Intelligence, and always review the quality of the responses you get before sharing them with others. You might also want to think about reviewing and confirming that your issue descriptions include all relevant information before you start using issue reformatter to reformat them.

Your data and issue reformatter Copy link to heading Copied! Show
  

We understand you may have questions about how issue reformatter uses your data. This section supplements the information available on our Trust Center.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as the Jira issue description and summary.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, issue reformatter applies the following measures:

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers
    • Are not sent to any third party LLM provider other than OpenAI
    • Are not stored by Open AI.
    • Are not used to improve OpenAI's models.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our list of subprocessors. They do not use your inputs and outputs for any purpose besides processing your request.
  • This feature only uses the information available within the Jira Issue and is invoked from the Jira Issue. Therefore, it can only be invoked by a user who has permission to view the issue and will not access any other information.

Podsumowanie szczegółów zgłoszenia w Jira Service Management

Jak Atlassian Intelligence podsumowuje szczegóły zgłoszenia w Jira Service Management Copy link to heading Copied! Pokaż
  

Summarize issue details using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia dotyczące podsumowania szczegółów zgłoszenia w Jira Service Management Copy link to heading Copied! Pokaż
  

Zamiast czytać długie opisy i liczne komentarze na temat zgłoszenia Jira Service Management możesz użyć Atlassian Intelligence w celu szybkiego wygenerowania podsumowania tych informacji. Dzięki temu agenci mogą szybko zapoznać się z kontekstem zgłoszenia i wszelkimi postępami, a tym samym szybko podejmować działania i udzielać pomocy.

Naszym zdaniem podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence najlepiej sprawdza się w następujących przypadkach:

  • Zgłoszenia z opisem i komentarzami w języku angielskim.
  • Zgłoszenia z dużą liczbą komentarzy bądź długimi komentarzami lub opisami.
Co warto wziąć pod uwagę w przypadku podsumowania szczegółów zgłoszenia za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że podsumowanie szczegółów zgłoszenia przy użyciu Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • Użytkownik posługuje się językiem innym niż angielski
  • Zgłoszenie nie ma historii lub szczegółów

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Twoje dane i podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi zawiera szczegółowe informacje o zgłoszeniu Jira Service Management, np. opis zgłoszenia, komentarze i użytkownicy objęci zgłoszeniem.
  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Tylko agenci i administratorzy projektu widzą przycisk podsumowania.

Generatywna SI w edytorze

Jak Atlassian Intelligence podsumowuje inteligentne łącza Copy link to heading Copied! Pokaż
  

Summarize Smart Links with Atlassian Intelligence (AI) is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia podsumowywania inteligentnych łączy Copy link to heading Copied! Pokaż
  

Po najechaniu kursorem na inteligentne łącze z Jira, Confluence i Dokumentów Google Atlassian Intelligence może pomóc Ci w podsumowaniu treści, co pozwala określić znaczenie i wartość łącza oraz zdecydować o następnym kroku. Zmniejsza to potrzebę opuszczenia bieżącej strony i zmiany kontekstu.

Uważamy, że podsumowywanie inteligentnych łączy za pomocą SI działa najlepiej w scenariuszach, w których:

  • Przeglądasz stronę lub zgłoszenie z co najmniej jednym inteligentnym łączem.
  • Przeglądasz stronę lub zgłoszenie z co najmniej jednym inteligentnym łączem zawierającym dużo informacji lub informacje w skondensowanej postaci, których lektura może zająć dużo czasu bądź odciągnąć Twoją uwagę od głównej treści, jaka Cię interesowała.
Co warto uwzględnić przy podsumowywaniu inteligentnych łączy za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych przy podsumowywaniu inteligentnych łączy dzięki SI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Otrzymane podsumowania mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Odkryliśmy, że podsumowywanie inteligentnych łączy za pomocą SI jest mniej przydatne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • musisz podsumować treści, które są niezwykle krótkie;
  • Musisz podsumować wszystkie metadane i treść w jakimś łączu. Jeżeli na przykład chcesz zrozumieć wszystkie wartości pól w zgłoszeniu Jira, a także jego opis i treść komentarza.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Twoje dane a podsumowywanie inteligentnych łączy za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • kontekst instancji odpowiedni do polecenia, np. treść łącza, które chcesz podsumować;
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • informację zwrotną, którą chcesz przekazać na temat tej funkcji, w tym wszelkie odpowiedzi udostępniane przez Ciebie w ramach dostarczanej informacji zwrotnej.

Jeśli chodzi o Twoje dane, podczas podsumowywania inteligentnych łączy za pomocą SI stosuje się wymienione poniżej środki.

  • Twoje podsumowania:
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on ourSubprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo w przypadku braku dostępu do strony lub zgłoszenia w Jira, Confluence lub Google nie można podsumować treści z tego źródła. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Odpowiedzi Atlassian Intelligence w Jira Service Management

Jak działają odpowiedzi Atlassian Intelligence w Jira Service Management Copy link to heading Copied! Pokaż
  

Atlassian Intelligence answers is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia odpowiedzi Atlassian Intelligence w Jira Service Management Copy link to heading Copied! Pokaż
  

Funkcja odpowiedzi Atlassian Intelligence łączy się z wirtualnym agentem obsługi w Jira Service Management. Wykorzystuje generatywną sztuczną inteligencję, aby przeszukiwać powiązane przestrzenie bazy wiedzy i odpowiadać na pytania klientów.

Naszym zdaniem odpowiedzi Atlassian Intelligence najlepiej sprawdzają się w sytuacjach, w których:

  • Masz pełną i aktualną powiązaną bazę wiedzy, do której wirtualny agent obsługi ma dostęp w celu udzielania odpowiedzi na pytania klientów za pomocą odpowiedzi Atlassian Intelligence.
  • Odpowiedzi Atlassian Intelligence są używane w celu udzielenia odpowiedzi na pytania klientów, które:
    • mogą zostać rozwiązane przez podanie informacji lub instrukcji;
    • zostały omówione w istniejących artykułach bazy wiedzy (lub można je tam dodać);
    • zwykle nie wymagają eskalacji do jednego z agentów.
Uwagi dotyczące korzystania z odpowiedzi Atlassian Intelligence w Jira Service Management Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych w odpowiedziach Atlassian Intelligence, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że odpowiedzi Atlassian Intelligence są mniej przydatne w sytuacjach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • chcesz, aby w celu udzielenia poprawnej odpowiedzi na Twoje żądanie, narzędzie Atlassian Intelligence uzyskało dostęp do informacji, które nie są łatwo dostępne (na przykład znajdują się w Twojej powiązanej bazie wiedzy).
  • Twoja baza wiedzy jest nieaktualna lub niekompletna, więc wyszukiwanie może nie być pomocne.
  • Artykuły w bazie wiedzy nie zawierają informacji istotnych lub wysokiej jakości, więc odpowiedzi Atlassian Intelligence mogą na podstawie tych artykułów dostarczać klientom mniej odpowiednie informacje.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Aktywne przeglądanie i aktualizowanie powiązanej bazy wiedzy (i zawartych w niej artykułów), aby się upewnić, że pozostaje ona kompletna i aktualna.
  • Aktywne przeglądanie uprawnień i ograniczeń mających zastosowanie do powiązanych przestrzeni bazy wiedzy, aby upewnić się, że funkcja odpowiedzi Atlassian Intelligence ma dostęp do odpowiednich przydatnych informacji.
Twoje dane oraz odpowiedzi Atlassian Intelligence w Jira Service Management Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki odpowiedzi Atlassian Intelligence w Jira Service Management wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, taki jak powiązane przestrzenie bazy wiedzy.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.
  • Jeśli chodzi o Twoje dane, odpowiedzi Atlassian Intelligence w Jira Service Management:
  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.
    • Are not stored by any LLM vendor.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja jest zgodna z uprawnieniami i ograniczeniami mającymi zastosowanie do powiązanych przestrzeni bazy wiedzy. Oznacza to, że wszystkie strony dostępne dla klientów w portalu Jira Service Management są dostępne za pośrednictwem odpowiedzi Atlassian Intelligence. Na przykład jeśli dostęp do określonej strony Confluence jest ograniczony i nie jest ona ogólnie dostępna za pośrednictwem Jira Service Management, zawartość tej strony nie jest sugerowana w odpowiedziach Atlassian Intelligence. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.
How summarize a Whiteboard uses Atlassian Intelligence Copy link to heading Copied! Show
  

Summarize a Whiteboard is powered by large language models developed by OpenAI. These large language models include OpenAI’s GPT series of models.

Atlassian Intelligence uses these models to analyze and generate natural language within our products.

These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on.

Read more about the capabilities of OpenAI's models.

Use cases for summarize a Whiteboard Copy link to heading Copied! Show
  

Save time and get the details you need to do your work faster by generating a summary of the content on a whiteboard using Atlassian Intelligence.

We believe that Summarize a Whiteboard works best in scenarios where you have already created content with a Whiteboard. You can copy or create a page from the summary Atlassian Intelligence generates using the buttons at the bottom of the summary panel. You can also rate the quality of the summary and provide feedback.

Considerations when using summarize a Whiteboard Copy link to heading Copied! Show
  

It’s important to remember that because of the way that the models used to power Summarize a Whiteboard work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete.

While we continue to build better support for macros, tables, and expand in summaries, we’ve found that Summarize a Whiteboard using Atlassian Intelligence is less useful in scenarios where:

  • You need a summary of a Whiteboard where there is not enough content.

  • You need a summary of a Whiteboard where most of the content is in links or images.

We encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

Your data and summarize a Whiteboard Copy link to heading Copied! Show
  

We understand you may have questions about how summarize a Whiteboard uses your data. This section supplements the information available on our FAQ page.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as content from the Whiteboard that you want to summarize.

  • Data about how you interact with our features, such as clickstream data and the people you work with.

  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, summarize a Whiteboard applies the following measures.

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third-party LLM provider other than OpenAI.
    • Are not stored by OpenAI.
    • Are not used to improve OpenAI.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • This feature follows the permissions in your instance. For example, if you do not have access to a Confluence page, you will not be shown this feature or be able to summarize a page using Atlassian Intelligence. If you do not want your content to be available to other users in your instance, work with your org admin to ensure your permissions are set appropriately.

Krótkie podsumowanie Confluence

Jak Atlassian Intelligence zapisuje niestandardowe wzory w Atlassian Analytics Copy link to heading Copied! Pokaż
  

Writing custom formulas using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy języka naturalnego, a następnie tłumaczy go na SQLite w Atlassian Analytics.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia niestandardowych wzorów za pomocą AI Copy link to heading Copied! Pokaż
  

Zamiast pisać własne wyrażenia SQLite od podstaw, zapytaj Atlassian Intelligence lub opisz, w jaki sposób chcesz przekształcić dane w tabeli wyników, a narzędzie przełoży to na wyrażenie SQLite używane do niestandardowych wzorów. Gdy zadajesz pytanie, Atlassian Intelligence wykorzystuje dane z tabeli wyników w poprzednim kroku Visual SQL do wygenerowania wyrażenia SQLite, które stosuje obliczenia lub operacje do tych danych na wykresie. Może to również pomóc w poznaniu funkcji SQLite i ich składni.

Zapisywanie niestandardowych wzorów przy użyciu Atlassian Intelligence najlepiej sprawdza się w scenariuszach, w których:

  • Chcesz zastosować zmiany w pojedynczej kolumnie danych zapytania.
  • Chcesz zacząć od wygenerowanego wyrażenia SQLite i w razie potrzeby je udoskonalić.
  • Pytanie w języku naturalnym zawiera słowa i pojęcia, do których odwołują się nagłówki kolumn lub dane wierszy.
  • Chcesz dowiedzieć się więcej o SQLite i odkryć dostępne funkcje SQLite.
Co warto wziąć pod uwagę podczas zapisywania niestandardowych wzorów za pomocą AI Copy link to heading Copied! Pokaż
  

Podczas korzystania z niestandardowych wzorów pamiętaj, że modele używane w Atlassian Intelligence mogą czasami być niedokładnie, niekompletnie lub niewiarygodnie.

Otrzymane odpowiedzi mogą na przykład nie odzwierciedlać dokładnie treści, na których zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że zapisywanie niestandardowych wzorów za pomocą Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • Chcesz zastosować zmiany do więcej niż jednej kolumny w jednym niestandardowym wzorze.
  • Ta funkcja jest potrzebna, aby mieć dostęp do informacji, które nie są łatwo dostępne w danych tabeli wyników.
  • Polecenie jest wydawane w języku innym niż angielski.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • Upewnienie się, że dane, których dotyczy zapytanie, obejmują dane potrzebne do odpowiedzi na Twoje pytanie.
Twoje dane i zapisywanie niestandardowych wzorów za pomocą AI Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane do automatyzacji Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);

  • Kontekst instancji odpowiedni do podpowiedzi, np. treść ze strony Confluence, którą chcesz podsumować.

  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz

  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, podczas podsumowywania stron i blogów za pomocą Atlassian Intelligence:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do strony Confluence, nie będziesz widzieć tej funkcji ani nie będziesz w stanie podsumować strony za pomocą Atlassian Intelligence. Jeśli nie chcesz, aby Twoje treści były dostępne dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.
Jak analiza wykresów wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Create incident with AI using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

These models generate responses based on your input and are probabilistic in nature. This means that their responses are generated by predicting the most probable next word or text based on the data that they've been trained on.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia tworzenia incydentów za pomocą SI Copy link to heading Copied! Pokaż
  

W przypadku eskalacji jednego lub większej liczby alertów lub grup alertów do incydentu w Jira Service Management funkcja tworzenia incydentów za pomocą SI wykorzystuje Atlassian Intelligence do szybkiego wstępnego wypełnienia wszystkich informacji kontekstowych, które możesz przeglądać w ramach procesu tworzenia incydentu. Dzięki temu użytkownicy mogą szybko zapoznać się z kontekstem incydentu utworzonego na podstawie tych alertów lub grup alertów, a także przejrzeć i potwierdzić wstępnie wypełnione informacje, w tym tytuł, opis i priorytet alertu podczas eskalowania go do incydentu.

Uważamy, że tworzenie incydentów za pomocą SI działa najlepiej w scenariuszach, w których:

  • Alerty dotyczące eskalacji do incydentu zawierają tytuł i opisy w języku angielskim.
  • Alerty dotyczące eskalacji do incydentu mają obszerne opisy.
  • Kiedy tworzysz incydent z więcej niż jednego alertu.
Co należy wziąć pod uwagę podczas tworzenia incydentu za pomocą SI Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych w tworzeniu incydentu za pomocą SI mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Odkryliśmy, że tworzenie incydentów za pomocą SI jest mniej przydatne w scenariuszach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Alerty dotyczące eskalacji do incydentu zawierają tytuł lub opis (lub zarówno tytuł, jak i opis) w języku innym niż angielski.
  • Alerty dotyczące eskalacji do incydentu zawierają tylko ograniczone szczegóły.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Aby uzyskać najbardziej przydatne wyniki, sugerujemy jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.

Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej.

Twoje dane i tworzenie incydentów za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki tworzenie incydentu za pomocą SI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, na przykład opis alertu Jira Service Management, tytuł i priorytet.
  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, podczas tworzenia incydentu za pomocą SI stosuje się wymienione poniżej środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM providor.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja działa zgodnie z uprawnieniami dotyczącymi alertów w instancji. Tylko agenci, którzy mają uprawnienia do wyświetlania alertu i eskalowania go do incydentu, będą widzieć sugestie Atlassian Intelligence dotyczące wypełnienia szczegółów tworzonego incydentu.

Create post-incident review

How create post-incident review uses Atlassian Intelligence Copy link to heading Copied! Pokaż
  

PIR (Post-Incident Review) creation by Atlassian Intelligence is powered by large language models developed by OpenAI. These large language models include OpenAI’s GPT series of models. Atlassian Intelligence uses these models to analyze and generate natural language within our products.

These models generate responses based on users' inputs and are probabilistic in nature. This means that the responses are generated by predicting the most probable next word or text, based on the data that they’ve been trained on.

Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI.

Use cases for create post-incident review with AI Copy link to heading Copied! Pokaż
  

PIRs are a core part of the incident management process, helping incident responders and managers learn from current incidents and pass along insights to prevent similar incidents in the future. Atlassian Intelligence helps to accelerate the often time-consuming task of compiling a PIR by suggesting a PIR description based on relevant contextual information in your Jira Service Management instance and chat tools like Slack for you to review.

We believe that PIR creation using AI works best in scenarios where:

  • Your organization has a consistent practice of compiling PIRs for incidents.

  • Your team has incident details scattered across chat tools like Slack and Jira Service Management, which requires you to spend more time compiling a PIR from those sources.

  • Your organization records incidents in Jira Service Management with complete, up-to-date information.

Considerations when using create post-incident review with AI Copy link to heading Copied! Pokaż
  

It’s important to remember that because of the way that the models used to power PIR creation work, they can sometimes behave in ways that are inaccurate, incomplete, or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on or include content that might sound reasonable but is false or incomplete.

We’ve found that PIR creation using AI is less useful in scenarios where:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • You need PIR creation to have access to information that isn’t readily available to you (for example, chat channels which you don’t have access to) to properly generate the PIR description.
  • The data available in your Jira Service Management instance is incomplete or insufficiently detailed, so the PIR creation may not be able to generate an accurate description.

For this reason, we encourage you to think about situations where you can use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

Inne kwestie warte przemyślenia:

  • Being as specific as possible in what you want Atlassian Intelligence to do.
  • Ensuring that you and your team follow incident management practices consistently. For example, by recording complete and accurate details of incidents in your Jira Service Management instance and linking the relevant chat channels to the incident.
Your data and create post-incident review using AI Copy link to heading Copied! Pokaż
  

We understand you may have questions about how create post-incident review using AI uses your data. This section supplements the information available on our FAQ page.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Context from your instance relevant to your prompt, such as incident data (such as summary, labels, priority, responder teams, and description), linked alerts, and linked Slack chat channels.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

When it comes to your data, PIR creation using AI applies the following measures.

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.

    • Nie są wysyłane do żadnego zewnętrznego dostawcy LLM innego niż OpenAI.

    • Nie są przechowywane przez OpenAI.

    • Nie są używane do ulepszania modeli OpenAI.

    • są wykorzystywane tylko do obsługi Twojego środowiska.

  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page.

  • This feature follows the permissions in your instance. For example, if you do not have access to the linked alerts of the incident or linked Slack channels, you will not be suggested content from these sources in the response you receive. If you do not want your content to be available in responses to other users in your instance, please work with your org admin to ensure your permissions are set appropriately.

Generowanie opisów pull requestów za pomocą Atlassian Intelligence

Jak Bitbucket Cloud wykorzystuje Atlassian Intelligence do generowania opisów pull requestów Copy link to heading Copied! Pokaż
  

Generating pull request descriptions with Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego oraz kodu w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia do generowania opisów pull request typu pull za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Atlassian Intelligence może pomóc w generowaniu, przekształcaniu i streszczaniu treści podczas pisania opisów lub komentarzy do pull requestów w środowisku przeglądu kodu w Bitbucket Cloud. Korzyści z tych elementów to między innymi:

  • Generowanie opisu pull requestu na podstawie zmian w kodzie zawartych w pull requeście.
  • Streszczanie, poprawianie lub modyfikowanie tonu opisu pull requestu.
  • Streszczanie, poprawianie lub modyfikowanie tonu komentarza do pull requestu.

Naszym zdaniem generowanie opisów pull requestów w Bitbucket Cloud za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:

  • Jako autor kodu chcesz wykorzystać Atlassian Intelligence do pomocy przy pisaniu lub poprawianiu opisu pull requestu. Podejście to sprawdza się najlepiej w zespołach, które są w stanie sprawdzić i potwierdzić, że treści generowane przez Atlassian Intelligence są odpowiednie do opisania pull requestu.
  • Jako recenzent kodu chcesz wykorzystać Atlassian Intelligence do pomocy przy pisaniu lub poprawianiu brzmienia bądź treści sporządzonej uprzednio wersji roboczej komentarza do pull requestu.
Zagadnienia do rozważenia w przypadku generowania opisów pull request typu pull za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi tej funkcji, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Odkryliśmy, że generowanie opisów pull requestów w Bitbucket Cloud za pomocą Atlassian Intelligence sprawdza się gorzej w sytuacjach, gdy:

  • W opisie pull requestu trzeba zawrzeć odniesienie do informacji, których zmiany kodu nie zawierają (na przykład kodu źródłowego znajdującego się w innym miejscu w repozytorium).
  • Nie da się sprawdzić i potwierdzić, że treść wygenerowana przez Atlassian Intelligence jest dokładnym odzwierciedleniem pull requestu.
  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • korekta, weryfikacja i edycja danych wyjściowych wygenerowanych przez asystenta pisania SI w celu uzyskania dokładności i przejrzystości;
  • współpraca z innymi osobami w celu zebrania opinii i poprawy jakości danych wyjściowych.
Dane użytkownika a generowanie opisów pull request typu pull za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence w Confluence wykorzystuje Twoje dane podczas definiowania terminów. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Polecenia (dane wejściowe) użytkownika a odpowiedzi (wyniki)
  • Kontekst z instancji istotny dla formułowanego polecenia, na przykład:
    • Zmiany w kodzie i komunikaty do commitów w pull requeście
    • Treść opisu pull requestu
    • Treść komentarza do pull requestu
  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz
  • Opinia, którą chcesz przekazać na temat tej funkcji

W kwestii danych użytkownika, generowanie opisów pull requestów za pomocą Atlassian Intelligence wiąże się z zastosowaniem następujących środków:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page.

Generowanie zapytań SQL w Atlassian Analytics

Jak Atlassian Intelligence generuje zapytania SQL w Atlassian Analytics Copy link to heading Copied! Pokaż
  

Generating SQL queries using Atlassian Intelligence in Atlassian Analytics is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy i rozumienia języka naturalnego, a następnie generuje na ich podstawie język SQL w Atlassian Analytics.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia generowania zapytań SQL za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Możesz zadań Atlassian Intelligence pytanie w języku naturalnym i przetłumaczyć je na SQL, zamiast pisać własne zapytania SQL od zera. Po zadaniu pytania Atlassian Intelligence wykorzystuje schemat Atlassian Data Lake wybranego źródła danych do wygenerowania zapytania SQL, które może być używane do tworzenia wykresów na pulpitach Atlassian Analytics, a także może pomóc w poznaniu schematu w Data Lake.

Naszym zdaniem generowanie zapytań SQL za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:

  • chcesz stworzyć niestandardowy wykres, zaczynając od wygenerowanego zapytania SQL i udoskonalając je w razie potrzeby;
  • pytanie w języku naturalnym zawiera słowa i pojęcia, do których odwołuje się schemat Atlassian Data Lake, tak szczegółowo, jak to tylko możliwe;
  • chcesz poznać schemat Atlassian Data Lake i dowiedzieć się więcej na jego temat.

Nie wiesz, jakie pytania zadawać?

Oto kilka sugestii:

  • Jakie jest 5 najpopularniejszych etykiet według liczby otwartych zgłoszeń Jira?
  • Ile zgłoszeń Jira zostało ukończonych w projekcie x w ciągu ostatniego miesiąca?
  • Jaki jest średni czas 5 najpopularniejszych statusów?
  • Jakie jest 5 najpopularniejszych stron Confluence w ostatnim miesiącu?
  • Ile wniosków zostało zgłoszonych w ciągu ostatnich 5 dni w naszym projekcie x w Jira Service Management?
Uwagi dotyczące generowania zapytań SQL za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do generowania zapytań SQL za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że generowanie zapytań SQL za pomocą jest mniej przydatne w następujących sytuacjach:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • funkcja ta jest potrzebna, aby uzyskać dostęp do informacji, które nie są łatwo dostępne w schemacie Atlassian Data Lake (przykładowo danych dla Advanced Roadmaps) w celu uzyskania prawidłowej odpowiedzi na pytanie;
  • pytanie zawiera odniesienia do pól niestandardowych;
  • pytanie jest zadawane w języku innym niż angielski;
  • Twoja znajomość języka SQL nie wystarcza, aby sprawdzić poprawność zapytania SQL zwróconego przez Atlassian Intelligence.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • Upewnij się, że źródło danych Atlassian Data Lake, którego używasz, zawiera dane potrzebne do udzielenia odpowiedzi na Twoje pytanie.
Twoje dane a generowanie zapytań SQL za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas generowania zapytań SQL. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi zawiera publicznie dostępne schematy Atlassian Data Lake odpowiednie do instancji.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas generowania zapytań SQL za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja działa zgodnie z uprawnieniami w połączeniu Atlassian Data Lake. Przykładowo jeśli nie masz dostępu do połączenia Atlassian Data Lake, nie będzie można stworzyć zapytania SQL.

Wyszukiwanie odpowiedzi w Confluence

Jak Atlassian Intelligence wyszukuje odpowiedzi w Confluence Copy link to heading Copied! Pokaż
  

Search answers in Confluence using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia do wyszukiwania odpowiedzi w Confluence Copy link to heading Copied! Pokaż
  

Bazy wiedzy rosną zbyt szybko, aby użytkownicy mogli za nimi nadążyć. Wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence skraca drogę do kluczowych informacji potrzebnych klientom do kontynuowania pracy. Funkcja ta ułatwia znajdowanie potrzebnych informacji. Rozpoznaje ona rodzaje pytań, które możesz zadać koledze z zespołu, i natychmiast na nie odpowiada. Dowiedz się więcej o tym, jak korzystać z Atlassian Intelligence w celu wyszukiwania odpowiedzi w Confluence.

Naszym zdaniem wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence działa najlepiej, gdy witryna Confluence jest pełna szczegółowych, kompletnych i aktualnych treści.

Ta funkcja nie generuje nowych treści, ale przeszukuje strony i blogi Confluence (z poszanowaniem ograniczeń), aby znaleźć odpowiedź na Twoje pytanie. Atlassian Intelligence generuje odpowiedzi wyłącznie na podstawie tego, co znajduje się w Confluence i do czego masz dostęp.

Nie wiesz, jakie pytania zadawać?

Oto kilka sugestii:

  • Kiedy zespół marketingowy będzie znów poza siedzibą firmy?
  • Jaka jest polityka pracy z domu?
  • Czym jest Project Sunrise?
  • Kiedy odbędzie się nasza kolejna kampania marketingowa?
  • Gdzie są informacje o wydaniu najnowszego produktu SpaceLaunch?
  • Jak przedłożyć wydatki w celu uzyskania zwrotu kosztów?
Co warto wziąć pod uwagę w przypadku wyszukiwania odpowiedzi w Confluence za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do wyszukiwania odpowiedzi w Confluence za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • Potrzebne są aktualne i dokładne informacje, które często się zmieniają (np. aktualizowany co miesiąc plan działań).
  • Potrzebne są aktualne i dokładne informacje o konkretnych osobach i rolach, jakie odgrywają w Twojej organizacji.
  • Potrzebny jest dostęp do informacji, które nie są łatwo dostępne (np. strony z ograniczeniami w Twojej instancji Confluence) w celu uzyskania właściwej odpowiedzi.
  • Odpowiedź składa się z szeregu różnych wartości lub kategorii (np. metryki aktualizowane co tydzień).
  • Potrzebne są odpowiedzi, które wymagają rozpoznania niuansów, złożoności lub ludzkiego sposobu rozumowania.

Może się także zdarzyć, że wyszukiwanie odpowiedzi w Confluence przy użyciu Atlassian Intelligence nie będzie działało poprawnie w przestrzeniach Confluence, w których dokumenty napisane są w kilku językach.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
  • Zadawanie pytań na temat kwestii, o których wiesz, że są udokumentowane w instancji Confluence i do których masz dostęp.
Twoje dane i wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas wyszukiwania odpowiedzi w Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, jak na przykład treść z trzech pierwszych stron zwróconych podczas wyszukiwania w Confluence.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas wyszukiwania odpowiedzi w Confluence za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do określonej strony Confluence, funkcja nie będzie wykorzystywać w wyświetlanej odpowiedzi treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji.

Wyszukiwanie zgłoszeń w Jira

Jak Atlassian Intelligence wyszukuje zgłoszenia w Jira Copy link to heading Copied! Pokaż
  

Search issues using Atlassian Intelligence in Jira is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy i zrozumienia języka naturalnego, a następnie przekłada go na język JQL (Jira Query Language) w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia do wyszukiwania zgłoszeń w Jirze Copy link to heading Copied! Pokaż
  

Atlassian Intelligence pozwala teraz na interakcję w potocznym języku — bez konieczności formułowania złożonych zapytań. Atlassian Intelligence przekłada Twoją podpowiedź na zapytanie w JQL, które szybko pomaga w wyszukaniu konkretnych zgłoszeń.

Naszym zdaniem wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:

  • wpisujesz zapytania dotyczące zgłoszeń Jira, korzystając z pól zgłoszeń dostępnych w projekcie Jira;
  • zapytanie zawiera określone pola i wartości, które mogą pomóc zawęzić wyszukiwanie zgłoszeń;
  • pola i wartości, których szukasz, istnieją w Twoim projekcie Jira;
  • Twoje zapytanie jest w języku angielskim;
  • zapytanie można przetłumaczyć na język JQL. Ponieważ Atlassian Intelligence konwertuje podpowiedzi na kod JQL, dane wejściowe zawierające słowa kluczowe, które można przetłumaczyć na JQL, mogą zapewnić lepsze wyniki.
Co warto wziąć pod uwagę w przypadku wyszukiwania zgłoszeń za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do wyszukiwania zgłoszeń za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Otrzymane odpowiedzi mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca.

Z naszych doświadczeń wynika, że wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • wyszukujesz obiekty Jira, które nie są zgłoszeniami, takie jak projekty, tablice lub użytkownicy;
  • wyszukujesz w języku innym niż angielski;
  • wyszukiwanie musi analizować zgłoszenia w celu tworzenia wykresów, podsumowań lub innych reprezentacji danych;
  • wyszukiwanie wymaga funkcji, które nie są obecnie dostępne w JQL (np. pytania „Znajdź zgłoszenia skomentowane przeze mnie” nie można przetłumaczyć na funkcję JQL).

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej. Podaj dokładnie te pola i wartości, których szukasz.

Twoje dane i wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas wyszukiwania zgłoszeń. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do podpowiedzi, np. bieżący projekt, w którym się znajdujesz.
  • Dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to podczas wyszukiwania zgłoszeń za pomocą Atlassian Intelligence stosowane są następujące środki:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Odpowiedzi na wyszukiwanie będą oparte na zgłoszeniach i polach, do których masz dostęp (np. jeśli nie masz dostępu do konkretnego projektu Jira, nie otrzymasz wyników wyszukiwania zgłoszeń i pól z tego projektu).

Błyskawiczne gromadzenie analiz na podstawie swoich danych

Wybierz funkcję Atlassian Intelligence, aby uzyskać przejrzyste informacje na temat przypadków użycia i wykorzystania danych.

Analiza wykresów

Jak analiza wykresów wykorzystuje Atlassian Intelligence Copy link to heading Copied! Pokaż
  

Chart insights is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia analizy wykresów Copy link to heading Copied! Pokaż
  

Analizy wykresów wykorzystują funkcję Atlassian Intelligence, aby pomóc użytkownikom w zrozumieniu danych na dowolnym wykresie w Atlassian Analytics. Na podstawie tytułu pulpitu, tytułu wykresu i danych wykresu (w tym nagłówków kolumn i wartości wierszy) funkcja generuje podsumowanie tego wykresu i jego danych w języku naturalnym. Podejmie też próbę rozpoznania wszelkich trendów lub anomalii, aby zapewnić Ci określone informacje na temat wykresu.

Naszym zdaniem analizy wykresów najlepiej sprawdzają się w scenariuszach, w których:

  • Wykresy mają wiele wierszy danych.
  • Wykresy mają tytuł pulpitu.
  • Wykresy mają nagłówki kolumn.
  • Wykresy mają wartości we wszystkich wierszach i kolumnach.

Wykresy słupkowe, wykresy liniowe i wykresy słupkowo-liniowe sprawdzają się najlepiej w przypadku tej funkcji funkcją, ponieważ zazwyczaj zawierają trendy, daty i wiele wierszy danych.

Co należy wziąć pod uwagę podczas korzystania z analiz wykresów Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych w analizach wykresów, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Z naszych doświadczeń wynika, że analizy wykresów są mniej użyteczne w scenariuszach, w których:

  • Wykresy mają jeden lub tylko kilka wierszy danych.
  • Wykresy prezentują jeden typ wartości.
  • Na wykresach brakuje tytułów, etykiet osi i nagłówków kolumn.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Kontrola dokładności analiz z innymi użytkownikami, którzy mogą mieć większy kontekst dotyczący konkretnych danych wyświetlanych na wykresie.
  • Uwzględnienie, że podczas udzielania odpowiedzi Atlassian Intelligence wykorzystuje tylko kontekst pojedynczego wykresu, a nie całego pulpitu.
Twoje dane i analizy wykresów Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki analizy wykresów wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • Kontekst instancji odpowiedni do polecenia, np. dane z wykresu.
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Podczas analizy wykresów wobec Twoich danych stosowane są wymienione poniżej środki.

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja wykorzystuje tylko informacje z pulpitu, do którego masz dostęp i w przypadku którego zażądano analizy.

Sugeruj typy wniosku w Jira Service Management

Jak Atlassian Intelligence sugeruje typy wniosków w Jira Service Management Copy link to heading Copied! Pokaż
  

Suggest request types using Atlassian Intelligence is developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include Open AI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence wykorzystuje te modele do analizy danych wprowadzanych w języku naturalnym i generowania rekomendacji dotyczących nazw i opisów typów wniosków w ramach usługi Jira Service Management.

Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony.

Read more about the capabilities of OpenAI’s models, Google’s models and Anthropic’s models. For more information on open-source language models, see information on the Llama series and the Phi series.

Przypadki użycia dotyczące sugerowania typów wniosków w Jira Service Management Copy link to heading Copied! Pokaż
  

Nie trać czasu na zastanawianie się, jakie typy wniosków musisz utworzyć dla swojego projektu, a zamiast tego korzystaj z sugestii Atlassian Intelligence. Wystarczy, że opiszesz swoją pracę i to, czym zazwyczaj zarządza Twój zespół, aby zobaczyć, jakie typy wniosków możesz utworzyć. Wybierz jedną z sugestii wygenerowanych przez Atlassian Intelligence, aby utworzyć typ wniosku. Dowiedz się więcej o tym, jak używać Atlassian Intelligence w celu sugerowania typów wniosków.

Naszym zdaniem korzystanie z Atlassian Intelligence w celu sugerowania typów wniosków najlepiej sprawdza się w sytuacjach, w których:

  • występują bardzo specyficzne przypadki użycia, których istniejące szablony typów wniosków nie obsługują;
  • masz bardzo ogólne wymagania i szukasz pomysłów;
  • używasz popularnego języka (na przykład angielskiego lub hiszpańskiego).
Co należy wziąć pod uwagę podczas korzystania z Atlassian Intelligence w celu sugerowania typów wniosków Copy link to heading Copied! Pokaż
  

Trzeba pamiętać, że ze względu na sposób działania modeli używanych do sugerowania typów wniosków za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki.

Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące.

Ustaliliśmy, że użycie Atlassian Intelligence do sugerowania typów wniosków jest mniej przydatne w sytuacjach, w których:

  • potrzebujesz aktualnych i dokładnych informacji o ludziach, miejscach i faktach;
  • w celu udzielenia właściwej odpowiedzi na Twój wniosek ta funkcja potrzebuje dostępu do informacji, które nie są łatwo dostępne (np. znajdują się w Twojej instancji);
  • dostarczasz podpowiedzi, które są zbyt niejasne lub nieistotne w kontekście zarządzania usługami;
  • nie używasz popularnego języka.

Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym.

Inne kwestie warte przemyślenia:

  • Jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence.
Twoje dane i korzystanie z Atlassian Intelligence w celu sugerowania typów wniosków Copy link to heading Copied! Pokaż
  

Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane w celu sugerowania typów wniosków. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań.

Przetwarzamy:

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe);
  • kontekst instancji odpowiedni do podpowiedzi;
  • dane dotyczące interakcji z naszymi funkcjami, takie jak dane przepływu użytkowników i osób, z którymi współpracujesz;
  • Opinia, którą chcesz przekazać na temat tej funkcji, w tym wszelkie podpowiedzi lub odpowiedzi udostępniane przez Ciebie w ramach dostarczanej opinii.

Jeśli chodzi o Twoje dane, to w kontekście używania Atlassian Intelligence w celu sugerowania typów wniosków stosuje się następujące środki.

  • Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
    • Nie są dostępne dla innych klientów.
    • Are not sent to any third party LLM provider other than OpenAI, Google, or Anthropic on AWS Bedrock.

    • Are not stored by any LLM provider.
    • Are not used to improve LLM models.
    • są wykorzystywane tylko do obsługi Twojego środowiska.
  • All third-party LLM providers are subprocessors and listed as so on our Subprocessors page. They do not use your inputs and outputs for any purpose besides processing your request.
  • Ta funkcja wykorzystuje tylko informacje z podpowiedzi, więc wszystkie uprawnienia Jira są respektowane.

Odniesienia

Na naszej stronie ze statusami produktów Atlassian możesz sprawdzać informacje o statusie produktów aktualizowane w czasie rzeczywistym.

Dowiedz się więcej o Atlassian Intelligence

Dowiedz się, w jaki sposób Atlassian zarządza danymi klientów.

Dowiedz się więcej o Atlassian Rovo