Atlassian Intelligence — funkcja opracowana z myślą o transparentności
Nasze bezkompromisowe zaangażowanie w otwartą komunikację, odpowiedzialność i pomaganie zespołom w odpowiedzialnym korzystaniu z AI.
Atlassian Intelligence opracowano, aby zapewnić dynamiczną współpracę w zespołach i przyspieszyć realizację zadań. Zrozumienie sposobu działania Atlassian Intelligence, tak samo jak poznanie najlepszych metod współpracy w zespole, pomoże zespołom efektywniej korzystać z dostępnych możliwości. Na tej stronie wyjaśnimy, jak działają nasze produkty i funkcje oparte na SI, jakie są ich możliwości i ograniczenia, oraz jak wpływają na użytkowanie naszych produktów. Wierzymy, że dzięki informacjom dostępnym na tej stronie w pełni wykorzystasz nasze produkty i usprawnisz pracę zespołową. Aby dowiedzieć się więcej o naszym zaangażowaniu w odpowiedzialne budowanie technologii, odwiedź stronę poświęconą Zasadom dotyczącym odpowiedzialnej technologii.
Grupowanie alertów
Grupowanie alertów przez Atlassian Intelligence jest obsługiwane przez duże modele językowe opracowane przez OpenAI i inne modele uczenia maszynowego. Są wśród nich modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele uczenia maszynowego do analizowania i generowania grup alertów oraz przedstawiania powiązanych sugestii (wcześniejsze grupy alertów i wcześniejsze osoby reagujące na alerty) w naszych produktach w oparciu o podobieństwo zawartości alertów lub użytych tagów. Następnie Atlassian Intelligence wykorzystuje duże modele językowe do analizowania i generowania opisów i treści w języku naturalnym dla tych grup w naszych produktach. Te duże modele językowe generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Grupowanie alertów wykorzystuje Atlassian Intelligence do rozpoznawania i grupowania podobnych alertów. Pomaga również rozpoznawać i rekomendować wcześniejsze podobne grupy alertów i wcześniejsze osoby reagujące na alerty (lub zespoły osób reagujących) w oparciu o semantyczne podobieństwo użytych treści alertów lub tagów. Jeśli chcesz eskalować grupę alertów do incydentu, grupowanie alertów spowoduje również wstępne wypełnienie wszystkich informacji kontekstowych, które możesz przeglądać w ramach procesu tworzenia incydentu. Naszym zdaniem grupowanie alertów najlepiej sprawdza się w scenariuszach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych w grupowaniu alertów, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z kolei grupy alertów, które wyświetlasz, mogą nie odzwierciedlać dokładnie semantycznego podobieństwa ich tagów. Z naszych doświadczeń wynika, że grupowanie alertów jest mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Warto też zadbać, aby zespół stosował spójne praktyki dotyczące używania tagów alertów. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki grupowanie alertów wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Przetwarzamy dane alertów, aby przeszkolić wersję modelu uczenia maszynowego w celu rozpoznawania wzorców specyficznych dla Twoich alertów. Ta wersja służy tylko do obsługi Twojego środowiska:
Podczas grupowania alertów wobec Twoich danych stosowane są wymienione poniżej środki:
|
Odpowiedzi Atlassian Intelligence w Jira Service Management
Odpowiedzi Atlassian Intelligence opierają się na dużych modelach językowych opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Funkcja odpowiedzi Atlassian Intelligence łączy się z wirtualnym agentem obsługi w Jira Service Management. Wykorzystuje generatywną sztuczną inteligencję, aby przeszukiwać powiązane przestrzenie bazy wiedzy i odpowiadać na pytania klientów. Naszym zdaniem odpowiedzi Atlassian Intelligence najlepiej sprawdzają się w sytuacjach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych w odpowiedziach Atlassian Intelligence, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że odpowiedzi Atlassian Intelligence są mniej przydatne w sytuacjach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki odpowiedzi Atlassian Intelligence w Jira Service Management wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
|
Automatyzacja przy użyciu Atlassian Intelligence
Automatyzacja wykorzystująca Atlassian Intelligence jest oparta na modelach GPT opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy danych wprowadzanych w języku naturalnym i generowania dla użytkownika reguły automatyzacji w Jirze i Confluence. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Tworzenie reguł to podstawa codziennej pracy związanej z automatyzacją. Chcemy je dodatkowo ułatwić, dodając Atlassian Intelligence do kreatora reguł automatyzacji w Jirze i Confluence. Teraz możesz łatwo tworzyć reguły automatyzacji, wpisując i opisując, co chcesz zautomatyzować — Atlassian Intelligence zajmie się wszystkim, co najtrudniejsze w tworzeniu reguł. Dowiedz się więcej na temat korzystania z narzędzia Atlassian Intelligence w Jirze i Confluence. Naszym zdaniem wykorzystywanie automatyzacji przy użyciu Atlassian Intelligence w przypadku Jiry i Confluence sprawdza się najlepiej w sytuacjach, gdy nie wiesz, jak zacząć, lub chcesz przyspieszyć proces tworzenia reguł. Nie wiesz, jak najlepiej stworzyć regułę automatyzacji?Reguły automatyzacji są tworzone przez kombinację różnych typów komponentów: wyzwalaczy, czynności, warunków i gałęzi. Wyobraź sobie, że komponenty to podstawowe części składowe reguły. Aby utworzenie reguły za pomocą Atlassian Intelligence się powiodło, musi ona zawierać przynajmniej wyzwalacz i czynność. Przykład: W Jirze: Co poniedziałek wyszukuj wszystkie zadania z terminem przypadającym w ciągu kolejnych 7 dni i wysyłaj przypisanej osobie wiadomość e-mail z przypomnieniem. Kiedy zgłoszenie przejdzie do testowania, przypisz je Janowi Kowalskiemu. W Confluence:
Ponadto aby tworzenie reguły powiodło się, wszystkie jej komponenty muszą być obsługiwane przez automatyzację przy użyciu Atlassian Intelligence. Oznacza to, że wszelkie wyzwalacze, czynności, warunki lub gałęzie w regule muszą być zgodne z automatyzacją w Jirze i/lub Confluence. |
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do automatyzacji przy użyciu Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że automatyzacja przy użyciu Atlassian Intelligence jest mniej przydatna w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Automatyzacja przy użyciu Atlassian Intelligence działa tylko z istniejącym zestawem dostępnych komponentów automatyzacji w Jirze i Confluence. Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej, jak opisano powyżej. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki automatyzacja za pomocą Atlassian Intelligence wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Jeśli chodzi o Twoje dane w kontekście użycia Atlassian Intelligence do automatyzacji Confluence:
OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania. Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do określonego projektu lub strony, otrzymana odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji. |
Analiza wykresów
Analiza wykresów opiera się na dużych modelach językowych opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Analizy wykresów wykorzystują funkcję Atlassian Intelligence, aby pomóc użytkownikom w zrozumieniu danych na dowolnym wykresie w Atlassian Analytics. Na podstawie tytułu pulpitu, tytułu wykresu i danych wykresu (w tym nagłówków kolumn i wartości wierszy) funkcja generuje podsumowanie tego wykresu i jego danych w języku naturalnym. Podejmie też próbę rozpoznania wszelkich trendów lub anomalii, aby zapewnić Ci określone informacje na temat wykresu. Naszym zdaniem chart insights najlepiej sprawdza się w scenariuszach, w których:
Wykresy słupkowe, wykresy liniowe i wykresy słupkowo-liniowe sprawdzają się najlepiej w przypadku tej funkcji funkcją, ponieważ zazwyczaj zawierają trendy, daty i wiele wierszy danych. |
Trzeba pamiętać, że ze względu na sposób działania modeli używanych w chart insights, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że chart insights jest mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki chart insights wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na tej stronie Przetwarzamy:
Chart insights stosuje następujące środki w stosunku do Twoich danych:
|
Krótkie podsumowanie Confluence
Podsumowywanie stron i blogów za pomocą Atlassian Intelligence opiera się na modelach LLM opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Oszczędzaj czas i uzyskuj szczegóły potrzebne do szybszego wykonywania pracy, generując krótkie podsumowania stron lub blogów Confluence za pomocą Atlassian Intelligence. Dowiedz się więcej na temat korzystania z narzędzia Atlassian Intelligence w Confluence. Naszym zdaniem podsumowywanie stron i blogów za pomocą Atlassian Intelligence najlepiej sprawdza się wówczas, gdy:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do podsumowywania stron i blogów za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Chociaż nadal pracujemy nad lepszą obsługą makr i tabel oraz rozszerzamy podsumowania, odkryliśmy, że podsumowywanie stron i blogów za pomocą Atlassian Intelligence jest mniej przydatne w scenariuszach, w których:
Zachęcamy Cię do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane do automatyzacji Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Jeśli chodzi o Twoje dane, podczas podsumowywania stron i blogów za pomocą Atlassian Intelligence:
|
Definiowanie terminów za pomocą Atlassian Intelligence
Definiowanie terminów za pomocą Atlassian Intelligence w Confluence i Jira jest wspierane przez duże modele językowe opracowane przez OpenAI. Są wśród nich modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy i generowania odpowiedzi w języku naturalnym w Confluence. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. |
Jedną z najtrudniejszych rzeczy związanych z korzystaniem z treści w Confluence i Jira może być zdobycie kontekstu potrzebnego do zrozumienia tego, co czytasz. Skróty, akronimy, nieznane terminy oraz nazwy specyficzne dla zespołu lub projektu mogą wymagać czasochłonnego wyszukiwania potrzebnych informacji. Funkcja definiowania terminów za pomocą Atlassian Intelligence pozwala uzyskać definicję terminów specyficznych dla danej firmy (np. akronimów, nazw projektów, systemów lub zespołów) na stronie w Confluence lub w opisie zgłoszenia w Jira. Dzięki temu użytkownik otrzymuje potrzebne mu informacje, kiedy ich potrzebuje — a wszystko to pomaga zespołom sprawniej współpracować. Atlassian Intelligence pozwala Ci zaoszczędzić czas, ponieważ definiuj te rzeczy za Ciebie, dzięki czemu nie musisz przerywać lektury. Jeśli napotkasz definicję, którą uważasz za niedokładną, możesz edytować lub dodać nową definicję, a następnie ustawić widoczność dla tej strony lub tego zgłoszenia, całej przestrzeni lub projektu bądź uzyskać dostęp do całej organizacji. Naszym zdaniem definiowanie terminów za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do definiowania odpowiedzi za pomocą Atlassian Intelligence, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Ustaliliśmy, że użycie Atlassian Intelligence do definiowania terminów w Confluence jest mniej przydatne w sytuacjach, w których:
Ponadto w Jira zauważyliśmy, że ponieważ definiowanie terminów za pomocą Atlassian Intelligence opiera się na wyszukiwaniu w Confluence, funkcja ta będzie działać w Jira tylko wtedy, gdy masz uprawnienia do wyświetlania instancji Confluence w tej samej witrynie co instancja Jira. Może się również zdarzyć, że definiowanie terminów za pomocą Atlassian Intelligence nie będzie działać zgodnie z oczekiwaniami w przestrzeniach Confluence lub instancjach Jira, które zawierają treści napisane w wielu językach. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas definiowania terminów. Ta sekcja zawiera wiadomości, które stanowią uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Jeśli chodzi o Twoje dane, to podczas definiowania terminów za pomocą Atlassian Intelligence stosowane są następujące środki:
|
Generowanie opisów pull requestów za pomocą Atlassian Intelligence
Generowanie opisów pull requestów za pomocą Atlassian Intelligence jest oparte na dużych modelach językowych (LLM) opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego oraz kodu w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Przeczytaj więcej o funkcjonalnościach modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Atlassian Intelligence może pomóc w generowaniu, przekształcaniu i streszczaniu treści podczas pisania opisów lub komentarzy do pull requestów w środowisku przeglądu kodu w Bitbucket Cloud. Korzyści z tych elementów to między innymi:
Naszym zdaniem generowanie opisów pull requestów w Bitbucket Cloud za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi tej funkcji, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Odkryliśmy, że generowanie opisów pull requestów w Bitbucket Cloud za pomocą Atlassian Intelligence sprawdza się gorzej w sytuacjach, gdy:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence w Confluence wykorzystuje Twoje dane podczas definiowania terminów. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
W kwestii danych użytkownika, generowanie opisów pull requestów za pomocą Atlassian Intelligence wiąże się z zastosowaniem następujących środków:
|
Generowanie zapytań SQL w Atlassian Analytics
Generowanie zapytań SQL za pomocą Atlassian Intelligence w Atlassian Analytics jest wspierane przez duże modele językowe opracowane przez OpenAI. Są to modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy i rozumienia języka naturalnego, a następnie generuje na ich podstawie język SQL w Atlassian Analytics. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Możesz zadań Atlassian Intelligence pytanie w języku naturalnym i przetłumaczyć je na SQL, zamiast pisać własne zapytania SQL od zera. Po zadaniu pytania Atlassian Intelligence wykorzystuje schemat Atlassian Data Lake wybranego źródła danych do wygenerowania zapytania SQL, które może być używane do tworzenia wykresów na pulpitach Atlassian Analytics, a także może pomóc w poznaniu schematu w Data Lake. Naszym zdaniem generowanie zapytań SQL za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:
Nie wiesz, jakie pytania zadawać?Oto kilka sugestii:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do generowania zapytań SQL za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że generowanie zapytań SQL za pomocą jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas generowania zapytań SQL. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas generowania zapytań SQL za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:
|
Generatywna SI w edytorze
Atlassian Intelligence w edytorach opierają się na dużych modelach językowych opracowanych przez OpenAI. Są to modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Atlassian Intelligence pomaga prowadzić skuteczną komunikację we wszystkich zespołach w organizacji w celu poprawy wydajności oraz usprawnienia podejmowania decyzji i procesów. Naszym zdaniem wykorzystanie Atlassian Intelligence w edytorach najlepiej sprawdza się w następujących scenariuszach:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych przez Atlassian Intelligence w edytorach, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że wykorzystanie Atlassian Intelligence w edytorach jest mniej przydatne w sytuacjach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane w edytorach. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Jeśli chodzi o Twoje dane, to w kontekście używania Atlassian Intelligence w edytorach stosuje się następujące środki:
|
Wyszukiwanie odpowiedzi w Confluence
Wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence opiera się na modelach LLM opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Bazy wiedzy rosną zbyt szybko, aby użytkownicy mogli za nimi nadążyć. Wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence skraca drogę do kluczowych informacji potrzebnych klientom do kontynuowania pracy. Funkcja ta ułatwia znajdowanie potrzebnych informacji. Rozpoznaje ona rodzaje pytań, które możesz zadać koledze z zespołu, i natychmiast na nie odpowiada. Dowiedz się więcej o tym, jak korzystać z Atlassian Intelligence w celu wyszukiwania odpowiedzi w Confluence. Naszym zdaniem wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence działa najlepiej, gdy witryna Confluence jest pełna szczegółowych, kompletnych i aktualnych treści. Ta funkcja nie generuje nowych treści, ale przeszukuje strony i blogi Confluence (z poszanowaniem ograniczeń), aby znaleźć odpowiedź na Twoje pytanie. Atlassian Intelligence generuje odpowiedzi wyłącznie na podstawie tego, co znajduje się w Confluence i do czego masz dostęp. Nie wiesz, jakie pytania zadawać?Oto kilka sugestii:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas wyszukiwania odpowiedzi w Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas wyszukiwania odpowiedzi w Confluence za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:
|
Wyszukiwanie zgłoszeń w Jira
Wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence w Jira jest obsługiwane przez duże modele językowe opracowane przez OpenAI. Modele te obejmują opisane tutaj modele OpenAI, dopracowane przez Atlassian przy użyciu wygenerowanych danych syntetycznych. Atlassian Intelligence wykorzystuje te modele do analizy i zrozumienia języka naturalnego, a następnie przekłada go na język JQL (Jira Query Language) w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj więcej o możliwościach modeli OpenAI i dopracowywaniu przez OpenAI. Możesz również przeczytać więcej na temat tego podejścia w artykułach na temat badań OpenAI. |
Atlassian Intelligence pozwala teraz na interakcję w potocznym języku — bez konieczności formułowania złożonych zapytań. Atlassian Intelligence przekłada Twoją podpowiedź na zapytanie w JQL, które szybko pomaga w wyszukaniu konkretnych zgłoszeń. Naszym zdaniem wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do wyszukiwania zgłoszeń za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Otrzymane odpowiedzi mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej. Podaj dokładnie te pola i wartości, których szukasz. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas wyszukiwania zgłoszeń. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Jeśli chodzi o Twoje dane, to podczas wyszukiwania zgłoszeń za pomocą Atlassian Intelligence stosowane są następujące środki:
|
Sugeruj typy wniosku w Jira Service Management
Sugerowanie typów wniosków za pomocą Atlassian Intelligence jest obsługiwane przez duże modele językowe opracowane przez OpenAI. Są wśród nich modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy danych wprowadzanych w języku naturalnym i generowania rekomendacji dotyczących nazw i opisów typów wniosków w ramach usługi Jira Service Management. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Nie trać czasu na zastanawianie się, jakie typy wniosków musisz utworzyć dla swojego projektu, a zamiast tego korzystaj z sugestii Atlassian Intelligence. Wystarczy, że opiszesz swoją pracę i to, czym zazwyczaj zarządza Twój zespół, aby zobaczyć, jakie typy wniosków możesz utworzyć. Wybierz jedną z sugestii wygenerowanych przez Atlassian Intelligence, aby utworzyć typ wniosku. Dowiedz się więcej o tym, jak używać Atlassian Intelligence w celu sugerowania typów wniosków. Naszym zdaniem korzystanie z Atlassian Intelligence w celu sugerowania typów wniosków najlepiej sprawdza się w sytuacjach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do sugerowania typów wniosków za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Ustaliliśmy, że użycie Atlassian Intelligence do sugerowania typów wniosków jest mniej przydatne w sytuacjach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane w celu sugerowania typów wniosków. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Jeśli chodzi o Twoje dane, to w kontekście używania Atlassian Intelligence w celu sugerowania typów wniosków stosuje się następujące środki.
|
Podsumowanie szczegółów zgłoszenia w Jira Service Management
Podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence jest wspierane przez duże modele językowe opracowane przez OpenAI. Są to modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Zamiast czytać długie opisy i liczne komentarze na temat zgłoszenia Jira Service Management możesz użyć Atlassian Intelligence w celu szybkiego wygenerowania podsumowania tych informacji. Dzięki temu agenci mogą szybko zapoznać się z kontekstem zgłoszenia i wszelkimi postępami, a tym samym szybko podejmować działania i udzielać pomocy. Naszym zdaniem podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence najlepiej sprawdza się w następujących przypadkach:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że podsumowanie szczegółów zgłoszenia przy użyciu Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:
|
Pisanie niestandardowych wzorów za pomocą Atlassian Intelligence
Zapisywanie niestandardowych wzorów za pomocą Atlassian Intelligence jest obsługiwane przez duże modele językowe opracowane przez OpenAI. Są wśród nich modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy języka naturalnego, a następnie tłumaczy go na SQLite w Atlassian Analytics. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Zamiast pisać własne wyrażenia SQLite od podstaw, zapytaj Atlassian Intelligence lub opisz, w jaki sposób chcesz przekształcić dane w tabeli wyników, a narzędzie przełoży to na wyrażenie SQLite używane do niestandardowych wzorów. Gdy zadajesz pytanie, Atlassian Intelligence wykorzystuje dane z tabeli wyników w poprzednim kroku Visual SQL do wygenerowania wyrażenia SQLite, które stosuje obliczenia lub operacje do tych danych na wykresie. Może to również pomóc w poznaniu funkcji SQLite i ich składni. Zapisywanie niestandardowych wzorów przy użyciu Atlassian Intelligence najlepiej sprawdza się w scenariuszach, w których:
|
Podczas korzystania z niestandardowych formuł pamiętaj, że modele używane w Atlassian Intelligence mogą czasami być niedokładnie, niekompletnie lub niewiarygodnie. Otrzymane odpowiedzi mogą na przykład nie odzwierciedlać dokładnie treści, na których zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że zapisywanie niestandardowych formuł za pomocą Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Rozumiemy, że możesz mieć pytania dotyczące sposobu wykorzystania danych podczas zapisywania niestandardowych formuł przy użyciu Atlassian Intelligence. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Jeśli chodzi o Twoje dane, to podczas zapisywania niestandardowych formuł za pomocą Atlassian Intelligence stosowane są następujące środki: Twoje podpowiedzi (dane wejściowe) i odpowiedzi (dane wyjściowe):
OpenAI jest podwykonawcą przetwarzania znajdującym się na naszej liście podwykonawców przetwarzania. Nie wykorzystuje Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem wniosku. |
Dowiedz się więcej o Atlassian Intelligence
Dowiedz się więcej o korzystaniu z Atlassian Intelligence
Dowiedz się, jak korzystać z Atlassian Intelligence do wyszukiwania odpowiedzi w Confluence
Atlassian Intelligence i Rovo opracowano z myślą o transparentności
Nasze bezkompromisowe zaangażowanie w otwartą komunikację, odpowiedzialność i pomaganie zespołom w odpowiedzialnym korzystaniu z AI.
Rovo
Wybierz funkcję Rovo poniżej, aby uzyskać przejrzyste informacje na temat przypadków użycia i wykorzystania danych.
Przyspiesz pracę dzięki SI
Wybierz funkcję Atlassian Intelligence, aby uzyskać przejrzyste informacje na temat przypadków użycia i wykorzystania danych.
- AI ChatOps do zarządzania incydentami
- Zasoby powiązane z AI
- Sugestie SI
- Automation
- Grupowanie alertów
- Krótkie podsumowanie Confluence
- Definiowanie terminów
- Generatywna SI w edytorze
- Narzędzie do zmiany formatowania zgłoszeń
- Podsumowywanie szczegółów zgłoszenia
- Podsumowywanie inteligentnych łączy
- Wirtualny agent obsługi
- Podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence
- Podział pracy dzięki AI
- AI ChatOps do zarządzania incydentami
- Zasoby powiązane z AI
- Sugestie SI
- Automation
- Grupowanie alertów
- Krótkie podsumowanie Confluence
- Definiowanie terminów
- Generatywna SI w edytorze
- Narzędzie do zmiany formatowania zgłoszeń
- Podsumowywanie szczegółów zgłoszenia
- Podsumowywanie inteligentnych łączy
- Wirtualny agent obsługi
- Podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence
- Podział pracy dzięki AI
Automatyzacja przy użyciu Atlassian Intelligence
Funkcje AI ChatOps do zarządzania incydentami są obsługiwane przez duże modele językowe opracowane przez OpenAI, a także kombinację dużych modeli językowych typu open source (w tym serii Llama i Phi) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi.. |
AI ChatOps do zarządzania incydentami pomaga użytkownikom przyspieszyć proces rozwiązywania incydentów. Przedstawia podsumowanie odpowiedniego incydentu i wszystkich dotychczasowych rozmów na jego temat nowym użytkownikom po dodaniu ich do kanału Slack, który jest powiązany ze zgłoszeniem incydentu w Jira Service Management. Ponadto AI ChatOps do zarządzania incydentami może rejestrować rozmowy prowadzone na Slacku w narzędziu Jira Service Management w formie osi czasu do wykorzystania w przyszłości. Naszym zdaniem AI ChatOps do zarządzania incydentami najlepiej sprawdza się w scenariuszach, w których:
|
Należy pamiętać, że ze względu na sposób działania modeli używanych do obsługi AI ChatOps dla zarządzania incydentami mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Otrzymane odpowiedzi mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że model AI ChatOps do zarządzania incydentami jest mniej przydatny w scenariuszach, w których:
Dlatego zachęcamy do rozważenia sytuacji, w których można wykorzystać AI ChatOps do zarządzania incydentami i sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym osobom. Warto też pomyśleć o przejrzeniu uprawnień, aby upewnić się, że użytkownicy mają odpowiedni poziom dostępu do odpowiednich zgłoszeń incydentów i kanałów Slack. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki AI ChatOps do zarządzania incydentami wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
W stosunku do Twoich danych AI ChatOps do zarządzania incydentami stosuje następujące środki:
|
Zasoby powiązane z AI są obsługiwane przez duże modele językowe opracowane przez OpenAI, a także kombinację dużych modeli językowych typu open source (w tym serii Llama i Phi) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach oraz do dostarczania trafnych odpowiedzi od Atlassian i powiązanych produktów innych firm. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi.. |
Atlassian Intelligence umożliwia Twoim użytkownikom przyspieszenie procesu rozwiązywania incydentów, sugerując listę zasobów, do których mogą się odwoływać, w powiązanych przestrzeniach i artykułach bazy wiedzy, zgłoszeniach Jira oraz (jeśli jesteś klientem Rovo) dowolnych produktach innych firm, które zintegrujesz za pośrednictwem Rovo. Przeczytaj więcej o Rovo i narzędziach innych firm. Naszym zdaniem zasoby powiązane z AI najlepiej sprawdzają się w scenariuszach, w których:
|
Pamiętaj, że ze względu na sposób działania modeli używanych do obsługi zasobów powiązanych z AI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że zasoby powiązane z AI są mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy Cię do rozważenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzenia jakości uzyskanych odpowiedzi przed udostępnieniem ich innym osobom. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki zasoby powiązane z AI wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
W stosunku do Twoich danych zasoby powiązane z AI stosują następujące środki:
|
Sugestie SI w Jira Service Management są oparte na dużych modelach językowych opracowanych przez OpenAI i innych modelach uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Przeczytaj więcej o możliwościach modeli OpenAI. |
Dzięki sugestiom SI w Jira Service Management Twój zespół może szybko przyspieszyć pracę, błyskawicznie gromadząc ważne informacje na temat wniosków o usługę i incydentów. Atlassian Intelligence pomaga Twojemu zespołowi:
Sugestie SI w Jira Service Management mogą również zalecać agentom eskalację wniosku lub incydentu, gdy odpowiednia umowa SLA ma zostać naruszona. W przypadku wniosków o usługę funkcja ta może również sugerować agentom eskalację tego wniosku, gdy modele używane do obsługi tych sugestii identyfikują, na podstawie tekstu komentarzy zgłaszającego, poczucie pilności lub gniewu w związku z tym wnioskiem. Wierzymy, że sugestie SI w Jira Service Management najlepiej sprawdzają się w sytuacjach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych w sugestiach SI w Jira Service Management, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że sugestie SI w Jira Service Management są mniej przydatne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki sugestie SI w Jira Service Management wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Funkcja sugestii SI stosuje poniższe środki w stosunku do Twoich danych.
|
Automatyzacja z wykorzystaniem Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy danych wprowadzanych w języku naturalnym i generowania dla użytkownika reguły automatyzacji w Jirze i Confluence. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Tworzenie reguł to podstawa codziennej pracy związanej z automatyzacją. Chcemy je dodatkowo ułatwić, dodając Atlassian Intelligence do kreatora reguł automatyzacji w Jirze i Confluence. Teraz możesz łatwo tworzyć reguły automatyzacji, po prostu opisując, co chcesz zautomatyzować — Atlassian Intelligence zajmie się wszystkim, co najtrudniejsze w tworzeniu reguł. Dowiedz się więcej na temat korzystania z narzędzia Atlassian Intelligence w Jirze i Confluence. Naszym zdaniem wykorzystywanie automatyzacji przy użyciu Atlassian Intelligence w przypadku Jiry i Confluence sprawdza się najlepiej w sytuacjach, gdy nie wiesz, jak zacząć, lub chcesz przyspieszyć proces tworzenia reguł. Nie wiesz, jak najlepiej zabrać się za utworzenie reguły automatyzacji?Reguły automatyzacji są tworzone przez kombinację różnych typów komponentów: wyzwalaczy, czynności, warunków i gałęzi. Wyobraź sobie, że komponenty to podstawowe części składowe reguły. Aby utworzenie reguły za pomocą Atlassian Intelligence się powiodło, musi ona zawierać przynajmniej wyzwalacz i czynność. Przykład: W Jirze: Co poniedziałek wyszukuj wszystkie zadania z terminem przypadającym w ciągu kolejnych 7 dni i wysyłaj przypisanej osobie wiadomość e-mail z przypomnieniem. Kiedy zgłoszenie przejdzie do testowania, przypisz je Janowi Kowalskiemu. W Confluence:
Ponadto aby tworzenie reguły powiodło się, wszystkie jej komponenty muszą być obsługiwane przez automatyzację przy użyciu Atlassian Intelligence. Oznacza to, że wszelkie wyzwalacze, czynności, warunki lub gałęzie w regule muszą być zgodne z automatyzacją w Jirze i/lub Confluence. |
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do automatyzacji przy użyciu Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że automatyzacja przy użyciu Atlassian Intelligence jest mniej przydatna w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Automatyzacja przy użyciu Atlassian Intelligence działa tylko z istniejącym zestawem dostępnych komponentów automatyzacji w Jirze i Confluence. Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej, czyli zgodnie z powyższym opisem. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki automatyzacja za pomocą Atlassian Intelligence wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Jeśli chodzi o Twoje dane w kontekście użycia Atlassian Intelligence do automatyzacji Confluence:
Wszyscy zewnętrzni dostawcy LLM są podrzędnymi podmiotami przetwarzającymi i są wymienieni na naszej stronie Podrzędne podmioty przetwarzające. Nie wykorzystują oni Twoich danych wejściowych ani wyjściowych w żadnym celu niezwiązanym z przetwarzaniem żądania. Ta funkcja działa zgodnie z uprawnieniami w instancji. Przykładowo jeśli nie masz dostępu do określonego projektu lub strony, otrzymana odpowiedź nie będzie zawierać sugerowanej treści z tej strony. Jeśli nie chcesz, aby Twoje treści były dostępne w odpowiedziach dla innych użytkowników w Twojej instancji, uzgodnij odpowiednie ustawienia uprawnień z administratorem organizacji. |
Grupowanie alertów
Grupowanie alertów przez Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Modele te obejmują algorytm przeznaczony do rozpoznawania wzorców w danych alertów oraz serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele uczenia maszynowego do analizowania i generowania grup alertów oraz przedstawiania powiązanych sugestii (wcześniejsze grupy alertów i wcześniejsze osoby reagujące na alerty) w naszych produktach w oparciu o podobieństwo zawartości alertów lub użytych tagów. Następnie Atlassian Intelligence wykorzystuje duże modele językowe do analizowania i generowania opisów i treści w języku naturalnym dla tych grup w naszych produktach. Te duże modele językowe generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Grupowanie alertów wykorzystuje Atlassian Intelligence do rozpoznawania i grupowania podobnych alertów. Pomaga również rozpoznawać i rekomendować wcześniejsze podobne grupy alertów i wcześniejsze osoby reagujące na alerty (lub zespoły osób reagujących) w oparciu o semantyczne podobieństwo użytych treści alertów lub tagów. Jeśli chcesz eskalować grupę alertów do incydentu, grupowanie alertów spowoduje również wstępne wypełnienie wszystkich informacji kontekstowych, które możesz przeglądać w ramach procesu tworzenia incydentu. Naszym zdaniem grupowanie alertów najlepiej sprawdza się w scenariuszach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych w grupowaniu alertów, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z kolei grupy alertów, które wyświetlasz, mogą nie odzwierciedlać dokładnie semantycznego podobieństwa ich tagów. Z naszych doświadczeń wynika, że grupowanie alertów jest mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Warto też zadbać, aby zespół stosował spójne praktyki dotyczące używania tagów alertów. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki grupowanie alertów wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Przetwarzamy dane alertów, aby przeszkolić wersję modelu uczenia maszynowego w celu rozpoznawania wzorców specyficznych dla Twoich alertów. Ta wersja służy tylko do obsługi Twojego środowiska:
Podczas grupowania alertów wobec Twoich danych stosowane są wymienione poniżej środki:
|
Podsumowywanie stron i blogów z wykorzystaniem Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Oszczędzaj czas i uzyskuj szczegóły potrzebne do szybszego wykonywania pracy, generując krótkie podsumowania stron lub blogów Confluence za pomocą Atlassian Intelligence. Dowiedz się więcej na temat korzystania z narzędzia Atlassian Intelligence w Confluence. Naszym zdaniem podsumowywanie stron i blogów za pomocą Atlassian Intelligence najlepiej sprawdza się wówczas, gdy:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do podsumowywania stron i blogów za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Chociaż nadal pracujemy nad lepszą obsługą makr i tabel oraz rozszerzamy podsumowania, odkryliśmy, że podsumowywanie stron i blogów za pomocą Atlassian Intelligence jest mniej przydatne w scenariuszach, w których:
Zachęcamy Cię do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane do automatyzacji Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Jeśli chodzi o Twoje dane, podczas podsumowywania stron i blogów za pomocą Atlassian Intelligence:
|
Definiowanie terminów za pomocą Atlassian Intelligence
Definiowanie terminów z wykorzystaniem Atlassian Intelligence w Confluence i Jirze opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i generowania odpowiedzi w języku naturalnym w Confluence i Jirze. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Jedną z najtrudniejszych rzeczy związanych z korzystaniem z treści w Confluence i Jira może być zdobycie kontekstu potrzebnego do zrozumienia tego, co czytasz. Skróty, akronimy, nieznane terminy oraz nazwy specyficzne dla zespołu lub projektu mogą wymagać czasochłonnego wyszukiwania potrzebnych informacji. Funkcja definiowania terminów za pomocą Atlassian Intelligence pozwala uzyskać definicję terminów specyficznych dla danej firmy (np. akronimów, nazw projektów, systemów lub zespołów) na stronie w Confluence lub w opisie zgłoszenia w Jira. Dzięki temu użytkownik otrzymuje potrzebne mu informacje, kiedy ich potrzebuje — a wszystko to pomaga zespołom sprawniej współpracować. Atlassian Intelligence pozwala Ci zaoszczędzić czas, ponieważ definiuj te rzeczy za Ciebie, dzięki czemu nie musisz przerywać lektury. Jeśli napotkasz definicję, którą uważasz za niedokładną, możesz edytować lub dodać nową definicję, a następnie ustawić widoczność dla tej strony lub tego zgłoszenia, całej przestrzeni lub projektu bądź uzyskać dostęp do całej organizacji. Naszym zdaniem definiowanie terminów za pomocą Atlassian Intelligence w Confluence i Jirze najlepiej sprawdza się w sytuacjach, gdy:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do definiowania odpowiedzi za pomocą Atlassian Intelligence, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Ustaliliśmy, że użycie Atlassian Intelligence do definiowania terminów w Confluence jest mniej przydatne w sytuacjach, w których:
Ponadto w Jira zauważyliśmy, że ponieważ definiowanie terminów za pomocą Atlassian Intelligence opiera się na wyszukiwaniu w Confluence, funkcja ta będzie działać w Jira tylko wtedy, gdy masz uprawnienia do wyświetlania instancji Confluence w tej samej witrynie co instancja Jira. Może się również zdarzyć, że definiowanie terminów za pomocą Atlassian Intelligence nie będzie działać zgodnie z oczekiwaniami w przestrzeniach Confluence lub instancjach Jira, które zawierają treści napisane w wielu językach. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas definiowania terminów. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Jeśli chodzi o Twoje dane, to podczas definiowania terminów za pomocą Atlassian Intelligence stosowane są następujące środki:
|
Generatywna SI w edytorze
Edytory Atlassian Intelligence opierają się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Atlassian Intelligence pomaga prowadzić skuteczną komunikację we wszystkich zespołach w organizacji w celu poprawy wydajności oraz usprawnienia podejmowania decyzji i procesów. Naszym zdaniem wykorzystanie Atlassian Intelligence w edytorach najlepiej sprawdza się w następujących scenariuszach:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych przez Atlassian Intelligence w edytorach, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że wykorzystanie Atlassian Intelligence w edytorach jest mniej przydatne w sytuacjach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane w edytorach. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Jeśli chodzi o Twoje dane, to w kontekście używania Atlassian Intelligence w edytorach stosuje się następujące środki:
|
Narzędzie zmiany formatu zgłoszeń jest obsługiwana przez duże modele językowe opracowane przez OpenAI, w tym serię modeli GPT OpenAI. Atlassian Intelligence wykorzystuje ten model do analizy i generowania języka naturalnego w Jirze. Te modele generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Przeczytaj więcej o możliwościach modeli OpenAI. |
Narzędzie do zmiany formatu zgłoszeń pomaga poprawić przejrzystość opisów zgłoszeń w Jirze poprzez ponowne formatowanie ich przy użyciu szablonu opracowanego przez firmę Atlassian. Ten szablon obejmuje typy informacji, które zwykle oczekujemy w opisie zgłoszenia Jira, takie jak historyjka użytkownika, kontekst pracy i kryteria akceptacji. Uważamy, że narzędzie zmiany formatu zgłoszeń działa najlepiej w sytuacjach, w których opisy zgłoszeń zawierają już przydatne informacje (takie jak kryteria akceptacji lub łącza do źródeł), ale informacje te nie są sformatowane przy użyciu przejrzystej lub spójnej struktury. |
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi narzędzia do zmiany formatu zgłoszeń, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo opis po zmianie formatowania może nie odzwierciedlać dokładnie treści, na której został oparty, lub zawierać szczegóły, która brzmią rozsądnie, jednak są nieprawdziwe lub niekompletne. Z naszych doświadczeń wynika, że narzędzie do zmiany formatu zgłoszeń jest mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Możesz również pomyśleć o przejrzeniu i potwierdzeniu, że opisy zgłoszeń zawierają wszystkie istotne informacje, zanim zaczniesz używać narzędzia do zmiany formatu zgłoszeń. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki narzędzie do zmiany formatu zgłoszeń wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas korzystania z narzędzia do zmiany formatu zgłoszeń wobec Twoich danych stosowane są wymienione poniżej środki:
|
Podsumowanie szczegółów zgłoszenia w Jira Service Management
Podsumowywanie szczegółów zgłoszeń z wykorzystaniem Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Zamiast czytać długie opisy i liczne komentarze na temat zgłoszenia Jira Service Management możesz użyć Atlassian Intelligence w celu szybkiego wygenerowania podsumowania tych informacji. Dzięki temu agenci mogą szybko zapoznać się z kontekstem zgłoszenia i wszelkimi postępami, a tym samym szybko podejmować działania i udzielać pomocy. Naszym zdaniem podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence najlepiej sprawdza się w następujących przypadkach:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że podsumowanie szczegółów zgłoszenia przy użyciu Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Podczas podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:
|
Generatywna SI w edytorze
Podsumowywanie inteligentnych łączy wykorzystujące Atlassian Intelligence (AI) opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Po najechaniu kursorem na inteligentne łącze z Jira, Confluence i Dokumentów Google Atlassian Intelligence może pomóc Ci w podsumowaniu treści, co pozwala określić znaczenie i wartość łącza oraz zdecydować o następnym kroku. Zmniejsza to potrzebę opuszczenia bieżącej strony i zmiany kontekstu. Uważamy, że podsumowywanie inteligentnych łączy za pomocą SI działa najlepiej w scenariuszach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych przy podsumowywaniu inteligentnych łączy dzięki SI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Otrzymane podsumowania mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Odkryliśmy, że podsumowywanie inteligentnych łączy za pomocą SI jest mniej przydatne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Jeśli chodzi o Twoje dane, podczas podsumowywania inteligentnych łączy za pomocą SI stosuje się wymienione poniżej środki.
|
Odpowiedzi Atlassian Intelligence w Jira Service Management
Automatyzacja z wykorzystaniem Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Wirtualny agent obsługi wykorzystuje te modele w następujący sposób:
Sposób działania dużych modeli językowych: Duże modele językowe generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Duże modele językowe wykorzystywane w przypadku wirtualnego agenta obsługi obejmują serię modeli GPT firmy OpenAI, serię modeli Gemini firmy Google oraz serię modeli Claude firmy Anthropic. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Wirtualny agent obsługi pomaga zespołom zautomatyzować interakcje ze wsparciem 1. poziomu, wykorzystując konwersacyjny silnik Atlassian Intelligence, który analizuje oraz rozpoznaje zamiary, kontekst i uprawnienia w celu spersonalizowania interakcji. Korzystając z Atlassian Intelligence, wirtualny agent obsługi pomaga zespołom skalować ich centra obsługi i spełniać oczekiwania klientów dzięki trzem kluczowym funkcjom:
Wirtualny agent obsługi jest dostępny w wielu kanałach, w tym w aplikacjach Slack oraz Microsoft Teams, portalu Jira Service Management i nie tylko. Przeczytaj więcej o kanałach dostępnych dla wirtualnego agenta obsługi. Naszym zdaniem wirtualny agent obsługi najlepiej sprawdza się w scenariuszach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych w przypadku wirtualnego agenta obsługi, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że wirtualny agent obsługi jest mniej użyteczny w scenariuszach, w których:
Zachęcamy do zastanowienia się nad sytuacjami, w których możesz korzystać z Atlassian Intelligence, i sprawdzenia działania wirtualnego agenta obsługi przed włączeniem go dla klientów. Przeczytaj więcej o poprawie skuteczności wirtualnego agenta obsługi. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu wykorzystania Twoich danych przez wirtualnego agenta obsługi Jira Service Management. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Wirtualny agent obsługi stosuje następujące środki w stosunku do Twoich danych:
|
Podsumowanie szczegółów zgłoszenia za pomocą Atlassian Intelligence
Podsumowania AI w Jirze opierają się na dużych modelach językowych opracowanych przez OpenAI. Są wśród nich modele OpenAI opisane tutaj. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Zamiast czytać długie opisy i liczne komentarze na temat zgłoszenia w Jirze, możesz użyć Atlassian Intelligence w celu szybkiego wygenerowania podsumowania tych informacji. Dzięki temu agenci mogą szybko zapoznać się z kontekstem zgłoszenia i wszelkimi postępami, co pozwala im podejmować niezwłoczne działania i udzielać pomocy. Naszym zdaniem podsumowywanie szczegółów zgłoszenia za pomocą Atlassian Intelligence najlepiej sprawdza się w zgłoszeń z dużą liczbą komentarzy i/lub długimi komentarzami oraz opisami. |
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi zgłoszeń AI w Jirze, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że podsumowanie szczegółów zgłoszenia przy użyciu Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przeanalizowania sytuacji, w których korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas podsumowywania szczegółów zgłoszenia. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas podsumowywania szczegółów zgłoszenia za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:
|
Podział pracy dzięki AI
Funkcja podziału pracy dzięki AI opiera się na dużych modelach językowych opracowanych przez OpenAI. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj o funkcjonalności modeli OpenAI lub o tym podejściu w artykułach badawczych OpenAI. |
Funkcja podziału pracy dzięki AI sugeruje zgłoszenia podrzędne na podstawie utworzonego przez Ciebie zgłoszenia Jiry, ułatwiając podzielenie dużych fragmentów pracy na mniejsze. Twoje zgłoszenie jest używane jako kontekst do generowania sugestii dotyczących podsumowań i opisów zgłoszeń podrzędnych. Naszym zdaniem funkcja podziału pracy dzięki AI najlepiej sprawdza się w scenariuszach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi funkcji podziału pracy dzięki AI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że funkcja podziału pracy dzięki AI jest mniej użyteczna w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja podziału pracy dzięki AI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Funkcja podziału pracy dzięki AI stosuje poniższe środki w stosunku do Twoich danych.
|
Użyj sztucznej inteligencji jako siły napędowej
Wybierz funkcję Atlassian Intelligence, aby uzyskać przejrzyste informacje na temat przypadków użycia i wykorzystania danych.
Tworzenie incydentów za pomocą SI z wykorzystaniem Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Te modele generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik był trenowany. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
W przypadku eskalacji jednego lub większej liczby alertów lub grup alertów do incydentu w Jira Service Management funkcja tworzenia incydentów za pomocą SI wykorzystuje Atlassian Intelligence do szybkiego wstępnego wypełnienia wszystkich informacji kontekstowych, które możesz przeglądać w ramach procesu tworzenia incydentu. Dzięki temu użytkownicy mogą szybko zapoznać się z kontekstem incydentu utworzonego na podstawie tych alertów lub grup alertów, a także przejrzeć i potwierdzić wstępnie wypełnione informacje, w tym tytuł, opis i priorytet alertu podczas eskalowania go do incydentu. Uważamy, że tworzenie incydentów za pomocą SI działa najlepiej w scenariuszach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych w tworzeniu incydentu za pomocą SI mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Odkryliśmy, że tworzenie incydentów za pomocą SI jest mniej przydatne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Aby uzyskać najbardziej przydatne wyniki, sugerujemy jak najbardziej konkretne formułowanie zapytań do Atlassian Intelligence. Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki tworzenie incydentu za pomocą SI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań Przetwarzamy:
Jeśli chodzi o Twoje dane, podczas tworzenia incydentu za pomocą SI stosuje się wymienione poniżej środki:
|
Tworzenie przeglądu po incydencie
Tworzenie przeglądu po incydencie (PIR, Post-Incident Review) przez Atlassian Intelligence jest obsługiwane przez duże modele językowe opracowane przez OpenAI. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Te modele generują odpowiedzi na podstawie danych wejściowych użytkowników i mają charakter probabilistyczny. Oznacza to, że odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik był trenowany. Przeczytaj więcej o funkcjonalności modeli OpenAI i o tym podejściu w artykułach badawczych OpenAI. |
Przeglądy po incydentach stanowią podstawową część procesu zarządzania incydentami, pomagając reagującym na incydenty i menedżerom wyciągać wnioski z bieżących incydentów i przekazywać spostrzeżenia w celu zapobiegania podobnym incydentom w przyszłości. Atlassian Intelligence pomaga przyspieszyć często czasochłonne zadanie sporządzania przeglądu po incydencie, sugerując do przejrzenia jego opis, wygenerowany w oparciu o odpowiednie informacje kontekstowe z instancji Jira Service Management i narzędzi czatu, takich jak Slack. Naszym zdaniem tworzenie przeglądów po incydentach za pomocą AI najlepiej sprawdza się w scenariuszach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi tworzenia przeglądów po incydentach, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która może brzmieć rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że tworzenie przeglądu po incydencie jest mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do zastanowienia się nad sytuacjami, w których można skorzystać z Atlassian Intelligence, i sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja tworzenie przeglądu po incydencie za pomocą AI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na naszej stronie często zadawanych pytań. Przetwarzamy:
Funkcja tworzenia przeglądów po incydentach za pomocą AI stosuje poniższe środki w stosunku do Twoich danych.
|
Generowanie opisów pull requestów za pomocą Atlassian Intelligence
Generowanie opisów pull requestów za pomocą Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego oraz kodu w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Atlassian Intelligence może pomóc w generowaniu, przekształcaniu i streszczaniu treści podczas pisania opisów lub komentarzy do pull requestów w środowisku przeglądu kodu w Bitbucket Cloud. Korzyści z tych elementów to między innymi:
Naszym zdaniem generowanie opisów pull requestów w Bitbucket Cloud za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi tej funkcji, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Na przykład otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Odkryliśmy, że generowanie opisów pull requestów w Bitbucket Cloud za pomocą Atlassian Intelligence sprawdza się gorzej w sytuacjach, gdy:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence w Confluence wykorzystuje Twoje dane podczas definiowania terminów. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
W kwestii danych użytkownika, generowanie opisów pull requestów za pomocą Atlassian Intelligence wiąże się z zastosowaniem następujących środków:
|
Generowanie zapytań SQL w Atlassian Analytics
Generowanie zapytań SQL z wykorzystaniem Atlassian Intelligence w Atlassian Analytics opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i rozumienia języka naturalnego, a następnie generuje na ich podstawie język SQL w Atlassian Analytics. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Możesz zadań Atlassian Intelligence pytanie w języku naturalnym i przetłumaczyć je na SQL, zamiast pisać własne zapytania SQL od zera. Po zadaniu pytania Atlassian Intelligence wykorzystuje schemat Atlassian Data Lake wybranego źródła danych do wygenerowania zapytania SQL, które może być używane do tworzenia wykresów na pulpitach Atlassian Analytics, a także może pomóc w poznaniu schematu w Data Lake. Naszym zdaniem generowanie zapytań SQL za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:
Nie wiesz, jakie pytania zadawać?Oto kilka sugestii:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do generowania zapytań SQL za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że generowanie zapytań SQL za pomocą jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas generowania zapytań SQL. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Podczas generowania zapytań SQL za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:
|
Wyszukiwanie odpowiedzi w Confluence
Wyszukiwanie odpowiedzi w Confluence z wykorzystaniem Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Bazy wiedzy rosną zbyt szybko, aby użytkownicy mogli za nimi nadążyć. Wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence skraca drogę do kluczowych informacji potrzebnych klientom do kontynuowania pracy. Funkcja ta ułatwia znajdowanie potrzebnych informacji. Rozpoznaje ona rodzaje pytań, które możesz zadać koledze z zespołu, i natychmiast na nie odpowiada. Dowiedz się więcej o tym, jak korzystać z Atlassian Intelligence w celu wyszukiwania odpowiedzi w Confluence. Naszym zdaniem wyszukiwanie odpowiedzi w Confluence za pomocą Atlassian Intelligence działa najlepiej, gdy witryna Confluence jest pełna szczegółowych, kompletnych i aktualnych treści. Ta funkcja nie generuje nowych treści, ale przeszukuje strony i blogi Confluence (z poszanowaniem ograniczeń), aby znaleźć odpowiedź na Twoje pytanie. Atlassian Intelligence generuje odpowiedzi wyłącznie na podstawie tego, co znajduje się w Confluence i do czego masz dostęp. Nie wiesz, jakie pytania zadawać?Oto kilka sugestii:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas wyszukiwania odpowiedzi w Confluence. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Podczas wyszukiwania odpowiedzi w Confluence za pomocą Atlassian Intelligence w odniesieniu do Twoich danych stosowane są następujące środki:
|
Wyszukiwanie zgłoszeń w Jira
Wyszukiwanie zgłoszeń z wykorzystaniem Atlassian Intelligence w Jirze opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i zrozumienia języka naturalnego, a następnie przekłada go na język JQL (Jira Query Language) w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Atlassian Intelligence pozwala teraz na interakcję w potocznym języku — bez konieczności formułowania złożonych zapytań. Atlassian Intelligence przekłada Twoją podpowiedź na zapytanie w JQL, które szybko pomaga w wyszukaniu konkretnych zgłoszeń. Naszym zdaniem wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence najlepiej sprawdza się w sytuacjach, gdy:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do wyszukiwania zgłoszeń za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Otrzymane odpowiedzi mogą na przykład nie odzwierciedlać dokładnie treści, na której zostały oparte, lub zawierać treść, która brzmi rozsądnie, jednak wprowadza w błąd lub nie jest wyczerpująca. Z naszych doświadczeń wynika, że wyszukiwanie zgłoszeń za pomocą Atlassian Intelligence jest mniej przydatne w następujących sytuacjach:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Warto też pamiętać, aby polecenia dla Atlassian Intelligence formułować jak najkonkretniej. Podaj dokładnie te pola i wartości, których szukasz. |
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane podczas wyszukiwania zgłoszeń. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Jeśli chodzi o Twoje dane, to podczas wyszukiwania zgłoszeń za pomocą Atlassian Intelligence stosowane są następujące środki:
|
Podział pracy dzięki AI
Funkcja podziału pracy dzięki AI opiera się na dużych modelach językowych opracowanych przez OpenAI. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Przeczytaj o funkcjonalności modeli OpenAI lub o tym podejściu w artykułach badawczych OpenAI. |
Funkcja podziału pracy dzięki AI sugeruje zgłoszenia podrzędne na podstawie utworzonego przez Ciebie zgłoszenia Jiry, ułatwiając podzielenie dużych fragmentów pracy na mniejsze. Twoje zgłoszenie jest używane jako kontekst do generowania sugestii dotyczących podsumowań i opisów zgłoszeń podrzędnych. Naszym zdaniem funkcja podziału pracy dzięki AI najlepiej sprawdza się w scenariuszach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi funkcji podziału pracy dzięki AI, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że funkcja podziału pracy dzięki AI jest mniej użyteczna w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja podziału pracy dzięki AI wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Funkcja podziału pracy dzięki AI stosuje poniższe środki w stosunku do Twoich danych.
|
Sugerowane tematy w bazie wiedzy bazują na dużych modelach językowych opracowanych przez OpenAI i Anthropic, a także na połączeniu modeli językowych opartych na transformatorach open source i innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT OpenAI i serię modeli Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele kodujące open-source konwertują tekstowe dane wejściowe w formy numeryczne (osadzenia), które są używane do identyfikowania i przygotowania tematów na podstawie danych wejściowych. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model był trenowany. Dowiedz się więcej o możliwościach modeli OpenAI i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat Multi-QA-MiniLM i E5-Multilingual. |
Funkcja ta pomaga administratorom i agentom zrozumieć luki w ich bazie wiedzy poprzez analizę wniosków o usługę otrzymanych w projekcie. Wyróżnia ona tematy, dla których osoby poszukujące pomocy zgłaszają wnioski (na podstawie danych z ostatnich 30 dni), ale dla których nie ma już istniejącej wiedzy. Sugerowanie tematów ma zapewnić administratorom projektów i agentom wgląd w to, ile wniosków można skierować do samoobsługi lub przynajmniej rozwiązać za pomocą wiedzy. W naszym przekonaniu zwiększenie liczby artykułów wiedzy wpłynie na działanie innych funkcji w Jira Service Management, takich jak odpowiedzi SI wirtualnego agenta obsługi. Tworzenie przez administratorów lub agentów artykułów na sugerowane tematy może również pomóc w poprawie wskaźnika rozwiązywania wniosków za pomocą odpowiedzi SI. Naszym zdaniem sugerowane tematy najlepiej sprawdzają się w scenariuszach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do obsługi sugerowanych tematów w bazie wiedzy mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że sugerowane tematy w bazie wiedzy są mniej przydatne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki funkcja sugerowanych tematów wykorzystuje Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych w naszym Centrum zaufania. Przetwarzamy:
Podczas sugerowania tematów wobec Twoich danych stosowane są wymienione poniżej środki. Sugerowane tematy w bazie wiedzy:
|
Błyskawiczne gromadzenie analiz na podstawie swoich danych
Wybierz funkcję Atlassian Intelligence, aby uzyskać przejrzyste informacje na temat przypadków użycia i wykorzystania danych.
Analiza wykresów
Chart insights opierają się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy i generowania języka naturalnego w naszych produktach. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których silnik został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Analizy wykresów wykorzystują funkcję Atlassian Intelligence, aby pomóc użytkownikom w zrozumieniu danych na dowolnym wykresie w Atlassian Analytics. Na podstawie tytułu pulpitu, tytułu wykresu i danych wykresu (w tym nagłówków kolumn i wartości wierszy) funkcja generuje podsumowanie tego wykresu i jego danych w języku naturalnym. Podejmie też próbę rozpoznania wszelkich trendów lub anomalii, aby zapewnić Ci określone informacje na temat wykresu. Naszym zdaniem analizy wykresów najlepiej sprawdzają się w scenariuszach, w których:
Wykresy słupkowe, wykresy liniowe i wykresy słupkowo-liniowe sprawdzają się najlepiej w przypadku tej funkcji funkcją, ponieważ zazwyczaj zawierają trendy, daty i wiele wierszy danych. |
Trzeba pamiętać, że ze względu na sposób działania modeli używanych w analizach wykresów, mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Z naszych doświadczeń wynika, że analizy wykresów są mniej użyteczne w scenariuszach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki analizy wykresów wykorzystują Twoje dane. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Podczas analizy wykresów wobec Twoich danych stosowane są wymienione poniżej środki.
|
Sugeruj typy wniosku w Jira Service Management
Sugerowanie typów wniosków z wykorzystaniem Atlassian Intelligence opiera się na dużych modelach językowych opracowanych przez OpenAI, Google i Anthropic, a także na połączeniu dużych modeli językowych typu open source (w tym serii Llama, Phi i Mixtral) oraz innych modeli uczenia maszynowego. Te duże modele językowe obejmują serię modeli GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. Atlassian Intelligence wykorzystuje te modele do analizy danych wprowadzanych w języku naturalnym i generowania rekomendacji dotyczących nazw i opisów typów wniosków w ramach usługi Jira Service Management. Modele te generują odpowiedzi na podstawie danych wejściowych i mają charakter probabilistyczny. Oznacza to, że ich odpowiedzi są generowane przez przewidywanie najbardziej prawdopodobnego następnego słowa lub tekstu na podstawie danych, na których model został przeszkolony. Dowiedz się więcej o możliwościach modeli OpenAI, modeli Google i modeli Anthropic. Aby dowiedzieć się więcej o modelach językowych typu open source, zobacz informacje na temat serii Llama i serii Phi. |
Nie trać czasu na zastanawianie się, jakie typy wniosków musisz utworzyć dla swojego projektu, a zamiast tego korzystaj z sugestii Atlassian Intelligence. Wystarczy, że opiszesz swoją pracę i to, czym zazwyczaj zarządza Twój zespół, aby zobaczyć, jakie typy wniosków możesz utworzyć. Wybierz jedną z sugestii wygenerowanych przez Atlassian Intelligence, aby utworzyć typ wniosku. Dowiedz się więcej o tym, jak używać Atlassian Intelligence w celu sugerowania typów wniosków. Naszym zdaniem korzystanie z Atlassian Intelligence w celu sugerowania typów wniosków najlepiej sprawdza się w sytuacjach, w których:
|
Trzeba pamiętać, że ze względu na sposób działania modeli używanych do sugerowania typów wniosków za pomocą Atlassian Intelligence mogą one czasami generować niedokładne, niekompletne lub niewiarygodne wyniki. Przykładowo otrzymane odpowiedzi mogą nie odzwierciedlać dokładnie zawartości, na której zostały oparte, lub zawierać treści, które brzmią rozsądnie, jednak wprowadzają w błąd lub nie są wyczerpujące. Ustaliliśmy, że użycie Atlassian Intelligence do sugerowania typów wniosków jest mniej przydatne w sytuacjach, w których:
Dlatego zachęcamy do przemyślenia, w jakich sytuacjach korzystasz z Atlassian Intelligence, a także do sprawdzania jakości uzyskanych odpowiedzi przed udostępnieniem ich innym. Inne kwestie warte przemyślenia:
|
Zdajemy sobie sprawę, że możesz mieć pytania dotyczące sposobu, w jaki Atlassian Intelligence wykorzystuje Twoje dane w celu sugerowania typów wniosków. Ta sekcja stanowi uzupełnienie informacji dostępnych na stronie często zadawanych pytań. Przetwarzamy:
Jeśli chodzi o Twoje dane, to w kontekście używania Atlassian Intelligence w celu sugerowania typów wniosków stosuje się następujące środki.
|
Odniesienia
Na naszej stronie ze statusami produktów Atlassian możesz sprawdzać informacje o statusie produktów aktualizowane w czasie rzeczywistym.
Dowiedz się więcej o Atlassian Intelligence
Dowiedz się, w jaki sposób Atlassian zarządza danymi klientów.