Atlassian Intelligence is ontworpen voor transparantie
Onze eerlijke toewijding aan open communicatie, verantwoordelijkheid en het helpen van teams om AI op een verantwoorde manier te gebruiken.
Atlassian Intelligence is ontworpen om de samenwerking een boost te geven en teams te helpen hun werk te versnellen. En net zoals je moet leren wat de beste manier is om samen te werken met je team, helpt het teams effectiever gebruik te maken van Atlassian Intelligence als ze weten hoe het werkt. Op deze pagina leggen we uit hoe onze AI-gestuurde producten en functies werken, inclusief wat ze wel en niet kunnen en hoe ze bijdragen aan de manier waarop je onze producten ervaart. We geloven dat je met de informatie op deze pagina het meeste uit onze producten — en je teamwork — kunt halen. Ga naar onze principes voor verantwoorde technologie om meer te weten te komen over onze toewijding aan het verantwoord bouwen van technologie.
Groepering van waarschuwingen
Groepering van waarschuwingen door Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI en andere modellen van zelflerende systemen. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen van zelflerende systemen voor het analyseren en genereren van waarschuwingsgroepen, en om gerelateerde suggesties te geven (eerdere waarschuwingsgroepen en -respondenten) binnen onze producten op basis van de overeenkomst tussen de inhoud van de waarschuwing of van de gebruikte tags. Vervolgens gebruikt Atlassian Intelligence grote taalmodellen om omschrijvingen en inhoud in natuurlijke taal te analyseren en te genereren voor deze groepen binnen onze producten. Deze grote taalmodellen genereren reacties op basis van jouw input en zijn probabilistisch. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Groepering van waarschuwingen maakt gebruik van Atlassian Intelligence om soortgelijke waarschuwingen te identificeren en te groeperen. Het helpt je ook door eerdere soortgelijke waarschuwingsgroepen en -respondenten (of respondententeams) te identificeren en aan te bevelen, op basis van de semantische overeenkomst van de waarschuwingsinhoud of gebruikte tags. Als je de waarschuwingsgroep naar een incident wilt laten escaleren, wordt bij het groeperen van waarschuwingen ook alle contextuele informatie vooraf ingevuld, zodat je deze kunt bekijken als onderdeel van het aanmaakproces van incidenten. We zijn van mening dat waarschuwingen groeperen het beste werkt in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om groeperen van waarschuwingen mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. In het geval van de waarschuwingsgroepen die je ziet, geven ze mogelijk niet precies de semantische overeenkomst van hun tags weer. We hebben ontdekt dat groepering van waarschuwingen minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je zou ook kunnen overwegen om te zorgen dat jij en je team consistente werkwijzen volgen bij het gebruik van waarschuwingstags. |
We begrijpen dat je misschien vragen hebt over hoe je gegevens worden gebruikt bij het groeperen van waarschuwingen. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
We verwerken je waarschuwingsgegevens om een versie van het model zelflerend systeem te trainen om patronen te herkennen die specifiek zijn voor je meldingen. Deze versie wordt enkel gebruikt om je ervaring te tonen:
Wat je gegevens betreft, past het groeperen van waarschuwingen de volgende maatregelen toe:
|
Atlassian Intelligence-antwoorden in Jira Service Management
Atlassian Intelligence-antwoorden worden mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
De antwoordfunctie van Atlassian Intelligence maakt verbinding met de virtuele serviceagent in Jira Service Management. De functie maakt gebruik van generatieve kunstmatige intelligentie om in je gekoppelde kennisdatabases te zoeken en vragen van je klanten te beantwoorden. We hebben ondervonden dat Atlassian Intelligence-antwoorden het beste werken in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om Atlassian Intelligence-antwoorden mogelijk te maken, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ondervonden dat Atlassian Intelligence-antwoorden minder nuttig zijn in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe de antwoorden van Atlassian Intelligence je gegevens gebruiken in Jira Service Management. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
|
Automatisering met behulp van Atlassian Intelligence
Automatisering met Atlassian Intelligence wordt aangedreven door GPT-modellen ontwikkeld met OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om de natuurlijke taalinvoer te analyseren en automatiseringsregels voor je te genereren binnen Jira en Confluence. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Automatiseringsregels aanmaken is essentieel voor de dagelijkse automatiseringservaring. We willen dit nog gemakkelijker voor je maken door Atlassian Intelligence toe te voegen aan de samensteller voor automatiseringsregels in Jira en Confluence. Nu kun je eenvoudig automatiseringsregels aanmaken door simpelweg in te voeren wat je wilt automatiseren. Atlassian Intelligence doet vervolgens het zware werk om de regel voor je aan te maken. Meer informatie over automatisering met behulp van Atlassian Intelligence voor Jira en voor Confluence. We zijn ervan overtuigd dat het gebruik van automatisering met behulp van Atlassian Intelligence voor Jira en Confluence het beste werkt in scenario's wanneer je niet zeker weet hoe je van start gaat of wanneer je het aanmaken van regels wilt versnellen. Weet je niet zeker hoe je het beste een automatiseringsregel kunt aanmaken?Automatiseringsregels worden aangemaakt door een combinatie van verschillende soorten componenten: triggers, acties, voorwaarden en branches. Je kunt componenten zien als de bouwsteen van een regel. Om een effectieve regel aan te maken met Atlassian Intelligence, moet je regel ten minste zowel een trigger als een actie bevatten. Bijvoorbeeld: In Jira: Zoek elke maandag alle taken met een vervaldatum in de komende 7 dagen en stuur de uitvoerder ervan een herinneringse-mail. Als een ticket naar Testen gaat, wijs het ticket dan toe aan John Smith. In Confluence:
Bovendien moeten, om een effectieve regel aan te maken, alle componenten ervan worden ondersteund door automatisering met behulp van Atlassian Intelligence. Dit betekent dat alle triggers, acties, voorwaarden of branches in je regel compatibel moeten zijn met automatisering in Jira en/of Confluence. |
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om automatisering aan te drijven met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat automatisering met behulp van Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Automatisering met behulp van Atlassian Intelligence werkt alleen met de bestaande set beschikbare automatiseringscomponenten in Jira en Confluence. Je zou ook kunnen overwegen om zo specifiek mogelijk te zijn over wat je Atlassian Intelligence vraagt te doen, zoals hierboven beschreven. |
We begrijpen dat je misschien vragen hebt over hoe automatisering met behulp van Atlassian Intelligence je gegevens gebruikt bij het zoeken naar issues. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor Confluence-automatisering:
OpenAI is een subverwerker die op onze lijst van subverwerkers staat. Deze verwerkers gebruiken je in- en output alleen voor het verwerken van je aanvraag, en niet voor andere doeleinden. Deze functie volgt de rechten van je installatie. Als je bijvoorbeeld geen toegang hebt tot een specifiek project of pagina, wordt er geen inhoud van die assets voorgesteld in het antwoord dat je ontvangt. Als je niet wilt dat je inhoud beschikbaar is in het antwoord naar andere gebruikers in je installatie, overleg dan met je organisatiebeheerder om ervoor te zorgen dat je rechten juist zijn ingesteld. |
Diagraminzichten
Diagramnzichten worden mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Diagraminzichten maakt gebruik van Atlassian Intelligence om je meer inzicht te geven in gegevens van elk diagram in Atlassian Analytics. Dit wordt gedaan door de titel van het dashboard, de titel van het diagram en de gegevens van het diagram (waaronder kolomkoppen en rijwaarden) te gebruiken om een samenvatting in natuurlijke taal te genereren van deze diagram en de bijbehorende gegevens. Het is ook bedoeld om trends of afwijkingen te identificeren om je bepaalde inzichten in deze diagram te geven. Wij zijn van mening dat Diagraminzichten het beste werkt in scenario's waarin:
Staafdiagrammen, lijndiagrammen en staaf-lijndiagrammen werken het beste met deze functie, omdat ze meestal trends, datums en veel rijen gegevens bevatten. |
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om Diagraminzichten mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat Diagraminzichten minder nuttig zijn in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Diagraminzichten je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op deze pagina We verwerken het volgende:
Wat je gegevens betreft, past Diagraminzichten de volgende maatregelen toe.
|
Korte samenvatting van Confluence
Het samenvatten van pagina's en blogs met Atlassian Intelligence wordt aangedreven door LLM-modellen ontwikkeld met OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Bespaar tijd en verkrijg de informatie die je nodig hebt om je werk sneller te doen door een korte samenvatting van een Confluence-pagina of -blog te genereren met behulp van Atlassian Intelligence. Meer informatie over het gebruik van Atlassian Intelligence in Confluence. Wij zijn van mening dat het samenvatten van pagina's en blogs met behulp van Atlassian Intelligence het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om pagina's en blogs samen te vatten met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. Terwijl we blijven werken aan een betere ondersteuning voor macro's, tabellen en uitbreidingen in samenvattingen, hebben we gemerkt dat het samenvatten van pagina's en blogs met behulp van Atlassian Intelligence minder zinvol is in scenario's waarbij:
We sporen je aan om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit van de antwoorden die je krijgt te beoordelen voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt voor Confluence-automatisering. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het samenvatten van pagina's en blogs:
|
Definieer termen met behulp van Atlassian Intelligence
Het definiëren van termen met behulp van Atlassian Intelligence in Confluence en Jira wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om antwoorden in de natuurlijke taal binnen Confluence te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. |
Een van de moeilijkste dingen aan het consumeren van inhoud in Confluence en Jira is het verkrijgen van de context die je nodig hebt om te begrijpen wat je leest. Afkortingen, acroniemen, onbekende termen en team- of projectspecifieke namen kunnen leiden tot een lange zoektocht naar de informatie die je nodig hebt. Als je termen definieert met behulp van Atlassian Intelligence, krijg je de definitie van bedrijfsspecifieke termen (zoals acroniemen, project-, systeem- en teamnamen) op een pagina in Confluence of in een probleembeschrijving in Jira. Dit geeft gebruikers de informatie die ze nodig hebben, wanneer ze die nodig hebben en dat alles terwijl teams beter kunnen samenwerken. Atlassian Intelligence kan je tijd besparen door deze dingen voor je te definiëren, zonder dat je wat je aan het lezen bent hoeft te sluiten. Als je een definitie tegenkomt die volgens jou onjuist is, kun je een definitie bewerken of een nieuwe toevoegen. Je kunt vervolgens de zichtbaarheid instellen voor die pagina of dat issue, de hele space of het project, of de toegang tot je hele organisatie. Wij zijn van mening dat het definiëren van termen met behulp van Atlassian Intelligence in Confluence het beste werkt in deze situaties:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om termen te definiëren met behulp van Atlassian Intelligence in Confluence-werk, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het definiëren van termen met Atlassian Intelligence minder nuttig is in de scenario's waarbij:
Daarnaast hebben we in Jira ook ontdekt dat, omdat je voor het definiëren van termen met behulp van Atlassian Intelligence afhankelijk bent van zoeken in Confluence, de functie alleen werkt in Jira als je toestemming hebt om een Confluence-installatie te bekijken op dezelfde site als je Jira-installatie. Mogelijk ervaar je dat het definiëren van termen met Atlassian Intelligence niet werkt zoals verwacht in Confluence-spaces en Jira-installaties die content in meerdere talen bevatten. |
We begrijpen dat je misschien vragen hebt over hoe je gegevens worden gebruikt bij het definiëren van termen met behulp van Atlassian Intelligence. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het definiëren van termen:
|
Genereer omschrijvingen van pull requests met Atlassian Intelligence
Het genereren van pull request-omschrijvingen met Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen (LLM) die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal en codes in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Met Atlassian Intelligence kun je inhoud genereren, transformeren en samenvatten terwijl je omschrijvingen of opmerkingen van pull requests schrijft in de codebeoordelingservaring van Bitbucket Cloud. Dit omvat:
We zijn van mening dat het genereren van pull-request-omschrijvingen van Bitbucket Cloud met Atlassian Intelligence het beste werkt in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om deze functie mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het genereren van pull request-omschrijvingen van Bitbucket Cloud met Atlassian Intelligence minder goed werkt in scenario's waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe het definiëren van termen met behulp van Atlassian Intelligence in Confluence je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het genereren van pull request-omschrijvingen:
|
Genereer SQL-query's in Atlassian Analytics
Het genereren van SQL-query's met behulp van Atlassian Intelligence in Atlassian Analytics wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier zijn beschreven. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal te analyseren en te begrijpen, en vertaalt deze vervolgens naar gestructureerde zoekopdrachten (SQL) binnen Atlassian Analytics. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Stel Atlassian Intelligence een vraag in natuurlijke taal en laat die vertalen naar SQL, in plaats van je eigen SQL-query's helemaal opnieuw te schrijven. Nadat je een vraag hebt gesteld, gebruikt Atlassian Intelligence het Atlassian Data Lake-schema van de door jou geselecteerde gegevensbron om een SQL-query te genereren die kan worden gebruikt om diagrammen te maken op je Atlassian Analytics-dashboards, en die je ook kan helpen meer te weten te komen over het schema in de Data Lake. Wij zijn van mening dat het genereren van SQL-query's met behulp van Atlassian Intelligence het beste werkt in scenario's waarbij:
Weet je niet zeker welke vragen je moet stellen?Hier zijn enkele suggesties:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om SQL-query's te genereren met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het genereren van SQL-query's met Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het genereren van SQL-query's. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het genereren van SQL-query's.
|
Generatieve AI in de editor
Atlassian Intelligence in bewerkingservaringen wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier zijn beschreven. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Atlassian Intelligence helpt bij het stimuleren van effectieve communicatie tussen alle teams in een organisatie om de efficiëntie, besluitvorming en processen te verbeteren. Wij zijn van mening dat het gebruik van Atlassian Intelligence in bewerkingservaringen het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt voor Atlassian Intelligence in bewerkingservaringen, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het minder nuttig is om Atlassian Intelligence in bewerkingservaringen te gebruiken in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij bewerkingservaringen. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Als het op je gegevens aankomt, past Atlassian Intelligence de volgende maatregelen toe tijdens bewerkingservaringen:
|
Zoek antwoorden in Confluence
Het zoeken naar antwoorden in Confluence met behulp van Atlassian Intelligence wordt mogelijk gemaakt door LLM-modellen die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
De kennisdatabases groeien zo snel dat gebruikers het niet bij kunnen houden. Het zoeken naar antwoorden in Confluence met behulp van Atlassian Intelligence biedt een snellere weg naar belangrijke informatie die klanten nodig hebben om verder te kunnen met hun werk. Met deze functie kun je gemakkelijk de informatie vinden die je nodig hebt. Atlassian Intelligence begrijpt wat voor soort vragen je aan een teamgenoot zou stellen en beantwoordt ze meteen. Meer informatie over hoe je Atlassian Intelligence kunt gebruiken om antwoorden te zoeken in Confluence. Wij zijn van mening dat het zoeken naar antwoorden in Confluence met behulp van Atlassian Intelligence het beste werkt als je Confluence-site vol staat met gedetailleerde, volledige en actuele inhoud. Deze functie genereert geen nieuwe inhoud, maar doorzoekt Confluence-pagina's en -blogs (met inachtneming van de beperkingen) om een antwoord op je vraag te vinden. Atlassian Intelligence genereert antwoorden uitsluitend op basis van wat er in je Confluence-installatie staat en waar jij specifiek toegang tot hebt. Weet je niet zeker welke vragen je moet stellen?Hier zijn enkele suggesties
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het zoeken naar antwoorden in Confluence. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
De volgende maatregelen worden toegepast met betrekking tot je gegevens als je Atlassian Intelligence gebruikt voor het zoeken naar antwoorden in Confluence:
|
Zoek issues in Jira
Het zoeken van issues met behulp van Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. De modellen omvatten de OpenAI-modellen die hier worden beschreven en die zijn verfijnd door Atlassian op basis van gegenereerde synthetische gegevens. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal te analyseren en te begrijpen, en vertaalt deze vervolgens naar Jira Query Language-code (JQL) in onze producten. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen en de verfijning van OpenAI. Je kunt ook meer over deze aanpak lezen in de onderzoeksdocumenten van OpenAI. |
Je kunt Atlassian Intelligence nu vragen wat je wilt in alledaagse taal in plaats van dat je complexe vragen moet stellen. Door issues te zoeken met behulp van Atlassian Intelligence, wordt je vraag vertaald in een JQL-zoekopdracht die je snel helpt bij het zoeken naar specifieke issues. Wij zijn van mening dat het zoeken naar issues met behulp van Atlassian Intelligence het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om issues te zoeken met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het zoeken naar issues met Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je zou ook kunnen overwegen om zo specifiek mogelijk te zijn in wat je Atlassian Intelligence vraagt te doen. Zorg ervoor dat je de exacte velden en waarden invult die je zoekt. |
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het zoeken naar issues. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het zoeken naar issues:
|
Aanvraagtypen voorstellen in Jira Service Management
De voorgestelde aanvraagtypes van Atlassian Intelligence worden mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om input in natuurlijke taal te analyseren en aanbevelingen te genereren voor namen en beschrijvingen van aanvraagtypen binnen Jira Service Management. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Besteed minder tijd aan het uitzoeken welke aanvraagtypen je moet maken voor je project en krijg in plaats daarvan suggesties van Atlassian Intelligence. Beschrijf gewoon je werk en wat je team doorgaans beheert om te zien welke aanvraagtypen je zou kunnen indienen. Selecteer een van de suggesties die door Atlassian Intelligence zijn gegenereerd om een aanvraagtype te maken. Meer informatie over hoe je Atlassian Intelligence kunt gebruiken om aanvraagtypen voor te stellen. Wij zijn van mening dat het gebruik van Atlassian Intelligence om aanvraagtypes voor te stellen het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om aanvraagtypen voor te stellen met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het minder nuttig is om Atlassian Intelligence te gebruiken om aanvraagtypen voor te stellen in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt om aanvraagtypen voor te stellen. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt om soorten aanvragen voor te stellen.
|
Issuegegevens samenvatten in Jira Service Management
Het samenvatten van issuegegevens met Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
In plaats van lange omschrijvingen en talloze opmerkingen over een Jira Service Management-issue te lezen, kun je Atlassian Intelligence gebruiken om deze informatie snel voor je samen te vatten. Hierdoor krijgen agents snel inzicht in de context en de voortgang van de issue en kunnen ze rap actie ondernemen en hulp bieden. We hebben ondervonden dat het samenvatten van issuegegevens met Atlassian Intelligence het beste werkt voor:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om issuegegevens samen te vatten met Atlassian Intelligence soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ondervonden dat het samenvatten van issuegegevens met Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. |
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het samenvatten van issuegegevens. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
De volgende maatregelen worden toegepast met betrekking tot je gegevens als je Atlassian Intelligence gebruikt voor het samenvatten van issuegegevens:
|
Aangepaste formules schrijven met behulp van Atlassian Intelligence
Aangepaste formules schrijven met behulp van Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal te analyseren en vertaalt deze vervolgens naar SQLite binnen Atlassian Analytics. Deze modellen genereren antwoorden op basis van jouw invoer en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Vraag of beschrijf aan Atlassian Intelligence hoe je de gegevens in je resultatentabel wilt omzetten. Deze worden vervolgens omgezet in een SQLite-expressie die wordt gebruikt voor aangepaste formules. Zo hoef je je eigen SQLite-expressies niet helemaal opnieuw te schrijven. Nadat je een vraag hebt gesteld, gebruikt Atlassian Intelligence de gegevens in de resultatentabel van de vorige Visual SQL-stap om een SQLite-expressie te genereren die berekeningen of bewerkingen toepast op die gegevens voor je diagram. Dit kan je ook helpen meer te weten te komen over de functies van SQLite en de syntax. Het schrijven van aangepaste formules met behulp van Atlassian Intelligence werkt het beste in scenario's waarbij:
|
Houd er bij het gebruik van aangepaste formules rekening mee dat de modellen die worden gebruikt in Atlassian Intelligence soms onnauwkeurig, onvolledig of onbetrouwbaar zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar die onjuist of onvolledig is. We hebben ontdekt dat het schrijven van aangepaste formules met behulp van Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe je gegevens worden gebruikt bij het schrijven van aangepaste formules met behulp van Atlassian Intelligence. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het schrijven van aangepaste formules. Je vragen (inputs) en antwoorden (outputs):
OpenAI is een subverwerker die op onze lijst van subverwerkers staat. Deze verwerkers gebruiken je in- en output alleen voor het verwerken van je aanvraag, en niet voor andere doeleinden. |
Meer informatie over Atlassian Intelligence
Ontdek meer over het gebruik van Atlassian Intelligence
Ontdek hoe je Atlassian Intelligence gebruikt om antwoorden te zoeken in Confluence
Atlassian Intelligence en Rovo zijn ontworpen voor transparantie
Onze eerlijke toewijding aan open communicatie, verantwoordelijkheid en het helpen van teams om AI op een verantwoorde manier te gebruiken.
Rovo
Selecteer hieronder een Rovo-functie om een duidelijk overzicht te krijgen van de usecases en het gegevensgebruik.
Binnenkort beschikbaar! |
Sneller werken met AI
Selecteer hieronder een Atlassian Intelligence-functie om een duidelijk overzicht te krijgen van de usecases en het gegevensgebruik.
- AI ChatOps voor incidentmanagement
- AI-gerelateerde resources
- AI-suggesties
- Automatisering
- Groepering van waarschuwingen
- Korte samenvatting van Confluence
- Voorwaarden definiëren
- Generatieve AI in de editor
- Issue-herindeler
- Issuegegevens samenvatten
- Smart Links samenvatten
- Virtuele serviceagent
- Issuegegevens samenvatten met Atlassian Intelligence
- Werk uitsplitsen met AI
- AI ChatOps voor incidentmanagement
- AI-gerelateerde resources
- AI-suggesties
- Automatisering
- Groepering van waarschuwingen
- Korte samenvatting van Confluence
- Voorwaarden definiëren
- Generatieve AI in de editor
- Issue-herindeler
- Issuegegevens samenvatten
- Smart Links samenvatten
- Virtuele serviceagent
- Issuegegevens samenvatten met Atlassian Intelligence
- Werk uitsplitsen met AI
Automatisering met behulp van Atlassian Intelligence
De functies van AI ChatOps voor incidentmanagement worden mogelijk gemaakt door large language models (LLM's) die zijn ontwikkeld door OpenAI, evenals een combinatie van grote open-source LLM's (waaronder de Llama-serie en de Phi-serie) en andere modellen met zelflerende systemen. Deze large language models omvatten modellen uit de GPT-reeks van OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze large language models genereren reacties op basis van jouw input en zijn op waarschijnlijkheden berust. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoekspapers van OpenAI. Voor meer informatie over open-source taalmodellen, raadpleeg je de informatie over de Llama-serie en de Phi-serie. |
AI ChatOps voor incidentmanagement helpt je gebruikers om het proces voor incidentoplossing te versnellen door nieuwe gebruikers een samenvatting te geven van het relevante incident en alle gesprekken daarover tot nu toe. Gebruikers krijgen deze informatie wanneer ze worden toegevoegd aan het Slack-kanaal dat is gekoppeld aan de incident-issue in Jira Service Management. Bovendien kan AI ChatOps voor incidentmanagement de gesprekken uit Slack in Jira Service Management loggen als tijdlijn voor toekomstig gebruik. Wij zijn van mening dat AI ChatOps voor incidentmanagement het beste werkt in situaties waarin:
|
Vergeet niet dat vanwege de manier waarop de modellen worden gebruikt om AI ChatOps voor incidentmanagement aan te drijven, deze modellen soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat AI ChatOps voor incidentmanagement minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je AI ChatOps voor incidentmanagement gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de reacties die je krijgt voordat je deze met anderen deelt. Je kunt overwegen om de rechten te herzien om ervoor te zorgen dat gebruikers voldoende toegang hebben tot relevante incident-issues en Slack-kanalen. |
We begrijpen dat je misschien vragen hebt over hoe AI ChatOps voor incidentmanagement je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft past AI ChatOps voor incidentmanagement de volgende maatregelen toe:
|
AI-gerelateerde resources worden samengesteld met large language models (LLM's) die zijn ontwikkeld door OpenAI, evenals een combinatie van grote open-source LLM's (waaronder de Llama-serie en de Phi-serie) en andere modellen met zelflerende systemen. Deze large language models omvatten modellen uit de GPT-reeks van OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren, en om relevante antwoorden te geven vanuit Atlassian en gekoppelde producten van derden. Deze large language models genereren reacties op basis van jouw input en zijn op waarschijnlijkheden berust. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen of over deze aanpak in de onderzoekspapers van OpenAI. Voor meer informatie over open-source taalmodellen, raadpleeg je de informatie over de Llama-serie en de Phi-serie. |
Met Atlassian Intelligence kunnen je gebruikers het proces van incidentoplossing versnellen door een resourcelijst samen te stellen die ze kunnen raadplegen in je gekoppelde kennisdatabase-spaces en -artikelen, Jira-issues en (als je een Rovo-klant bent) alle producten van derden die je via Rovo hebt geïntegreerd. Meer informatie over Rovo en tools van derden. Wij zijn van mening dat AI-gerelateerde resources het beste werken in situaties waarin:
|
Vergeet niet dat vanwege de manier waarop de modellen worden gebruikt om AI-gerelateerde resources aan te drijven, deze modellen soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat AI-gerelateerde resources minder nuttig zijn in situaties waarin:
Daarom willen we je aansporen om de situaties waarin je Atlassian Intelligence gebruikt te overdenken. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Overweeg ook het volgende:
|
We begrijpen dat je misschien vragen hebt over hoe AI-gerelateerde resources je gegevens gebruiken. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft, passen AI-gerelateerde resources de volgende maatregelen toe:
|
AI-suggesties in Jira Service Management worden mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI en andere modellen met een zelflerend systeem. Deze grote taalmodellen omvatten modellen uit de GPT-reeks van OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze grote taalmodellen genereren reacties op basis van jouw input en zijn op waarschijnlijkheden berust. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Ontdek meer informatie over de mogelijkheden van de modellen van OpenAI. |
Met AI-suggesties in Jira Service Management kan je team snel aan de slag door belangrijke context over je serviceaanvragen en incidenten in één oogopslag te verzamelen. Atlassian Intelligence helpt je team om:
AI-suggesties in Jira Service Management kunnen agents ook aanbevelen om een aanvraag of incident te escaleren wanneer de toepasselijke SLA dreigt te worden geschonden. In het geval van serviceaanvragen kan deze functie ook suggereren dat agents die aanvraag escaleren wanneer de modellen die worden gebruikt om deze suggesties mogelijk te maken, op basis van de opmerkingen van de auteur, een gevoel van urgentie of boosheid identificeren in de aanvraag. Wij zijn van mening dat AI-suggesties in Jira Service Management het beste werken in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om AI-suggesties in Jira Service Management mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ondervonden dat AI-suggesties in Jira Service Management minder nuttig zijn in scenario's waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe AI-suggesties in Jira Service Management je gegevens gebruiken. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Met betrekking tot je gegevens past AI-suggesties de volgende maatregelen toe.
|
Automatisering met Atlassian Intelligence wordt mogelijk gemaakt door large language models (LLM's) die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open-source LLM's (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze large language models omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om de natuurlijke taalinvoer te analyseren en automatiseringsregels voor je te genereren binnen Jira en Confluence. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Automatiseringsregels aanmaken is essentieel voor de dagelijkse automatiseringservaring. We willen dit nog gemakkelijker voor je maken door Atlassian Intelligence toe te voegen aan de samensteller voor automatiseringsregels in Jira en Confluence. Nu kun je eenvoudig automatiseringsregels aanmaken door simpelweg in te voeren wat je wilt automatiseren. Atlassian Intelligence doet vervolgens het zware werk om de regel voor je aan te maken. Meer informatie over automatisering met behulp van Atlassian Intelligence voor Jira en voor Confluence. We zijn ervan overtuigd dat het gebruik van automatisering met behulp van Atlassian Intelligence voor Jira en Confluence het beste werkt in scenario's wanneer je niet zeker weet hoe je van start gaat of wanneer je het aanmaken van regels wilt versnellen. Weet je niet zeker hoe je het beste een automatiseringsregel aanmaakt?Automatiseringsregels worden aangemaakt door een combinatie van verschillende soorten componenten: triggers, acties, voorwaarden en branches. Je kunt componenten zien als de bouwsteen van een regel. Om een effectieve regel aan te maken met Atlassian Intelligence, moet je regel ten minste zowel een trigger als een actie bevatten. Bijvoorbeeld: In Jira: Zoek elke maandag alle taken met een vervaldatum in de komende 7 dagen en stuur de uitvoerder ervan een herinneringse-mail. Als een ticket naar Testen gaat, wijs het ticket dan toe aan John Smith. In Confluence:
Bovendien moeten, om een effectieve regel aan te maken, alle componenten ervan worden ondersteund door automatisering met behulp van Atlassian Intelligence. Dit betekent dat alle triggers, acties, voorwaarden of branches in je regel compatibel moeten zijn met automatisering in Jira en/of Confluence. |
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om automatisering aan te drijven met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat automatisering met behulp van Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Automatisering met behulp van Atlassian Intelligence werkt alleen met de bestaande set beschikbare automatiseringscomponenten in Jira en Confluence. Je zou ook kunnen overwegen om zo specifiek mogelijk te zijn over wat je Atlassian Intelligence vraagt te doen, zoals hierboven beschreven. |
We begrijpen dat je misschien vragen hebt over hoe automatisering met behulp van Atlassian Intelligence je gegevens gebruikt bij het zoeken naar issues. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor Confluence-automatisering:
Alle externe LLM-providers zijn subverwerkers en worden zo vermeld op onze pagina Subverwerkers. Deze verwerkers gebruiken je in- en outputs alleen voor het verwerken van je aanvraag en niet voor andere doeleinden. Deze functie volgt de rechten van je installatie. Als je bijvoorbeeld geen toegang hebt tot een specifiek project of pagina, wordt er geen inhoud van die assets voorgesteld in het antwoord dat je ontvangt. Als je niet wilt dat je inhoud beschikbaar is in het antwoord naar andere gebruikers in je installatie, overleg dan met je organisatiebeheerder om ervoor te zorgen dat je rechten juist zijn ingesteld. |
Groepering van waarschuwingen
Groepering van waarschuwingen door Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze modellen omvatten een algoritme dat is ontworpen om patronen in waarschuwingsgegevens te identificeren, en modellen uit de GPT-reeks van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-reeks van Anthropic. Atlassian Intelligence gebruikt deze modellen van zelflerende systemen voor het analyseren en genereren van waarschuwingsgroepen, en om gerelateerde suggesties te geven (eerdere waarschuwingsgroepen en -respondenten) binnen onze producten op basis van de overeenkomst tussen de inhoud van de waarschuwing of van de gebruikte tags. Vervolgens gebruikt Atlassian Intelligence grote taalmodellen om omschrijvingen en inhoud in natuurlijke taal te analyseren en te genereren voor deze groepen binnen onze producten. Deze grote taalmodellen genereren reacties op basis van jouw input en zijn probabilistisch. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Groepering van waarschuwingen maakt gebruik van Atlassian Intelligence om soortgelijke waarschuwingen te identificeren en te groeperen. Het helpt je ook door eerdere soortgelijke waarschuwingsgroepen en -respondenten (of respondententeams) te identificeren en aan te bevelen, op basis van de semantische overeenkomst van de waarschuwingsinhoud of gebruikte tags. Als je de waarschuwingsgroep naar een incident wilt laten escaleren, wordt bij het groeperen van waarschuwingen ook alle contextuele informatie vooraf ingevuld, zodat je deze kunt bekijken als onderdeel van het aanmaakproces van incidenten. We zijn van mening dat waarschuwingen groeperen het beste werkt in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om groeperen van waarschuwingen mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. In het geval van de waarschuwingsgroepen die je ziet, geven ze mogelijk niet precies de semantische overeenkomst van hun tags weer. We hebben ontdekt dat groepering van waarschuwingen minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je zou ook kunnen overwegen om te zorgen dat jij en je team consistente werkwijzen volgen bij het gebruik van waarschuwingstags. |
We begrijpen dat je misschien vragen hebt over hoe je gegevens worden gebruikt bij het groeperen van waarschuwingen. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
We verwerken je waarschuwingsgegevens om een versie van het model zelflerend systeem te trainen om patronen te herkennen die specifiek zijn voor je meldingen. Deze versie wordt enkel gebruikt om je ervaring te tonen:
Wat je gegevens betreft, past het groeperen van waarschuwingen de volgende maatregelen toe:
|
Het samenvatten van pagina's en blogs met Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Bespaar tijd en verkrijg de informatie die je nodig hebt om je werk sneller te doen door een korte samenvatting van een Confluence-pagina of -blog te genereren met behulp van Atlassian Intelligence. Meer informatie over het gebruik van Atlassian Intelligence in Confluence. Wij zijn van mening dat het samenvatten van pagina's en blogs met behulp van Atlassian Intelligence het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om pagina's en blogs samen te vatten met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. Terwijl we blijven werken aan een betere ondersteuning voor macro's, tabellen en uitbreidingen in samenvattingen, hebben we gemerkt dat het samenvatten van pagina's en blogs met behulp van Atlassian Intelligence minder zinvol is in scenario's waarbij:
We sporen je aan om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit van de antwoorden die je krijgt te beoordelen voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt voor Confluence-automatisering. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het samenvatten van pagina's en blogs:
|
Definieer termen met behulp van Atlassian Intelligence
Het definiëren van termen met Atlassian Intelligence in Confluence en Jira wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen voor analyse en om om antwoorden in natuurlijke taal te genereren in Confluence en Jira. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Een van de moeilijkste dingen aan het consumeren van inhoud in Confluence en Jira is het verkrijgen van de context die je nodig hebt om te begrijpen wat je leest. Afkortingen, acroniemen, onbekende termen en team- of projectspecifieke namen kunnen leiden tot een lange zoektocht naar de informatie die je nodig hebt. Als je termen definieert met behulp van Atlassian Intelligence, krijg je de definitie van bedrijfsspecifieke termen (zoals acroniemen, project-, systeem- en teamnamen) op een pagina in Confluence of in een probleembeschrijving in Jira. Dit geeft gebruikers de informatie die ze nodig hebben, wanneer ze die nodig hebben en dat alles terwijl teams beter kunnen samenwerken. Atlassian Intelligence kan je tijd besparen door deze dingen voor je te definiëren, zonder dat je wat je aan het lezen bent hoeft te sluiten. Als je een definitie tegenkomt die volgens jou onjuist is, kun je een definitie bewerken of een nieuwe toevoegen. Je kunt vervolgens de zichtbaarheid instellen voor die pagina of dat issue, de hele space of het project, of de toegang tot je hele organisatie. Wij zijn van mening dat het definiëren van termen met behulp van Atlassian Intelligence in Confluence en Jira het beste werkt in deze situaties:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om termen te definiëren met behulp van Atlassian Intelligence in Confluence-werk, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het definiëren van termen met Atlassian Intelligence minder nuttig is in de scenario's waarbij:
Daarnaast hebben we in Jira ook ontdekt dat, omdat je voor het definiëren van termen met behulp van Atlassian Intelligence afhankelijk bent van zoeken in Confluence, de functie alleen werkt in Jira als je toestemming hebt om een Confluence-installatie te bekijken op dezelfde site als je Jira-installatie. Mogelijk ervaar je dat het definiëren van termen met Atlassian Intelligence niet werkt zoals verwacht in Confluence-spaces en Jira-installaties die content in meerdere talen bevatten. |
We begrijpen dat je misschien vragen hebt over hoe je gegevens worden gebruikt bij het definiëren van termen met behulp van Atlassian Intelligence. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het definiëren van termen:
|
Generatieve AI in de editor
Atlassian Intelligence in bewerkingservaringen wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Atlassian Intelligence helpt bij het stimuleren van effectieve communicatie tussen alle teams in een organisatie om de efficiëntie, besluitvorming en processen te verbeteren. Wij zijn van mening dat het gebruik van Atlassian Intelligence in bewerkingservaringen het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt voor Atlassian Intelligence in bewerkingservaringen, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het minder nuttig is om Atlassian Intelligence in bewerkingservaringen te gebruiken in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij bewerkingservaringen. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, past Atlassian Intelligence de volgende maatregelen toe tijdens bewerkingservaringen:
|
De issue-herindeler wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, waaronder de GPT-reeks modellen van OpenAI. Atlassian Intelligence gebruikt dit model om natuurlijke taal in Jira te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw invoer en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Ontdek meer informatie over de mogelijkheden van de modellen van OpenAI. |
De issue-herindeler verbetert de duidelijkheid van de omschrijving van je Jira-issue door ze opnieuw in te delen met behulp van een sjabloon die is ontwikkeld door Atlassian. Deze sjabloon behandelt de soorten informatie die we gewoonlijk verwachten te zien in de omschrijving van een Jira-issue, zoals een userstory, context voor het werk en acceptatiecriteria. Wij zijn van mening dat de issue-herindeler het beste werkt in gevallen waarin je issue-omschrijvingen al nuttige informatie bevatten (zoals acceptatiecriteria of links naar bronnen), maar die informatie niet volgens een duidelijke of consistente structuur is ingedeeld. |
Het is belangrijk om te onthouden dat, vanwege de manier hoe ze werken, de modellen die de issue-herindeler aandrijven soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De omschrijving met een nieuwe indeling geeft bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop deze is gebaseerd, of het bevat mogelijk gegevens die redelijk klinken, maar onjuist of onvolledig zijn. We hebben ontdekt dat de issue-herindeler minder nuttig is in situaties waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan altijd de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Controleer en bevestig eventueel dat je issue-omschrijvingen alle relevante informatie bevatten voordat je de issue-herindeler gaat gebruiken om ze opnieuw in te delen. |
We begrijpen dat je misschien vragen hebt over hoe de issue-herindeler je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Wat je gegevens betreft, past de issue-herindeler de volgende maatregelen toe:
|
Issuegegevens samenvatten in Jira Service Management
Het samenvatten van issuegegevens met Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
In plaats van lange omschrijvingen en talloze opmerkingen over een Jira Service Management-issue te lezen, kun je Atlassian Intelligence gebruiken om deze informatie snel voor je samen te vatten. Hierdoor krijgen agents snel inzicht in de context en de voortgang van de issue en kunnen ze rap actie ondernemen en hulp bieden. We hebben ondervonden dat het samenvatten van issuegegevens met Atlassian Intelligence het beste werkt voor:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om issuegegevens samen te vatten met Atlassian Intelligence soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ondervonden dat het samenvatten van issuegegevens met Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. |
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het samenvatten van issuegegevens. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
De volgende maatregelen worden toegepast met betrekking tot je gegevens als je Atlassian Intelligence gebruikt voor het samenvatten van issuegegevens:
|
Generatieve AI in de editor
Het samenvatten van Smart Links met Atlassian Intelligence (AI) wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Als je je cursor op een Smart Link van Jira, Confluence en Google Docs plaatst, kan Atlassian Intelligence je helpen de inhoud samen te vatten. Zo kun je eenvoudig bepalen hoe waardevol de link is en bepalen welke volgende actie je wilt ondernemen. Hierdoor hoef je de pagina minder snel te verlaten en wissel je minder snel van context. Wij zijn van mening dat het samenvatten van Smart Links met AI het beste werkt wanneer je:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om het samenvatten van Smart Links met AI mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De samenvattingen die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben gemerkt dat het samenvatten van Smart Links met AI minder nuttig is wanneer je:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. |
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het samenvatten van issuegegevens. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft, worden voor het samenvatten van Smart Links met AI de volgende maatregelen gebruikt.
|
Atlassian Intelligence-antwoorden in Jira Service Management
De virtuele serviceagent van Jira Service Management wordt mogelijk gemaakt door large language models (LLM's) die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open-source LLM's (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen met zelflerende systemen. De virtuele serviceagent gebruikt deze modellen als volgt:
Hoe grote taalmodellen werken: grote taalmodellen genereren reacties op basis van jouw input en zijn op waarschijnlijkheden berust. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. De grote taalmodellen die worden gebruikt voor de virtuele serviceagent zijn onder andere de GPT-reeks van OpenAI, de Gemini-reeks van Google de Claude-reeks van Anthropic. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
De virtuele serviceagent helpt teams bij het automatiseren van supportinteracties op niveau 1, mogelijk gemaakt door een Atlassian Intelligence-machine voor gesprekken die de intentie, context en rechten analyseert en begrijpt om interacties te personaliseren. Met behulp van Atlassian Intelligence helpt de virtuele serviceagent teams hun servicedesks op te schalen en hun klanten tevreden te stellen met drie belangrijke mogelijkheden:
De virtuele serviceagent is beschikbaar in meerdere kanalen, waaronder Slack, Microsoft Teams, de Jira Service Management-portal en meer. Ontdek meer informatie over welke kanalen beschikbaar zijn voor de virtuele serviceagent. Wij zijn van mening dat de virtuele serviceagent het beste werkt in situaties waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om de virtuele serviceagent mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat de virtuele serviceagent minder nuttig is in situaties waarin:
We raden je aan om na te denken over de situaties waarin je Atlassian Intelligence zou gebruiken en de prestaties van de virtuele serviceagent te beoordelen voordat je deze inschakelt voor klanten. Ontdek meer informatie over het verbeteren van de prestaties van je virtuele serviceagent. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe de virtuele serviceagent van Jira Service Management je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft, past de virtuele serviceagent de volgende maatregelen toe:
|
Issuegegevens samenvatten met Atlassian Intelligence
AI-samenvattingen in Jira worden mogelijk gemaakt door de grote taalmodellen die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
In plaats van lange omschrijvingen en talloze opmerkingen over een Jira-issue te lezen, kun je Atlassian Intelligence gebruiken om deze informatie snel voor je samen te vatten. Hierdoor krijgen agents snel inzicht in de context en voortgang van de issue en kunnen ze snel actie ondernemen en hulp bieden. We hebben ondervonden dat het samenvatten van issuegegevens met Atlassian Intelligence het beste werkt voor issues met veel opmerkingen en/of lange opmerkingen en omschrijvingen. |
Het is belangrijk om te onthouden dat, vanwege de manier waarop ze werken, de modellen die de AI-samenvattingen in Jira aandrijven soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ondervonden dat het samenvatten van issuegegevens met Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om goed na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. |
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het samenvatten van issuegegevens. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
De volgende maatregelen worden toegepast met betrekking tot je gegevens als je Atlassian Intelligence gebruikt voor het samenvatten van issuegegevens:
|
Werk uitsplitsen met AI
Werk uitsplitsen met AI wordt mogelijk gemaakt door de grote taalmodellen die zijn ontwikkeld door OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees over de mogelijkheden van OpenAI-modellen of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Werk uitsplitsen met AI stelt onderliggende issues voor op basis van een Jira-issue die je hebt aangemaakt, waardoor het eenvoudig is om grote stukken werk op te splitsen in kleinere. Je issue wordt gebruikt als context om suggesties te genereren voor samenvattingen en omschrijvingen van onderliggende issues. We zijn van mening dat werk uitsplitsen met AI het beste werkt in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om werkzaamheden van werk uitsplitsen met AI te ondersteunen, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat werk uitsplitsen met AI minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe werk uitsplitsen met AI je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Wat je gegevens betreft, past werk uitsplitsen met AI de volgende maatregelen toe.
|
AI gebruiken om actie te stimuleren
Selecteer hieronder een Atlassian Intelligence-functie om een duidelijk overzicht te krijgen van de usecases en het gegevensgebruik.
Het aanmaken van incidenten met AI met Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Bij het escaleren van een of meer waarschuwingen of waarschuwingsgroepen naar een incident in Jira Service Management, gebruikt Incident aanmaken met AI Atlassian Intelligence om snel alle contextuele informatie vooraf in te vullen, zodat je deze kunt bekijken als onderdeel van het proces voor het aanmaken van incidenten. Zo kunnen gebruikers snel de context begrijpen van het incident dat is ontstaan op basis van die waarschuwingen of waarschuwingsgroepen, en kunnen ze vooraf ingevulde informatie, waaronder de titel, omschrijving en prioriteit van de waarschuwing, bekijken en bevestigen wanneer deze wordt geëscaleerd tot een incident. We zijn van mening dat Incident aanmaken met AI het beste werkt wanneer:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om Incident aanmaken met AI mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben gemerkt dat Incident aanmaken met AI minder nuttig is wanneer:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Om de meest bruikbare resultaten te krijgen, raden we je aan om zo specifiek mogelijk te zijn over wat je van Atlassian Intelligence vraagt. Je zou ook kunnen overwegen om zo specifiek mogelijk te zijn in wat je Atlassian Intelligence vraagt te doen. |
We begrijpen dat je misschien vragen hebt over hoe Incident aanmaken met AI je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft, worden voor het aanmaken van incidenten met AI de volgende maatregelen gebruikt:
|
Post Incident Review aanmaken
PIR (Post Incident Review) aanmaken door Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. Deze grote taalmodellen omvatten modellen uit de GPT-reeks van OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van de input van gebruikers en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
PIR's vormen een belangrijk onderdeel van het proces voor incidentmanagement en helpen incidentresponders en -managers om te leren van actuele incidenten en inzichten te delen om soortgelijke incidenten in de toekomst te voorkomen. Atlassian Intelligence versnelt de tijdrovende taak van het samenstellen van een PIR door een PIR-omschrijving voor te stellen op basis van relevante contextuele informatie in je Jira Service Management-installatie en chattools zoals Slack die je kunt bekijken. We zijn van mening dat het aanmaken van PIR met AI het beste werkt wanneer:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om het aanmaken van PIR mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het aanmaken van PIR door middel van AI minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Post Incident Review aanmaken met behulp van AI je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft, past PIR aanmaken de volgende maatregelen toe.
|
Genereer omschrijvingen van pull requests met Atlassian Intelligence
Het genereren van omschrijvingen van pull requests met Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal en codes in onze producten te analyseren en te genereren. Deze modellen genereren antwoorden op basis van jouw invoer en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Met Atlassian Intelligence kun je inhoud genereren, transformeren en samenvatten terwijl je omschrijvingen of opmerkingen van pull requests schrijft in de codebeoordelingservaring van Bitbucket Cloud. Dit omvat:
We zijn van mening dat het genereren van pull-request-omschrijvingen van Bitbucket Cloud met Atlassian Intelligence het beste werkt in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om deze functie mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het genereren van pull request-omschrijvingen van Bitbucket Cloud met Atlassian Intelligence minder goed werkt in scenario's waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe het definiëren van termen met behulp van Atlassian Intelligence in Confluence je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het genereren van pull request-omschrijvingen:
|
Genereer SQL-query's in Atlassian Analytics
Het genereren van SQL-query's met Atlassian Intelligence in Atlassian Analytics wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal te analyseren en te begrijpen, en vertaalt deze vervolgens naar gestructureerde zoekopdrachten (SQL) binnen Atlassian Analytics. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Stel Atlassian Intelligence een vraag in natuurlijke taal en laat die vertalen naar SQL, in plaats van je eigen SQL-query's helemaal opnieuw te schrijven. Nadat je een vraag hebt gesteld, gebruikt Atlassian Intelligence het Atlassian Data Lake-schema van de door jou geselecteerde gegevensbron om een SQL-query te genereren die kan worden gebruikt om diagrammen te maken op je Atlassian Analytics-dashboards, en die je ook kan helpen meer te weten te komen over het schema in de Data Lake. Wij zijn van mening dat het genereren van SQL-query's met behulp van Atlassian Intelligence het beste werkt in scenario's waarbij:
Weet je niet zeker welke vragen je moet stellen?Hier zijn enkele suggesties:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om SQL-query's te genereren met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het genereren van SQL-query's met Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het genereren van SQL-query's. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het genereren van SQL-query's.
|
Zoek antwoorden in Confluence
Het zoeken van antwoorden in Confluence met Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
De kennisdatabases groeien zo snel dat gebruikers het niet bij kunnen houden. Het zoeken naar antwoorden in Confluence met behulp van Atlassian Intelligence biedt een snellere weg naar belangrijke informatie die klanten nodig hebben om verder te kunnen met hun werk. Met deze functie kun je gemakkelijk de informatie vinden die je nodig hebt. Atlassian Intelligence begrijpt wat voor soort vragen je aan een teamgenoot zou stellen en beantwoordt ze meteen. Meer informatie over hoe je Atlassian Intelligence kunt gebruiken om antwoorden te zoeken in Confluence. Wij zijn van mening dat het zoeken naar antwoorden in Confluence met behulp van Atlassian Intelligence het beste werkt als je Confluence-site vol staat met gedetailleerde, volledige en actuele inhoud. Deze functie genereert geen nieuwe inhoud, maar doorzoekt Confluence-pagina's en -blogs (met inachtneming van de beperkingen) om een antwoord op je vraag te vinden. Atlassian Intelligence genereert antwoorden uitsluitend op basis van wat er in je Confluence-installatie staat en waar jij specifiek toegang tot hebt. Weet je niet zeker welke vragen je moet stellen?Hier zijn enkele suggesties
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het zoeken naar antwoorden in Confluence. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
De volgende maatregelen worden toegepast met betrekking tot je gegevens als je Atlassian Intelligence gebruikt voor het zoeken naar antwoorden in Confluence:
|
Zoek issues in Jira
Het zoeken van issues met Atlassian Intelligence in Jira wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal te analyseren en te begrijpen, en vertaalt deze vervolgens naar Jira Query Language-code (JQL) in onze producten. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Je kunt Atlassian Intelligence nu vragen wat je wilt in alledaagse taal in plaats van dat je complexe vragen moet stellen. Door issues te zoeken met behulp van Atlassian Intelligence, wordt je vraag vertaald in een JQL-zoekopdracht die je snel helpt bij het zoeken naar specifieke issues. Wij zijn van mening dat het zoeken naar issues met behulp van Atlassian Intelligence het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om issues te zoeken met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het zoeken naar issues met Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je zou ook kunnen overwegen om zo specifiek mogelijk te zijn in wat je Atlassian Intelligence vraagt te doen. Zorg ervoor dat je de exacte velden en waarden invult die je zoekt. |
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het zoeken naar issues. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het zoeken naar issues:
|
Werk uitsplitsen met AI
Werk uitsplitsen met AI wordt mogelijk gemaakt door de grote taalmodellen die zijn ontwikkeld door OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees over de mogelijkheden van OpenAI-modellen of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Werk uitsplitsen met AI stelt onderliggende issues voor op basis van een Jira-issue die je hebt aangemaakt, waardoor het eenvoudig is om grote stukken werk op te splitsen in kleinere. Je issue wordt gebruikt als context om suggesties te genereren voor samenvattingen en omschrijvingen van onderliggende issues. We zijn van mening dat werk uitsplitsen met AI het beste werkt in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om werkzaamheden van werk uitsplitsen met AI te ondersteunen, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat werk uitsplitsen met AI minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe werk uitsplitsen met AI je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Wat je gegevens betreft, past werk uitsplitsen met AI de volgende maatregelen toe.
|
Suggested topics in knowledge base is powered by large language models developed by OpenAI and Anthropic, as well as a combination of open-source transformer-based language models and other machine learning models. These large language models include OpenAI’s GPT series of models and Anthropic’s Claude series of models. Atlassian Intelligence uses these models to analyze and generate natural language within our products. The open-source encoder models convert your textual inputs into numerical forms (embeddings) which are used for identifying and forming topics from your inputs. Deze large language models genereren reacties op basis van jouw input en zijn op waarschijnlijkheden berust. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Read more about the capabilities of OpenAI’s models and Anthropic’s models. For more information on open-source language models, see information on Multi-QA-miniLM and E5-Multilingual. |
This feature helps admins and agents understand the gaps in their knowledge base by analyzing the service requests received in a project. This feature clearly highlights the topics for which help seekers are raising requests (based on data in the last 30 days) but there’s no existing knowledge. By suggesting topics, we want to give project admins and agents visibility into how many requests can be deflected or at least resolved with knowledge. We believe that increasing the number of knowledge articles will influence the performance of other features in Jira Service Management such as Virtual Service Agent’s AI answers. When admins or agents create articles on the suggested topics, it can also help improve the resolution rate of requests resolved using AI answers. We believe that suggested topics work best in scenarios where:
|
It’s important to remember that because of the way that the models used to power suggested topics in knowledge base work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We’ve found that suggested topics in knowledge base is less useful in scenarios where:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We understand you may have questions about how suggested topics uses your data. This section supplements the information available on our Trust Center. We verwerken het volgende:
When it comes to your data, suggested topics in knowledge base applies the following measures. Your suggested topics in knowledge base:
|
Direct inzichten verkrijgen uit je gegevens
Selecteer hieronder een Atlassian Intelligence-functie om een duidelijk overzicht te krijgen van de usecases en het gegevensgebruik.
Diagraminzichten
Chart insights worden mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Diagraminzichten maakt gebruik van Atlassian Intelligence om je meer inzicht te geven in gegevens van elk diagram in Atlassian Analytics. Dit wordt gedaan door de titel van het dashboard, de titel van het diagram en de gegevens van het diagram (waaronder kolomkoppen en rijwaarden) te gebruiken om een samenvatting in natuurlijke taal te genereren van deze diagram en de bijbehorende gegevens. Het is ook bedoeld om trends of afwijkingen te identificeren om je bepaalde inzichten in deze diagram te geven. Wij zijn van mening dat Diagraminzichten het beste werkt in scenario's waarin:
Staafdiagrammen, lijndiagrammen en staaf-lijndiagrammen werken het beste met deze functie, omdat ze meestal trends, datums en veel rijen gegevens bevatten. |
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om Diagraminzichten mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat Diagraminzichten minder nuttig zijn in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Diagraminzichten je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft, past Diagraminzichten de volgende maatregelen toe.
|
Aanvraagtypen voorstellen in Jira Service Management
Het voorstellen van aanvraagtypen met Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om input in natuurlijke taal te analyseren en aanbevelingen te genereren voor namen en beschrijvingen van aanvraagtypen binnen Jira Service Management. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Besteed minder tijd aan het uitzoeken welke aanvraagtypen je moet maken voor je project en krijg in plaats daarvan suggesties van Atlassian Intelligence. Beschrijf gewoon je werk en wat je team doorgaans beheert om te zien welke aanvraagtypen je zou kunnen indienen. Selecteer een van de suggesties die door Atlassian Intelligence zijn gegenereerd om een aanvraagtype te maken. Meer informatie over hoe je Atlassian Intelligence kunt gebruiken om aanvraagtypen voor te stellen. Wij zijn van mening dat het gebruik van Atlassian Intelligence om aanvraagtypes voor te stellen het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om aanvraagtypen voor te stellen met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het minder nuttig is om Atlassian Intelligence te gebruiken om aanvraagtypen voor te stellen in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt om aanvraagtypen voor te stellen. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt om soorten aanvragen voor te stellen.
|
Verwijzingen
Ontvang realtime statusupdates voor Atlassian-producten op onze speciale statuspagina.
Ontdek meer over Atlassian Intelligence
Begrijp hoe Atlassian klantgegevens beheert.