
Atlassian Intelligence en Rovo zijn ontworpen voor transparantie
Onze eerlijke toewijding aan open communicatie, verantwoordelijkheid en het helpen van teams om AI op een verantwoorde manier te gebruiken.
Rovo
Selecteer hieronder een Rovo-functie om een duidelijk overzicht te krijgen van de usecases en het gegevensgebruik.
Rovo Agents worden samengesteld met grote taalmodellen (LLM's, large language models) die zijn ontwikkeld door OpenAI en Google, evenals een combinatie van grote open source LLM's (waaronder de Llama-serie) en andere machine learning-modellen. Deze modellen omvatten modellen uit de GPT-serie van OpenAI en de Gemini-serie van Google. Rovo Agents gebruiken deze modellen om antwoorden op vragen te analyseren en te genereren in natuurlijke taal, en om relevante antwoorden te geven van Atlassian en aanverwante producten van derden. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van de modellen van OpenAI en de modellen van Google. Voor meer informatie over open source taalmodellen, raadpleeg je de informatie over de Llama-serie. |
Met Rovo bieden we verschillende kant-en-klare agents die je kunt gebruiken voor verschillende taken, zoals hulp bij het nemen van beslissingen, het publiceren van kennisdocumentatie en het opschonen of organiseren van werkitems in Jira. Agents zijn gespecialiseerde AI-teamgenoten die menselijke teams kunnen helpen om het werk snel en effectief uit te voeren. Je kunt dan:
Wij zijn van mening dat Rovo Agents het beste werken in situaties waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om werk van Rovo Agents te ondersteunen, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat Rovo-Agents minder nuttig zijn in situaties waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Rovo-Agents je gegevens gebruiken. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Wat je gegevens betreft, passen Rovo-Agents de volgende maatregelen toe.
De bovenstaande gegevens zijn van toepassing op de Agents die worden aangeboden door Atlassian. Raadpleeg meer informatie over Agents, aangeboden door Atlassian, de richtlijnen van gegevens, privacy en gebruik van Rovo | Rovo | Atlassian-support. Raadpleeg de Leveranciersvoorwaarden van derden voor hun apps voor meer informatie over externe Agents. Meer informatie over Atlassian Intelligence |
Rovo Chat wordt samengesteld met grote taalmodellen (LLM's, large language models) die zijn ontwikkeld door OpenAI en Google, evenals een combinatie van grote open source LLM's (waaronder de Llama-serie) en andere machine learning-modellen. Deze modellen omvatten modellen uit de GPT-serie van OpenAI en de Gemini-serie van Google. Rovo Chat gebruikt deze modellen om antwoorden op vragen te analyseren en te genereren in natuurlijke taal, en om relevante antwoorden te geven van Atlassian en aanverwante producten van derden. Antwoorden worden gegenereerd door deze grote taalmodellen op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat antwoorden van grote taalmodellen worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van de modellen van OpenAI en de modellen van Google. Voor meer informatie over open source taalmodellen, raadpleeg je de informatie over de Llama-serie. |
Met Rovo Chat heb je toegang tot de kennis van je organisatie via een gespreksinterface. Dit betekent dat je Rovo kunt vragen om dingen te schrijven, te lezen, te beoordelen of te creëren op dezelfde manier als je dat aan iemand vraagt, zonder je workflow te verstoren. Rovo Chat begrijpt de context van je werk (zowel binnen Atlassian als je aanverwante producten van derden) om vragen te beantwoorden of om ideeën of inzichten te geven. Wij zijn van mening dat Rovo Chat het beste werkt in situaties waarbij:
Rovo Chat is ook toegankelijk voor gebruikers via een Chrome-browserextensie. Meer informatie over toegang tot Rovo Chat vind je hier en hier. |
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om werk van Rovo Chat te ondersteunen, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat Rovo Chat minder nuttig is in situaties waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Rovo Chat gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Rovo Chat je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende: Je prompts (inputs) en antwoorden (outputs).
Wat je gegevens betreft, past Rovo Chat de volgende maatregelen toe.
OpenAI is een subverwerker die op onze lijst van subverwerkers staat. Deze verwerkers gebruiken je in- en output alleen voor het verwerken en uitvoeren van je aanvraag, en niet voor andere doeleinden. Deze functie volgt de rechten van je installatie. Als je bijvoorbeeld geen toegang hebt tot een specifieke Confluence-pagina, wordt er geen inhoud van die pagina voorgesteld in het antwoord dat je ontvangt. Als je niet wilt dat je inhoud beschikbaar is in het antwoord naar andere gebruikers in je installatie, overleg dan met je organisatiebeheerder om ervoor te zorgen dat je rechten juist zijn ingesteld. Als je Rovo Chat opent via de Chrome-browserextensie, leest Chat alleen de inhoud op de webpagina die je bekijkt als aanvulling op de inhoud die zich al in je Atlassian-producten bevindt. Er worden geen aanvullende gegevens van de webpagina opgeslagen. Meer informatie over Atlassian Intelligence Ontdek meer over het gebruik van Atlassian Intelligence |
Rovo-zoeken maakt gebruik van Atlassian Intelligence om de zoekmogelijkheden binnen Atlassian en tools van derden te verbeteren. Rovo-zoeken wordt samengesteld met grote taalmodellen (LLM's, large language models) die zijn ontwikkeld door OpenAI en Google, evenals een combinatie van grote open source LLM's (waaronder de Llama-serie) en andere machine learning-modellen. Deze modellen omvatten modellen uit de GPT-serie van OpenAI en de Gemini-serie van Google. Rovo-zoeken gebruikt deze modellen om functies te bieden zoals semantisch zoeken, relevantierangschikking en natuurlijke taalverwerking. Dit omvat het analyseren en genereren van antwoorden op zoekopdrachten in natuurlijke taal, en het geven van relevante antwoorden op basis van antwoorden van Atlassian en verbonden externe producten. Antwoorden worden gegenereerd door deze grote taalmodellen op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat antwoorden van grote taalmodellen worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van de modellen van OpenAI en de modellen van Google. Voor meer informatie over open source taalmodellen, raadpleeg je de informatie over de Llama-serie. |
Met Rovo-zoeken kunnen gebruikers zoeken binnen meerdere tools en platforms, waaronder Atlassian-producten en verbonden externe producten, wat contextuele en relevante resultaten oplevert om de samenwerking en productiviteit van teams te verbeteren. Wij zijn van mening dat Rovo-zoeken het beste werkt in situaties waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om werk van Rovo-zoeken te ondersteunen, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat Rovo-zoeken minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Rovo gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Rovo-zoeken je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Wat je gegevens betreft, past Rovo-zoeken de volgende maatregelen toe.
Meer informatie over Atlassian Intelligence Wat is Atlassian Intelligence? | Atlassian-support Rovo: verkrijg organisatorische kennis met GenAI | Atlassian |
Sneller werken met AI
Selecteer hieronder een Atlassian Intelligence-functie om een duidelijk overzicht te krijgen van de usecases en het gegevensgebruik.
- AI ChatOps voor incidentmanagement
- AI-concepten
- AI-samenvattingen in bedrijfshubkaarten
- AI-gerelateerde resources
- AI-suggesties
- Automatisering
- Groepering van waarschuwingen
- Korte samenvatting van Confluence
- Voorwaarden definiëren
- Generatieve AI in de editor
- Werkitemherindeler
- Werkitemgegevens samenvatten
- Smart Links samenvatten
- Virtuele serviceagent
- Werkitemgegevens samenvatten met Atlassian Intelligence
- Werk uitsplitsen met AI
- AI ChatOps voor incidentmanagement
- AI-concepten
- AI-samenvattingen in bedrijfshubkaarten
- AI-gerelateerde resources
- AI-suggesties
- Automatisering
- Groepering van waarschuwingen
- Korte samenvatting van Confluence
- Voorwaarden definiëren
- Generatieve AI in de editor
- Werkitemherindeler
- Werkitemgegevens samenvatten
- Smart Links samenvatten
- Virtuele serviceagent
- Werkitemgegevens samenvatten met Atlassian Intelligence
- Werk uitsplitsen met AI
Automatisering met behulp van Atlassian Intelligence
De functies van AI ChatOps voor incidentmanagement worden mogelijk gemaakt door large language models (LLM's) die zijn ontwikkeld door OpenAI, evenals een combinatie van grote open-source LLM's (waaronder de Llama-serie en de Phi-serie) en andere modellen met zelflerende systemen. Deze large language models omvatten modellen uit de GPT-reeks van OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze large language models genereren reacties op basis van jouw input en zijn op waarschijnlijkheden berust. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoekspapers van OpenAI. Voor meer informatie over open-source taalmodellen, raadpleeg je de informatie over de Llama-serie en de Phi-serie. |
Met AI ChatOps voor incidentmanagement kunnen je gebruikers het proces voor incidentoplossing versnellen door nieuwe gebruikers een samenvatting te geven van het relevante incident en alle gesprekken daarover tot nu toe. Gebruikers krijgen deze informatie wanneer ze worden toegevoegd aan het Slack-kanaal dat is gekoppeld aan het incidentwerkitem in Jira Service Management. Bovendien kan AI ChatOps voor incidentmanagement de gesprekken uit Slack in Jira Service Management loggen als tijdlijn voor toekomstig gebruik. Wij zijn van mening dat AI ChatOps voor incidentmanagement het beste werkt in situaties waarin:
|
Vergeet niet dat vanwege de manier waarop de modellen worden gebruikt om AI ChatOps voor incidentmanagement aan te drijven, deze modellen soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat AI ChatOps voor incidentmanagement minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je AI ChatOps voor incidentmanagement gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de reacties die je krijgt voordat je deze met anderen deelt. Je kunt overwegen om de rechten te herzien om ervoor te zorgen dat gebruikers voldoende toegang hebben tot relevante incidentwerkitems en Slack-kanalen. |
We begrijpen dat je misschien vragen hebt over hoe AI ChatOps voor incidentmanagement je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft past AI ChatOps voor incidentmanagement de volgende maatregelen toe:
|
AI-concepten worden mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI en Anthropic, evenals een combinatie van open-source, op transformatoren gebaseerde taalmodellen en andere modellen voor een zelflerend systeem. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI en de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. De open source versleutelingsmodellen zetten je tekstuele invoer om in numerieke vormen (integraties) die worden gebruikt om onderwerpen te identificeren en te vormen op basis van je invoer. Deze large language models genereren reacties op basis van jouw input en zijn op waarschijnlijkheden berust. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van de modellen van OpenAI en de modellen van Anthropic. Raadpleeg de informatie over de insluitingsmodellen voor meer informatie over open source taalmodellen. |
AI-concepten suggereren vooraf gegenereerde concepten van kennisartikelen die je beheerders en agents kunnen overwegen. Deze functie genereert concepten voor de meest voorkomende werkitems in een Jira Service Management-project, waarbij gebruik wordt gemaakt van de gegevens en opmerkingen in de werkitems in dat project. Hierdoor kunnen je serviceteams sneller en gemakkelijker meer artikelen uit je kennisdatabase behandelen, wat op zijn beurt de prestaties van andere functies in Jira Service Management ten goede zal komen. Kennisartikelen die zijn aangemaakt met AI-concepten kunnen vervolgens worden gebruikt door de functie AI-antwoorden van de virtuele serviceagent om aanvragen van je hulpzoekers gemakkelijker en sneller op te lossen. Lees meer over AI-antwoorden voor een virtuele serviceagent. We zijn van mening dat AI-concepten het beste werken in situaties waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om werk van AI-concepten te ondersteunen, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat AI-concepten minder nuttig zijn in situaties waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe AI-concepten je gegevens gebruiken. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Met betrekking tot je gegevens passen AI-concepten de volgende maatregelen toe.
|
AI-samenvattingen in bedrijfshubkaarten worden mogelijk gemaakt door de grote taalmodellen die zijn ontwikkeld door OpenAI. Deze grote taalmodellen omvatten modellen uit de GPT-reeks van OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Ontdek meer informatie over de mogelijkheden van de modellen van OpenAI. |
Met AI-samenvattingen in bedrijfshubkaarten kun je snel je bedrijfshub vullen en publiceren. Ook stelt deze door AI gegenereerde omschrijvingen voor kaarten voor. Deze functie maakt gebruik van Atlassian Intelligence om een samenvatting te genereren van de gekoppelde Confluence-pagina of blogpost voor je bedrijfshubkaart. We zijn van mening dat AI-samenvattingen in bedrijfshubkaarten het beste werken in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om AI-samenvattingen in bedrijfshubkaarten mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat AI-samenvattingen in bedrijfshubkaarten minder nuttig zijn in scenario's waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. |
We begrijpen dat je misschien vragen hebt over hoe je gegevens worden gebruikt bij AI-samenvattingen in bedrijfshubkaarten. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Met betrekking tot je gegevens past AI-samenvattingen in bedrijfshubkaarten de volgende maatregelen toe.
|
AI-gerelateerde resources worden samengesteld met large language models (LLM's) die zijn ontwikkeld door OpenAI, evenals een combinatie van grote open-source LLM's (waaronder de Llama-serie en de Phi-serie) en andere modellen met zelflerende systemen. Deze large language models omvatten modellen uit de GPT-reeks van OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren, en om relevante antwoorden te geven vanuit Atlassian en gekoppelde producten van derden. Deze large language models genereren reacties op basis van jouw input en zijn op waarschijnlijkheden berust. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen of over deze aanpak in de onderzoekspapers van OpenAI. Voor meer informatie over open-source taalmodellen, raadpleeg je de informatie over de Llama-serie en de Phi-serie. |
Met Atlassian Intelligence kunnen je gebruikers het proces van incidentoplossing versnellen door een lijst met middelen samen te stellen die ze kunnen raadplegen in je gekoppelde kennisdatabase-spaces en -artikelen, Jira-werkitems en (als je een Rovo-klant bent) alle externe producten die je via Rovo hebt geïntegreerd. Meer informatie over Rovo en externe tools. Wij zijn van mening dat AI-gerelateerde resources het beste werken in situaties waarin:
|
Vergeet niet dat vanwege de manier waarop de modellen worden gebruikt om AI-gerelateerde resources aan te drijven, deze modellen soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat AI-gerelateerde resources minder nuttig zijn in situaties waarin:
Daarom willen we je aansporen om de situaties waarin je Atlassian Intelligence gebruikt te overdenken. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Overweeg ook het volgende:
|
We begrijpen dat je misschien vragen hebt over hoe AI-gerelateerde resources je gegevens gebruiken. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft, passen AI-gerelateerde resources de volgende maatregelen toe:
|
AI-suggesties in Jira Service Management worden mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI en andere modellen met een zelflerend systeem. Deze grote taalmodellen omvatten modellen uit de GPT-reeks van OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze grote taalmodellen genereren reacties op basis van jouw input en zijn op waarschijnlijkheden berust. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Ontdek meer informatie over de mogelijkheden van de modellen van OpenAI. |
Met AI-suggesties in Jira Service Management kan je team snel aan de slag door belangrijke context over je serviceaanvragen en incidenten in één oogopslag te verzamelen. Atlassian Intelligence helpt je team om:
AI-suggesties in Jira Service Management kunnen agents ook aanbevelen om een aanvraag of incident te escaleren wanneer de toepasselijke SLA dreigt te worden geschonden. In het geval van serviceaanvragen kan deze functie ook suggereren dat agents die aanvraag escaleren wanneer de modellen die worden gebruikt om deze suggesties mogelijk te maken, op basis van de opmerkingen van de auteur, een gevoel van urgentie of boosheid identificeren in de aanvraag. Wij zijn van mening dat AI-suggesties in Jira Service Management het beste werken in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om AI-suggesties in Jira Service Management mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ondervonden dat AI-suggesties in Jira Service Management minder nuttig zijn in scenario's waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe AI-suggesties in Jira Service Management je gegevens gebruiken. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Met betrekking tot je gegevens past AI-suggesties de volgende maatregelen toe.
|
Automatisering met Atlassian Intelligence wordt mogelijk gemaakt door large language models (LLM's) die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open-source LLM's (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze large language models omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om de natuurlijke taalinvoer te analyseren en automatiseringsregels voor je te genereren binnen Jira en Confluence. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Automatiseringsregels aanmaken is essentieel voor de dagelijkse automatiseringservaring. We willen dit nog gemakkelijker voor je maken door Atlassian Intelligence toe te voegen aan de samensteller voor automatiseringsregels in Jira en Confluence. Nu kun je eenvoudig automatiseringsregels aanmaken door simpelweg in te voeren wat je wilt automatiseren. Atlassian Intelligence doet vervolgens het zware werk om de regel voor je aan te maken. Meer informatie over automatisering met behulp van Atlassian Intelligence voor Jira en voor Confluence. We zijn ervan overtuigd dat het gebruik van automatisering met behulp van Atlassian Intelligence voor Jira en Confluence het beste werkt in scenario's wanneer je niet zeker weet hoe je van start gaat of wanneer je het aanmaken van regels wilt versnellen. Weet je niet zeker hoe je het beste een automatiseringsregel aanmaakt?Automatiseringsregels worden aangemaakt door een combinatie van verschillende soorten componenten: triggers, acties, voorwaarden en branches. Je kunt componenten zien als de bouwsteen van een regel. Om een effectieve regel aan te maken met Atlassian Intelligence, moet je regel ten minste zowel een trigger als een actie bevatten. Bijvoorbeeld: In Jira: Zoek elke maandag alle taken met een vervaldatum in de komende 7 dagen en stuur de uitvoerder ervan een herinneringse-mail. Als een ticket naar Testen gaat, wijs het ticket dan toe aan John Smith. In Confluence:
Bovendien moeten, om een effectieve regel aan te maken, alle componenten ervan worden ondersteund door automatisering met behulp van Atlassian Intelligence. Dit betekent dat alle triggers, acties, voorwaarden of branches in je regel compatibel moeten zijn met automatisering in Jira en/of Confluence. |
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om automatisering aan te drijven met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat automatisering met behulp van Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Automatisering met behulp van Atlassian Intelligence werkt alleen met de bestaande set beschikbare automatiseringscomponenten in Jira en Confluence. Je zou ook kunnen overwegen om zo specifiek mogelijk te zijn over wat je Atlassian Intelligence vraagt te doen, zoals hierboven beschreven. |
We begrijpen dat je misschien vragen hebt over hoe automatisering met behulp van Atlassian Intelligence je gegevens gebruikt bij het zoeken naar issues. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor Confluence-automatisering:
Alle externe LLM-providers zijn subverwerkers en worden zo vermeld op onze pagina Subverwerkers. Deze verwerkers gebruiken je in- en outputs alleen voor het verwerken van je aanvraag en niet voor andere doeleinden. Deze functie volgt de rechten van je installatie. Als je bijvoorbeeld geen toegang hebt tot een specifiek project of pagina, wordt er geen inhoud van die assets voorgesteld in het antwoord dat je ontvangt. Als je niet wilt dat je inhoud beschikbaar is in het antwoord naar andere gebruikers in je installatie, overleg dan met je organisatiebeheerder om ervoor te zorgen dat je rechten juist zijn ingesteld. |
Groepering van waarschuwingen
Waarschuwingsgroepering door Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI en Google. Deze modellen omvatten een algoritme dat is ontworpen om patronen in waarschuwingsgegevens te identificeren, en modellen uit de GPT-serie van OpenAI en de modellen uit de Gemini-serie van Google. Atlassian Intelligence gebruikt deze modellen van zelflerende systemen voor het analyseren en genereren van waarschuwingsgroepen, en om gerelateerde suggesties te geven (eerdere waarschuwingsgroepen en -respondenten) binnen onze producten op basis van de overeenkomst tussen de inhoud van de waarschuwing of van de gebruikte tags. Vervolgens gebruikt Atlassian Intelligence grote taalmodellen om omschrijvingen en inhoud in natuurlijke taal te analyseren en te genereren voor deze groepen binnen onze producten. Deze grote taalmodellen genereren reacties op basis van jouw input en zijn probabilistisch. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze de modellen zijn getraind. Lees meer over de mogelijkheden van de modellen van OpenAI en de modellen van Google. |
Groepering van waarschuwingen maakt gebruik van Atlassian Intelligence om soortgelijke waarschuwingen te identificeren en te groeperen. Het helpt je ook door eerdere soortgelijke waarschuwingsgroepen en -respondenten (of respondententeams) te identificeren en aan te bevelen, op basis van de semantische overeenkomst van de waarschuwingsinhoud of gebruikte tags. Als je de waarschuwingsgroep naar een incident wilt laten escaleren, wordt bij het groeperen van waarschuwingen ook alle contextuele informatie vooraf ingevuld, zodat je deze kunt bekijken als onderdeel van het aanmaakproces van incidenten. We zijn van mening dat waarschuwingen groeperen het beste werkt in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om groeperen van waarschuwingen mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. In het geval van de waarschuwingsgroepen die je ziet, geven ze mogelijk niet precies de semantische overeenkomst van hun tags weer. We hebben ontdekt dat groepering van waarschuwingen minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je zou ook kunnen overwegen om te zorgen dat jij en je team consistente werkwijzen volgen bij het gebruik van waarschuwingstags. |
We begrijpen dat je misschien vragen hebt over hoe je gegevens worden gebruikt bij het groeperen van waarschuwingen. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
We verwerken je waarschuwingsgegevens om een versie van het model zelflerend systeem te trainen om patronen te herkennen die specifiek zijn voor je meldingen. Deze versie wordt enkel gebruikt om je ervaring te tonen:
Wat je gegevens betreft, past het groeperen van waarschuwingen de volgende maatregelen toe:
|
Pagina's en blogs samenvatten met behulp van Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI en Google. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI en de Gemini-serie van Google. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van de modellen van OpenAI en de modellen van Google. |
Bespaar tijd en verkrijg de informatie die je nodig hebt om je werk sneller te doen door een korte samenvatting van een Confluence-pagina of -blog te genereren met behulp van Atlassian Intelligence. Meer informatie over het gebruik van Atlassian Intelligence in Confluence. Wij zijn van mening dat het samenvatten van pagina's en blogs met behulp van Atlassian Intelligence het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om pagina's en blogs samen te vatten met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. Terwijl we blijven werken aan een betere ondersteuning voor macro's, tabellen en uitbreidingen in samenvattingen, hebben we gemerkt dat het samenvatten van pagina's en blogs met behulp van Atlassian Intelligence minder zinvol is in scenario's waarbij:
We sporen je aan om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit van de antwoorden die je krijgt te beoordelen voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt voor Confluence-automatisering. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het samenvatten van pagina's en blogs:
|
Definieer termen met behulp van Atlassian Intelligence
Het definiëren van termen met Atlassian Intelligence in Confluence en Jira wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen voor analyse en om om antwoorden in natuurlijke taal te genereren in Confluence en Jira. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Een van de moeilijkste dingen aan het consumeren van inhoud in Confluence en Jira is het verkrijgen van de context die je nodig hebt om te begrijpen wat je leest. Afkortingen, acroniemen, onbekende termen en team- of projectspecifieke namen kunnen leiden tot een lange zoektocht naar de informatie die je nodig hebt. Als je termen definieert met behulp van Atlassian Intelligence, krijg je de definitie van bedrijfsspecifieke termen (zoals acroniemen, project-, systeem- en teamnamen) op een pagina in Confluence of in een werkitemomschrijving in Jira. Dit geeft gebruikers de informatie die ze nodig hebben, wanneer ze die nodig hebben en dat alles terwijl teams beter kunnen samenwerken. Atlassian Intelligence kan je tijd besparen door deze dingen voor je te definiëren, zonder dat je wat je aan het lezen bent hoeft te sluiten. Als je een definitie tegenkomt die volgens jou onjuist is, kun je een definitie bewerken of een nieuwe toevoegen. Je kunt vervolgens de zichtbaarheid instellen voor die pagina of dat werkitem, de hele space of het project, of de toegang tot je hele organisatie. Wij zijn van mening dat het definiëren van termen met behulp van Atlassian Intelligence in Confluence en Jira het beste werkt in deze situaties:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om termen te definiëren met behulp van Atlassian Intelligence in Confluence-werk, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het definiëren van termen met Atlassian Intelligence minder nuttig is in de scenario's waarbij:
Daarnaast hebben we in Jira ook ontdekt dat, omdat je voor het definiëren van termen met behulp van Atlassian Intelligence afhankelijk bent van zoeken in Confluence, de functie alleen werkt in Jira als je toestemming hebt om een Confluence-installatie te bekijken op dezelfde site als je Jira-installatie. Mogelijk ervaar je dat het definiëren van termen met Atlassian Intelligence niet werkt zoals verwacht in Confluence-spaces en Jira-installaties die content in meerdere talen bevatten. |
We begrijpen dat je misschien vragen hebt over hoe je gegevens worden gebruikt bij het definiëren van termen met behulp van Atlassian Intelligence. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het definiëren van termen:
|
Generatieve AI in de editor
Atlassian Intelligence in bewerkervaringen wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI en de Gemini-serie van Google. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van de modellen van OpenAI en de modellen van Google. |
Atlassian Intelligence helpt bij het stimuleren van effectieve communicatie tussen alle teams in een organisatie om de efficiëntie, besluitvorming en processen te verbeteren. Wij zijn van mening dat het gebruik van Atlassian Intelligence in bewerkingservaringen het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt voor Atlassian Intelligence in bewerkingservaringen, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het minder nuttig is om Atlassian Intelligence in bewerkingservaringen te gebruiken in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij bewerkingservaringen. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, past Atlassian Intelligence de volgende maatregelen toe tijdens bewerkingservaringen:
|
De werkitemherindeler wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, waaronder de GPT-reeks modellen van OpenAI. Atlassian Intelligence gebruikt dit model om natuurlijke taal in Jira te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw invoer en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Ontdek meer informatie over de mogelijkheden van de modellen van OpenAI. |
De werkitemherindeler verbetert de duidelijkheid van de omschrijving van je Jira-werkitem door ze opnieuw in te delen met behulp van een sjabloon die is ontwikkeld door Atlassian. Deze sjabloon behandelt de soorten informatie die we gewoonlijk verwachten te zien in de omschrijving van een Jira-werkitem, zoals een userstory, context voor het werk en acceptatiecriteria. We zijn van mening dat de werkitemherindeler het beste werkt in gevallen waarin je werkitemomschrijvingen al nuttige informatie bevatten (zoals acceptatiecriteria of links naar bronnen), maar die informatie niet volgens een duidelijke of consistente structuur is ingedeeld. |
Het is belangrijk om te onthouden dat, vanwege de manier hoe ze werken, de modellen die de werkitemherindeler aandrijven soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De omschrijving met een nieuwe indeling geeft bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop deze is gebaseerd, of het bevat mogelijk gegevens die redelijk klinken, maar onjuist of onvolledig zijn. We hebben ontdekt dat de werkitemherindeler minder nuttig is in situaties waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan altijd de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Controleer en bevestig eventueel dat je werkitemomschrijvingen alle relevante informatie bevatten voordat je de werkitemherindeler gaat gebruiken om ze opnieuw in te delen. |
We begrijpen dat je misschien vragen hebt over hoe de werkitemherindeler je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Wat je gegevens betreft, past de werkitemherindeler de volgende maatregelen toe:
|
Werkitemgegevens samenvatten in Jira Service Management
Werkitemgegevens samenvatten met behulp van Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI en Google. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI en de Gemini-serie van Google. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van de modellen van OpenAI en de modellen van Google. |
In plaats van lange omschrijvingen en talloze opmerkingen over een Jira Service Management-werkitem te lezen, kun je Atlassian Intelligence gebruiken om deze informatie snel voor je samen te vatten. Hierdoor krijgen agents snel inzicht in de context en voortgang van het werkitem en kunnen ze snel actie ondernemen en hulp bieden. We hebben ondervonden dat het samenvatten van werkitemgegevens met Atlassian Intelligence het beste werkt voor:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om werkitemgegevens samen te vatten met Atlassian Intelligence soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ondervonden dat het samenvatten van werkitemgegevens met Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. |
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het samenvatten van werkitemgegevens. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze pagina met veelgestelde vragen. We verwerken het volgende:
De volgende maatregelen worden toegepast met betrekking tot je gegevens als je Atlassian Intelligence gebruikt voor het samenvatten van werkitemgegevens:
|
Generatieve AI in de editor
Het samenvatten van Smart Links met Atlassian Intelligence (AI) wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Als je je cursor op een Smart Link van Jira, Confluence en Google Docs plaatst, kan Atlassian Intelligence je helpen de inhoud samen te vatten. Zo kun je eenvoudig bepalen hoe waardevol de link is en bepalen welke volgende actie je wilt ondernemen. Hierdoor hoef je de pagina minder snel te verlaten en wissel je minder snel van context. Wij zijn van mening dat het samenvatten van Smart Links met AI het beste werkt wanneer je:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om het samenvatten van Smart Links met AI mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De samenvattingen die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben gemerkt dat het samenvatten van Smart Links met AI minder nuttig is wanneer je:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. |
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het samenvatten van werkitemgegevens. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft, worden voor het samenvatten van Smart Links met AI de volgende maatregelen gebruikt.
|
Atlassian Intelligence-antwoorden in Jira Service Management
De virtuele serviceagent van Jira Service Management wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI en Google, en open source grote taalmodellen (waaronder de Llama-serie). De virtuele serviceagent gebruikt deze modellen als volgt:
Hoe grote taalmodellen werken: grote taalmodellen genereren reacties op basis van jouw input en zijn op waarschijnlijkheden berust. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. De grote taalmodellen die worden gebruikt voor de virtuele serviceagent zijn onder andere de GPT-serie van OpenAI en de Gemini-serie van Google. Lees meer over de mogelijkheden van de modellen van OpenAI en de modellen van Google. Voor meer informatie over open source taalmodellen, raadpleeg je de informatie over de Llama-serie. |
De virtuele serviceagent helpt teams bij het automatiseren van supportinteracties op niveau 1, mogelijk gemaakt door een Atlassian Intelligence-machine voor gesprekken die de intentie, context en rechten analyseert en begrijpt om interacties te personaliseren. Met behulp van Atlassian Intelligence helpt de virtuele serviceagent teams hun servicedesks op te schalen en hun klanten tevreden te stellen met drie belangrijke mogelijkheden:
De virtuele serviceagent is beschikbaar in meerdere kanalen, waaronder Slack, Microsoft Teams, de Jira Service Management-portal en meer. Ontdek meer informatie over welke kanalen beschikbaar zijn voor de virtuele serviceagent. Wij zijn van mening dat de virtuele serviceagent het beste werkt in situaties waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om de virtuele serviceagent mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat de virtuele serviceagent minder nuttig is in situaties waarin:
We raden je aan om na te denken over de situaties waarin je Atlassian Intelligence zou gebruiken en de prestaties van de virtuele serviceagent te beoordelen voordat je deze inschakelt voor klanten. Ontdek meer informatie over het verbeteren van de prestaties van je virtuele serviceagent. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe de virtuele serviceagent van Jira Service Management je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft, past de virtuele serviceagent de volgende maatregelen toe:
|
Werkitemgegevens samenvatten met Atlassian Intelligence
AI-samenvattingen in Jira worden mogelijk gemaakt door de grote taalmodellen die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
In plaats van lange omschrijvingen en talloze opmerkingen over een Jira-werkitem te lezen, kun je Atlassian Intelligence gebruiken om deze informatie snel voor je samen te vatten. Hierdoor krijgen agents snel inzicht in de context en voortgang van het werkitem en kunnen ze snel actie ondernemen en hulp bieden. We hebben ondervonden dat het samenvatten van werkitemgegevens met Atlassian Intelligence het beste werkt voor werkitems met veel opmerkingen en/of lange opmerkingen en omschrijvingen. |
Het is belangrijk om te onthouden dat, vanwege de manier waarop ze werken, de modellen die de AI-samenvattingen in Jira aandrijven soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ondervonden dat het samenvatten van werkitemgegevens met Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om goed na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. |
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het samenvatten van werkitemgegevens. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
De volgende maatregelen worden toegepast met betrekking tot je gegevens als je Atlassian Intelligence gebruikt voor het samenvatten van werkitemgegevens:
|
Werk uitsplitsen met AI
Werk uitsplitsen met AI wordt mogelijk gemaakt door de grote taalmodellen die zijn ontwikkeld door OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees over de mogelijkheden van OpenAI-modellen of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Werk uitsplitsen met AI stelt onderliggende werkitems voor op basis van een Jira-werkitem dat je hebt aangemaakt, waardoor het eenvoudig is om grote stukken werk op te splitsen in kleinere. Je werkitem wordt gebruikt als context om suggesties te genereren voor samenvattingen en omschrijvingen van onderliggende werkitems. We zijn van mening dat werk uitsplitsen met AI het beste werkt in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om werkzaamheden van werk uitsplitsen met AI te ondersteunen, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat werk uitsplitsen met AI minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe werk uitsplitsen met AI je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Wat je gegevens betreft, past werk uitsplitsen met AI de volgende maatregelen toe.
|
AI gebruiken om actie te stimuleren
Selecteer hieronder een Atlassian Intelligence-functie om een duidelijk overzicht te krijgen van de usecases en het gegevensgebruik.
Het aanmaken van incidenten met AI met Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Bij het escaleren van een of meer waarschuwingen of waarschuwingsgroepen naar een incident in Jira Service Management, gebruikt Incident aanmaken met AI Atlassian Intelligence om snel alle contextuele informatie vooraf in te vullen, zodat je deze kunt bekijken als onderdeel van het proces voor het aanmaken van incidenten. Zo kunnen gebruikers snel de context begrijpen van het incident dat is ontstaan op basis van die waarschuwingen of waarschuwingsgroepen, en kunnen ze vooraf ingevulde informatie, waaronder de titel, omschrijving en prioriteit van de waarschuwing, bekijken en bevestigen wanneer deze wordt geëscaleerd tot een incident. We zijn van mening dat Incident aanmaken met AI het beste werkt wanneer:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om Incident aanmaken met AI mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben gemerkt dat Incident aanmaken met AI minder nuttig is wanneer:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Om de meest bruikbare resultaten te krijgen, raden we je aan om zo specifiek mogelijk te zijn over wat je van Atlassian Intelligence vraagt. Je zou ook kunnen overwegen om zo specifiek mogelijk te zijn in wat je Atlassian Intelligence vraagt te doen. |
We begrijpen dat je misschien vragen hebt over hoe Incident aanmaken met AI je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft, worden voor het aanmaken van incidenten met AI de volgende maatregelen gebruikt:
|
Post Incident Review aanmaken
PIR (Post Incident Review) aanmaken door Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. Deze grote taalmodellen omvatten modellen uit de GPT-reeks van OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van de input van gebruikers en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
PIR's vormen een belangrijk onderdeel van het proces voor incidentmanagement en helpen incidentresponders en -managers om te leren van actuele incidenten en inzichten te delen om soortgelijke incidenten in de toekomst te voorkomen. Atlassian Intelligence versnelt de tijdrovende taak van het samenstellen van een PIR door een PIR-omschrijving voor te stellen op basis van relevante contextuele informatie in je Jira Service Management-installatie en chattools zoals Slack die je kunt bekijken. We zijn van mening dat het aanmaken van PIR met AI het beste werkt wanneer:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om het aanmaken van PIR mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het aanmaken van PIR door middel van AI minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Post Incident Review aanmaken met behulp van AI je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft, past PIR aanmaken de volgende maatregelen toe.
|
Genereer omschrijvingen van pull requests met Atlassian Intelligence
Het genereren van omschrijvingen van pull requests met Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal en codes in onze producten te analyseren en te genereren. Deze modellen genereren antwoorden op basis van jouw invoer en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Met Atlassian Intelligence kun je inhoud genereren, transformeren en samenvatten terwijl je omschrijvingen of opmerkingen van pull requests schrijft in de codebeoordelingservaring van Bitbucket Cloud. Dit omvat:
We zijn van mening dat het genereren van pull-request-omschrijvingen van Bitbucket Cloud met Atlassian Intelligence het beste werkt in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om deze functie mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het genereren van pull request-omschrijvingen van Bitbucket Cloud met Atlassian Intelligence minder goed werkt in scenario's waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe het definiëren van termen met behulp van Atlassian Intelligence in Confluence je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het genereren van pull request-omschrijvingen:
|
Genereer SQL-query's in Atlassian Analytics
Het genereren van SQL-query's met Atlassian Intelligence in Atlassian Analytics wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal te analyseren en te begrijpen, en vertaalt deze vervolgens naar gestructureerde zoekopdrachten (SQL) binnen Atlassian Analytics. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Stel Atlassian Intelligence een vraag in natuurlijke taal en laat die vertalen naar SQL, in plaats van je eigen SQL-query's helemaal opnieuw te schrijven. Nadat je een vraag hebt gesteld, gebruikt Atlassian Intelligence het Atlassian Data Lake-schema van de door jou geselecteerde gegevensbron om een SQL-query te genereren die kan worden gebruikt om diagrammen te maken op je Atlassian Analytics-dashboards, en die je ook kan helpen meer te weten te komen over het schema in de Data Lake. Wij zijn van mening dat het genereren van SQL-query's met behulp van Atlassian Intelligence het beste werkt in scenario's waarbij:
Weet je niet zeker welke vragen je moet stellen?Hier zijn enkele suggesties:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om SQL-query's te genereren met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het genereren van SQL-query's met Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het genereren van SQL-query's. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het genereren van SQL-query's.
|
Zoek antwoorden in Confluence
Het zoeken van antwoorden in Confluence met Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
De kennisdatabases groeien zo snel dat gebruikers het niet bij kunnen houden. Het zoeken naar antwoorden in Confluence met behulp van Atlassian Intelligence biedt een snellere weg naar belangrijke informatie die klanten nodig hebben om verder te kunnen met hun werk. Met deze functie kun je gemakkelijk de informatie vinden die je nodig hebt. Atlassian Intelligence begrijpt wat voor soort vragen je aan een teamgenoot zou stellen en beantwoordt ze meteen. Meer informatie over hoe je Atlassian Intelligence kunt gebruiken om antwoorden te zoeken in Confluence. Wij zijn van mening dat het zoeken naar antwoorden in Confluence met behulp van Atlassian Intelligence het beste werkt als je Confluence-site vol staat met gedetailleerde, volledige en actuele inhoud. Deze functie genereert geen nieuwe inhoud, maar doorzoekt Confluence-pagina's en -blogs (met inachtneming van de beperkingen) om een antwoord op je vraag te vinden. Atlassian Intelligence genereert antwoorden uitsluitend op basis van wat er in je Confluence-installatie staat en waar jij specifiek toegang tot hebt. Weet je niet zeker welke vragen je moet stellen?Hier zijn enkele suggesties
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het zoeken naar antwoorden in Confluence. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
De volgende maatregelen worden toegepast met betrekking tot je gegevens als je Atlassian Intelligence gebruikt voor het zoeken naar antwoorden in Confluence:
|
Werkitems zoeken in Jira
Het zoeken van werkitems met Atlassian Intelligence in Jira wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze large language models omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal te analyseren en te begrijpen, en vertaalt deze vervolgens naar Jira Query Language-code (JQL) in onze producten. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Je kunt Atlassian Intelligence nu vragen wat je wilt in alledaagse taal in plaats van dat je complexe vragen moet stellen. Door werkitems te zoeken met behulp van Atlassian Intelligence, wordt je vraag vertaald in een JQL-zoekopdracht die je snel helpt bij het zoeken naar specifieke werkitems. Wij zijn van mening dat het zoeken naar werkitems met behulp van Atlassian Intelligence het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om werkitems te zoeken met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het zoeken naar werkitems met Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je zou ook kunnen overwegen om zo specifiek mogelijk te zijn in wat je Atlassian Intelligence vraagt te doen. Zorg ervoor dat je de exacte velden en waarden invult die je zoekt. |
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt bij het zoeken naar werkitems. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt voor het zoeken naar werkitems:
|
Werk uitsplitsen met AI
Werk uitsplitsen met AI wordt mogelijk gemaakt door de grote taalmodellen die zijn ontwikkeld door OpenAI. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees over de mogelijkheden van OpenAI-modellen of over deze aanpak, in de onderzoeksdocumenten van OpenAI. |
Werk uitsplitsen met AI stelt onderliggende werkitems voor op basis van een Jira-werkitem dat je hebt aangemaakt, waardoor het eenvoudig is om grote stukken werk op te splitsen in kleinere. Je werkitem wordt gebruikt als context om suggesties te genereren voor samenvattingen en omschrijvingen van onderliggende werkitems. We zijn van mening dat werk uitsplitsen met AI het beste werkt in scenario's waarin:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om werkzaamheden van werk uitsplitsen met AI te ondersteunen, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat werk uitsplitsen met AI minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe werk uitsplitsen met AI je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Wat je gegevens betreft, past werk uitsplitsen met AI de volgende maatregelen toe.
|
De voorgestelde onderwerpen in de kennisdatabase worden mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI en Anthropic, evenals een combinatie van open-source, op transformatoren gebaseerde taalmodellen en andere modellen voor een zelflerend systeem. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI en de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. De open source versleutelingsmodellen zetten je tekstuele invoer om in numerieke vormen (integraties) die worden gebruikt om onderwerpen te identificeren en te vormen op basis van je invoer. Deze large language models genereren reacties op basis van jouw input en zijn op waarschijnlijkheden berust. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Lees meer over de mogelijkheden van de modellen van OpenAI en de modellen van Anthropic. Voor meer informatie over open-source taalmodellen, zie informatie over Multi-QA-MinILM en E5-Multilingual. |
Met deze functie kunnen beheerders en agents inzicht krijgen in de hiaten in hun kennisdatabase door de serviceaanvragen te analyseren die in het kader van een project zijn ontvangen. Deze functie belicht duidelijk de onderwerpen waarvoor hulpzoekers aanvragen indienen (op basis van gegevens van de laatste 30 dagen), maar er is geen bestaande kennis. Door onderwerpen voor te stellen, willen we projectbeheerders en agents inzicht geven in hoeveel aanvragen kunnen worden omgeleid of op zijn minst met kennis kunnen worden afgesloten. We zijn van mening dat een toename van het aantal kennisartikelen van invloed is op de prestaties van andere functies in Jira Service Management, zoals de AI-antwoorden van virtuele serviceagents. Wanneer beheerders of agents artikelen aanmaken over de voorgestelde onderwerpen, kan dat ook helpen om de beantwoording van aanvragen te verbeteren met behulp van AI-antwoorden. We zijn van mening dat voorgestelde onderwerpen het beste werken in situaties waarin:
|
Het is belangrijk om te onthouden dat vanwege de manier waarop de modellen werken die worden gebruikt om voorgestelde onderwerpen in de kennisdatabase te ondersteunen, deze modellen soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat voorgestelde onderwerpen in de kennisdatabase minder nuttig zijn in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe je gegevens worden gebruikt bij voorgestelde onderwerpen. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Wat je gegevens betreft, worden er voor voorgestelde onderwerpen in de kennisdatabase de volgende maatregelen toegepast. Je voorgestelde onderwerpen in de kennisdatabase:
|
Inhoud zoeken in Confluence
Confluence-inhoud zoeken met behulp van Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI en Google. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI en de Gemini-serie van Google. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal te analyseren en te begrijpen, en vertaalt deze vervolgens naar Confluence Query Language-code (CQL) in onze producten. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Ontdek meer informatie over de mogelijkheden van de modellen van OpenAI. |
Je kunt Atlassian Intelligence nu vragen naar de inhoud die je wilt vinden in Confluence in alledaagse taal in plaats van dat je complexe vragen moet stellen. Met behulp van Atlassian Intelligence, wordt je vraag vertaald in een CQL-zoekopdracht die je snel helpt bij het zoeken naar specifieke inhoud. Wij zijn van mening dat Confluence-inhoud zoeken met behulp van Atlassian Intelligence het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om Confluence-inhoud zoeken aan te drijven met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat Confluence-inhoud zoeken met behulp van Atlassian Intelligence minder nuttig is in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je zou ook kunnen overwegen om zo specifiek mogelijk te zijn in wat je Atlassian Intelligence vraagt te doen. Zorg ervoor dat je de exacte velden en waarden invult die je zoekt. |
We begrijpen dat je misschien vragen hebt over hoe Confluence-inhoud zoeken met behulp van Atlassian Intelligence je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast bij Confluence-inhoud zoeken met behulp van Atlassian Intelligence.
|
Meer informatie over Atlassian Intelligence
Direct inzichten verkrijgen uit je gegevens
Selecteer hieronder een Atlassian Intelligence-functie om een duidelijk overzicht te krijgen van de usecases en het gegevensgebruik.
Diagraminzichten
Chart insights worden mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI, Google en Anthropic, evenals een combinatie van grote open source-taalmodellen (waaronder de Llama-serie, de Phi-serie en de Mixtral-serie) en andere modellen voor zelflerende systemen. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI, modellen uit de Gemini-serie van Google en modellen uit de Claude-serie van Anthropic. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat hun antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze de modellen zijn getraind. Lees meer over de mogelijkheden van OpenAI-modellen, Google-modellen en Anthropic-modellen. Voor meer informatie over open source-taalmodellen, zie informatie over de Llama-serie en de Phi-serie. |
Diagraminzichten maakt gebruik van Atlassian Intelligence om je meer inzicht te geven in gegevens van elk diagram in Atlassian Analytics. Dit wordt gedaan door de titel van het dashboard, de titel van het diagram en de gegevens van het diagram (waaronder kolomkoppen en rijwaarden) te gebruiken om een samenvatting in natuurlijke taal te genereren van deze diagram en de bijbehorende gegevens. Het is ook bedoeld om trends of afwijkingen te identificeren om je bepaalde inzichten in deze diagram te geven. Wij zijn van mening dat Diagraminzichten het beste werkt in scenario's waarin:
Staafdiagrammen, lijndiagrammen en staaf-lijndiagrammen werken het beste met deze functie, omdat ze meestal trends, datums en veel rijen gegevens bevatten. |
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om Diagraminzichten mogelijk te maken soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat Diagraminzichten minder nuttig zijn in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Diagraminzichten je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Wat je gegevens betreft, past Diagraminzichten de volgende maatregelen toe.
|
Aanvraagtypen voorstellen in Jira Service Management
Stel aanvraagtypen voor met behulp van Atlassian Intelligence wordt mogelijk gemaakt door grote taalmodellen die zijn ontwikkeld door OpenAI. Deze grote taalmodellen omvatten modellen uit de GPT-serie van OpenAI. Atlassian Intelligence gebruikt deze modellen om input in natuurlijke taal te analyseren en aanbevelingen te genereren voor namen en beschrijvingen van aanvraagtypen binnen Jira Service Management. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Ontdek meer informatie over de mogelijkheden van de modellen van OpenAI. |
Besteed minder tijd aan het uitzoeken welke aanvraagtypen je moet maken voor je project en krijg in plaats daarvan suggesties van Atlassian Intelligence. Beschrijf gewoon je werk en wat je team doorgaans beheert om te zien welke aanvraagtypen je zou kunnen indienen. Selecteer een van de suggesties die door Atlassian Intelligence zijn gegenereerd om een aanvraagtype te maken. Meer informatie over hoe je Atlassian Intelligence kunt gebruiken om aanvraagtypen voor te stellen. Wij zijn van mening dat het gebruik van Atlassian Intelligence om aanvraagtypes voor te stellen het beste werkt in scenario's waarbij:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om aanvraagtypen voor te stellen met behulp van Atlassian Intelligence, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat het minder nuttig is om Atlassian Intelligence te gebruiken om aanvraagtypen voor te stellen in scenario's waarbij:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. Je kunt ook het volgende overwegen:
|
We begrijpen dat je misschien vragen hebt over hoe Atlassian Intelligence je gegevens gebruikt om aanvraagtypen voor te stellen. Dit gedeelte is een aanvulling op de informatie die beschikbaar is op onze Pagina met veelgestelde vragen. We verwerken het volgende:
Als het op je gegevens aankomt, worden de volgende maatregelen toegepast als je Atlassian Intelligence gebruikt om soorten aanvragen voor te stellen.
|
Aanvraagtypen voorstellen in Jira Service Management
De managementsamenvatting voor aandachtsgebieden wordt mogelijk gemaakt door de grote taalmodellen die zijn ontwikkeld door OpenAI. Deze modellen omvatten de OpenAI-modellen die hier worden beschreven. Atlassian Intelligence gebruikt deze modellen om natuurlijke taal in onze producten te analyseren en te genereren. Deze modellen genereren reacties op basis van jouw input en zijn probabilistisch van aard. Dit betekent dat de antwoorden worden gegenereerd door het meest waarschijnlijke volgende woord of tekst te voorspellen op basis van de gegevens waarmee ze zijn getraind. Ontdek meer informatie over de mogelijkheden van de modellen van OpenAI |
De managementsamenvatting voor aandachtsgebieden maakt gebruik van Atlassian Intelligence om een snelle, bruikbare samenvatting te geven van je aandachtsgebied, inclusief het werk dat wordt uitgevoerd, de status van de bijbehorende doelen, suggesties voor waar je op moet letten en aanbevelingen om eventuele werkitems op te lossen. De managementsamenvatting voor aandachtsgebieden werkt het best wanneer:
|
Het is belangrijk om te onthouden dat de modellen die worden gebruikt om werk van de managementsamenvatting voor aandachtsgebieden te ondersteunen, soms onnauwkeurig, onvolledig of onbetrouwbaar kunnen zijn. De antwoorden die je krijgt, geven bijvoorbeeld mogelijk niet nauwkeurig de inhoud weer waarop ze zijn gebaseerd, of bevatten inhoud die redelijk klinkt, maar onjuist of onvolledig is. We hebben ontdekt dat de managementsamenvatting voor aandachtsgebieden minder nuttig is in situaties waarin:
Daarom willen we je aansporen om na te denken over de situaties waarin je Atlassian Intelligence gebruikt. Ook raden we je aan de kwaliteit te beoordelen van de antwoorden die je krijgt voordat je deze met anderen deelt. |
We begrijpen dat je misschien vragen hebt over hoe de managementsamenvatting voor aandachtsgebieden je gegevens gebruikt. Dit gedeelte is een aanvulling op de informatie die beschikbaar is in ons Trust Center. We verwerken het volgende:
Wat je gegevens betreft, worden voor de managementsamenvatting voor aandachtsgebieden de volgende maatregelen gebruikt.
|
Meer informatie over Atlassian Intelligence
Verwijzingen
Ontvang realtime statusupdates voor Atlassian-producten op onze speciale statuspagina.
Ontdek meer over Atlassian Intelligence
Begrijp hoe Atlassian klantgegevens beheert.