Witold Kepinski - 07 september 2024

Transparantie opmerking over Microsoft Copilot voor Microsoft 365

Microsoft heeft een transparantienota voor Microsoft Copilot voor Microsoft 365 aangekondigd. De transparantienota legt uit hoe Copilot werkt, wat de mogelijkheden en beperkingen zijn en hoe Microsoft mogelijke risico's beheert die verband houden met het gebruik ervan.

Transparantie opmerking over Microsoft Copilot voor Microsoft 365 image

Dit document biedt een uitgebreid overzicht van Microsoft Copilot voor Microsoft 365, een krachtige AI-gestuurde productiviteitstool die is ontworpen om creativiteit, efficiëntie en gebruikersvaardigheden binnen het Microsoft 365-ecosysteem te verbeteren.

Wat is een transparantienota?

Transparency Notes zijn Microsofts manier om gebruikers te informeren over de interne werking van hun AI-technologieën. Deze documenten beschrijven hoe de systemen functioneren, welke keuzes gebruikers kunnen maken om hun gedrag te beïnvloeden en hoe belangrijk het is om het hele systeem te overwegen, inclusief technologie, gebruikers en de omgeving.

Belangrijkste punten:

  • AI-model: Copilot maakt gebruik van grote taalmodellen (LLM's) van Azure OpenAI Service, met name modellen die zijn getraind voor taken zoals het genereren, samenvatten en vertalen van tekst.
  • Integratie: Copilot integreert naadloos met populaire Microsoft 365-applicaties zoals Word, Excel, PowerPoint, Outlook, Teams en meer.
  • Gronding: Gegevens van Microsoft Graph (een toegangspoort tot gegevens en intelligentie binnen Microsoft 365) en gebruikersprompts worden gebruikt om LLM-reacties te verfijnen, zodat ze relevant en uitvoerbaar zijn.
  • Mogelijkheden: Copilot biedt een breed scala aan functies, waaronder schrijfondersteuning, samenvatting van inhoud, ideeëngeneratie en gegevensanalyse in verschillende Microsoft 365-toepassingen.
  • Beveiliging en naleving: Microsoft geeft prioriteit aan gegevensbeveiliging en gebruikersprivacy. Gegevens die door Copilot worden gebruikt, zijn gecodeerd en worden niet gebruikt om de onderliggende LLM's te trainen. Klanten kunnen Microsoft Purview gebruiken om hun Copilot-gegevens en -interacties te beheren en beschermen.
  • Uitbreidbaarheid: uitbreidingen maken maatwerk en integratie met externe services mogelijk, waardoor de mogelijkheden van Copilot verder worden uitgebreid.
  • Gebruiksscenario's: Copilot is ontworpen voor verschillende taken, waaronder het genereren van reacties in chat op basis van vertrouwde documenten, het doorzoeken van interne content, het samenvatten van informatie, het maken of herschrijven van content en het transcriberen van audiobestanden.
  • Overwegingen: Hoewel Copilot talloze voordelen biedt, is het cruciaal om alle door AI gegenereerde content te beoordelen voor gebruik. Bepaalde scenario's, zoals het diagnosticeren van patiënten of het voorschrijven van medicatie, vereisen menselijk toezicht vanwege mogelijke risico's.
  • Beperkingen: Integratiebeperkingen, aanpassingsbeperkingen, afhankelijkheid van internetverbinding, vereisten voor gebruikersopleidingen, intensiteit van de middelen, juridische en nalevingsoverwegingen en mogelijke vooroordelen/stereotypen in door AI gegenereerde content zijn allemaal erkende beperkingen.
  • Prestaties: De prestaties van Copilot worden gemeten aan de hand van hoe goed het apparaat voldoet aan de verwachtingen van de gebruiker, niet per se aan de hand van traditionele nauwkeurigheidsmetingen.
  • Aanbevolen werkwijzen: Hier volgen enkele aanbevelingen om de prestaties van Copilot te verbeteren:
    • Schrijf duidelijke en beknopte opdrachten.
    • Geef Copilot de mogelijkheid om webinhoud te raadplegen voor een bredere context.
    • Breid de gegevensverwerking in Microsoft Graph uit met aanvullende organisatorische gegevensbronnen.
  • Mapping, Measuring, and Managing Risks: Microsoft gebruikt een gelaagde aanpak om potentiële risico's die verband houden met Copilot te identificeren, meten en beperken. Dit omvat red team-testen (evalueren van potentiële kwetsbaarheden), verantwoorde AI-evaluaties en continue monitoring om mitigaties te verfijnen.
  • Gefaseerde release en evaluatie: Microsoft verbetert Copilot voortdurend op basis van feedback van gebruikers en doorlopende beoordelingen.
  • Gebaseerd op bedrijfsgegevens: door AI gegenereerde content is gebaseerd op relevante bedrijfsgegevens die toegankelijk zijn voor de gebruiker, waardoor het risico op ongefundeerde reacties wordt verkleind.
  • Op AI gebaseerde classificaties en metaprompting: deze technieken helpen de generatie van schadelijke of misleidende inhoud te beperken.
  • Verrijking van prompts: Copilot kan prompts verfijnen om ervoor te zorgen dat gebruikers het gewenste antwoord krijgen.
  • Gebruikersgericht ontwerp en interventies op het gebied van de gebruikerservaring: Microsoft geeft prioriteit aan het begrip en de verwachtingen van de gebruiker door middel van heldere communicatie en informatief ontwerp.
  • AI-openbaarmaking: Copilot informeert gebruikers duidelijk dat ze met een AI-systeem communiceren en geeft beperkingen aan.
  • Herkomst van media: Voor afbeeldingen die door Designer in Copilot zijn gegenereerd, worden inhoudsreferenties geïmplementeerd om door AI gegenereerde of gemanipuleerde inhoud te identificeren.
  • Feedback en voortdurende evaluatie: Microsoft vraagt ​​actief om feedback van gebruikers om Copilot te verbeteren en evalueert voortdurend de prestaties en oplossingen.

Over het algemeen is Microsoft Copilot voor Microsoft 365 een krachtige AI-tool die is ontworpen om de productiviteit en creativiteit van gebruikers binnen het Microsoft 365-ecosysteem te verbeteren. Door de functionaliteiten, beperkingen en best practices te begrijpen, kunnen gebruikers de mogelijkheden van Copilot effectief benutten, aldus Microsoft.

Lees ook meer in The Register.

DIC Awards BW tm 21-10-2024 Dutch IT Security Day BW tm 15-10-2024
Dutch IT Security Day BN tm 15-10-2024