Dine medarbej dere bruger sandsynligvis allerede AI. ChatGPT til at skrive tekster, Copilot til at opsummere møder, AI-baserede oversættelsesværktøjer til kundekommunikation. Det sker uanset, om ledelsen har taget stilling til det eller ej.
Det er præcis derfor, I har brug for en AI-politik.
Hvorfor din virksomhed har brug for en AI-politik nu
Der er tre gode grunde til at handle nu frem for at vente:
EU AI Act træder i kraft gradvist frem mod 2027. Afhængigt af din branche og de AI-systemer du bruger, kan der være compliancekrav, der allerede gælder for dig. Uvidenhed er ikke en juridisk forsvarlig position.
Ansvarsspørgsmålet er uafklaret, hvis der ikke er en politik. Hvis en medarbej der bruger et AI-værktøj til at generere et tilbud med forkerte tal, eller deler fortrolige kundedata med et eksternt AI-system – hvem er da ansvarlig? Og hvilke procedurer er brudt?
Medarbej derne vil have klarhed. En god AI-politik handler ikke kun om forbud – den handler om at give medarbej derne et tydeligt grundlag for, hvad de må og ikke må, så de kan bruge AI med selvtillid frem for usikkerhed.
Hvad en AI-politik bør indeholde
En AI-politik behøver ikke fylde 40 sider. Den skal være klar, praktisk og mulig at efterleve. Her er de centrale elementer:
Godkendte og ikke-godkendte værktøjer
Lav en liste over, hvilke AI-værktøjer medarbej derne må bruge til arbejdsformål – og hvilke de ikke må. Overvej særligt:
- Hvilke data må tastes ind i eksterne AI-tjenester?
- Er der forskel på, hvad salgsteamet, økonomiafdelingen og IT må bruge?
- Hvordan håndteres persondata i overensstemmelse med GDPR?
Regler for databehanlding
Mange AI-tjenester bruger de data, du sender dem, til at træne deres modeller – medmindre du aktivt fravælger det eller bruger en enterprise-løsning. Jeres politik skal tage stilling til:
- Hvilke datatyper er off-limits for eksterne AI-systemer? (Kundedata, finansielle oplysninger, forretningshemmeligheder)
- Hvilke systemer er godkendt til følsomme data?
Ansvar og transparens
- Hvem i organisationen er ansvarlig for AI-politikken og dens opdatering?
- Skal det fremgå, når en tekst eller rapport er genereret med AI-hjælp?
- Hvem godkender introduktion af nye AI-værktøjer?
Kvalitetssikring af AI-output
AI laver fejl. Politikken bør beskrive, at AI-genereret output altid skal kvalitetssikres af et menneske, inden det sendes til kunder eller bruges som beslutningsgrundlag.
Brug for hjælp til at udarbejde en AI-politik?
Kontakt os for rådgivningSådan får du medarbej dernes opbakning
En AI-politik, der kun præsenteres som en liste af forbud, møder modstand. Præsenter den i stedet som et redskab, der skal hjælpe medarbej derne til at bruge AI på en tryg og effektiv måde.
Involver en eller flere medarbej dere i udarbejdelsen – særligt dem, der allerede bruger AI aktivt. De ved, hvilke use cases der er relevante, og de er de bedste ambassadører for politikken over for kollegerne.
Gennemgå politikken på et personalemøde. Giv plads til spørgsmål. Opdater den mindst én gang om året – AI-landskabet ændrer sig hurtigt.
Hvornår skal du have ekstern hjælp?
Hvis I er en virksomhed med mere end 20-30 medarbej dere, behandler følsomme persondata eller opererer i regulerede brancher (finans, sundhed, offentlig sektor), er det klogt at involvere ekstern ekspertise i udformningen af jeres AI-politik.
Hos WiconSoft hjælper vi virksomheder med netop det: at omsætte det komplekse AI-governance-landskab til en praktisk politik, der passer til jeres virkelighed. Kontakt os for en uforpligtende snak om, hvor I står.
Vil du vide mere?
Book et uforpligtende møde og find ud af, hvordan WiconSoft kan hjælpe din virksomhed.