Louadvokatfirma.dk
  • Samarbejdspartnere
  • Nyheder
  • Kontakt
  • da
  • de
  • en
Menu
  • VELKOMMEN
  • VI ER
  • VI KAN
  • INTERNATIONALT
  • ARTIKLER
  • Tvangsauktioner
  • PERSONSKADEERSTATNING
  • PERSONDATA

Kunstig intelligens: Er din virksomhed juridisk rustet? Og hvad med AI chatbots?

Kunstig intelligens har taget fart blandt mange virksomheder de seneste to år. Danmark er det land i Europa med den største andel af virksomheder, der anvender kunstig intelligens. Det viser analyse fra SMV Danmark. Men hvad med juraen – er din virksomhed ”juridisk rustet”, så den ikke risikerer at levere ringere eller fejlagtig service til kunder, være eksponeret for omdømmemæssige risici mv.
Gældende AI-regler

Selv om der endnu ikke i dansk ret eksisterer en specifik regulering af brugen af kunstig intelligens, herunder AI chatbots, er en sådan regulering ved at tage form.

Europa-Kommissionen har fremsat forslag til et direktiv om AI-ansvar samt forslag til en AI-forordning.

Kendskab til disse kommende reguleringer er relevant for din virksomheds brug af kunstig intelligens i fremtiden og dermed også for din virksomheds juridiske robusthed i AI-sammenhæng.

Væsentligt at huske er tillige, at ovenstående dog ikke betyder, at området helt er ulovreguleret. Virksomheder skal nemlig også overholde gældende dansk lovgivning, såsom regler om databeskyttelse, immaterielle rettigheder mv.

Databeskyttelse: Hvad må man oplyse en AI chatbot?

Såfremt din virksomhed skal være juridisk rustet til AI-brug fordrer dette, at I har kendskab til databeskyttelsesreglerne, her særligt reglerne om håndtering af personoplysninger.

Da de fleste virksomheder håndterer personoplysninger, enten fra medarbejdere eller kunder, er det afgørende at overveje, hvorvidt og hvilke personoplysninger I deler med f.eks. en AI chatbot. Personoplysninger er f.eks. navn, familieforhold, antal sygedage mv. Der er således tale om personoplysninger, når det er muligt at identificere en person ud fra oplysningerne eller i kombination med andre.

Deling af personoplysninger med en chatbot kræver altid et retligt behandlingsgrundlag, som f.eks. at behandlingen er nødvendig af hensyn til en retlig forpligtelse, opfyldelse af en kontrakt, eller at der er indhentet et udtrykkeligt samtykke.

Er der tale om behandling af følsomme personoplysninger, f.eks. helbredsoplysninger, etnisk oprindelse og seksuel orientering, gælder der som udgangspunkt et forbud mod behandling af disse oplysninger. Der gælder dog særlige undtagelser.

Endelig er det et juridisk krav, at der som udgangspunkt skal udarbejdes en såkaldt forudgående konsekvensanalyse vedr. databeskyttelse (DPIA), og at denne opdateres løbende.

Forretningshemmeligheder

En væsentlig faldgrube forbundet med anvendelse af en AI chatbot er ”offentliggørelse” af forretningshemmeligheder. Juridisk robusthed omfatter derfor også et kendskab til, hvad ”offentliggørelse” nærmere betyder i sammenhæng med AI chatbots.

Deling af fortrolige oplysninger med en online chatbot vil, ligesom alt anden data I deler med chatbotten, anvendes til gentræning. Det betyder, at chatbotten er dynamisk og forbedres ved at adaptere de erfaringer, I som brugere giver den, hver gang den anvendes.

Derfor skal en AI chatbot anvendes med omtanke. Deler i forretningshemmeligheder, strategier eller andre fortrolige oplysninger, vil det være muligt for andre at kopiere dette, hvis de er brugere af samme chatbot.

Ophavsret

Desto flere gange en AI chatbot anvendes, jo mere data lagres i chatbottens database. Der tages således ikke hensyn til, om dataene er underlagt ophavsretlig beskyttelse. Det betyder, at chatbottens database kan indeholde artikler, passager af fagbøger eller videnskabelige værker, som er ophavsretlig beskyttet.

Denne beskyttede data kan indgå i chatbottens svar, også kaldet output. Det kan få juridiske konsekvenser for jer, hvis I anvender beskyttet data kommercielt uden tilladelse fra den, som har ophavsretten.

Interne retningslinjer

Der kan med fordel udarbejdes interne retningslinjer for brugen af kunstig intelligens. Disse interne retningslinjer skal sikre, at medarbejdere kan navigere i, hvilke opgaver de må og kan løse ved brug af kunstig intelligens.

Det er desuden vigtigt at medarbejdere vejledes om, at de skal foretage en kritisk vurdering af f.eks. AI chatbottens output. Videregivelse eller rådgivning på baggrund af et fejlagtigt output kan have konsekvenser for kunder eller samarbejdspartnere og potentielt medføre et erstatningsansvar.

Vi anbefaler, at virksomheder bliver juridisk rustet til at håndtere blandt andet fejlagtige outputs ved eksempelvis at implementere egenkontrol og udarbejdelse af interne procedurer samt retningslinjer. Hos LOU Advokater kan vi bistå virksomheder med dette.

Er du i tvivl om, hvordan I sikrer korrekt brug af kunstig intelligens inden for de juridiske rammer, så kontakt gerne advokat og partner Camilla Moe Thorup på cmt@lou.dk og 70 300 500 eller advokatfuldmægtig Mads Christian Schwabe på masc@lou.dk og 70 300 500.

Tilbage til nyhedsoversigt
Tilbage til nyhedsoversigt

København

LOU Advokater København
Skindergade 38, 1.
1159 København K
70 300 500
info@lou.dk

Aarhus

LOU Advokater Aarhus
Havnegade 2A, 2.tv.
8000 Aarhus C
70 300 500
info@lou.dk

Randers

LOU Advokater Randers
Østergrave 4, 3.
8900 Randers C
70 300 500
info@lou.dk

Viborg

LOU Advokater Viborg
Gothersgade 2
8800 Viborg
70 300 500
info@lou.dk

Samarbejdspartnere

GENEVA GROUP INTERNATIONAL
ADVOKATSAMFUNDET
EJENDOMSFORENINGEN KRONJYLLAND
RKI