NOU 2022: 9

En åpen og opplyst offentlig samtale— Ytringsfrihetskommisjonens utredning

Til innholdsfortegnelse

8 Ansvar for ytringer på internett

8.1 Innledning

Nettet er en inngripende kanal for kommunikasjon i folks dagligliv. Dette har skapt omfattende debatter om hvilket ansvar formidlere har for andres ytringer. Skal de alminnelige reglene om ansvarsfritak for tekniske medvirkere og tilretteleggere for andres ytringer ikke gjelde lenger? Hvilket ansvar for innhold skal plattformselskap som Meta og Alphabet ha?1

Kommisjonen er bedt om å vurdere tiltak for å «motvirke spredning av ulovlig og skadelig innhold på elektroniske plattformer og sosiale nettverk, inkl. behovet for å avklare plattformenes rolle og rettslige ansvar» og «vurdere behovet for internasjonalt samarbeid og ev. regulering».

Debattene handler ikke bare om hvem som er rettslig ansvarlig for ulovlig innhold. De handler også om det skal legges begrensinger på innhold som kan være skadelig for enkeltmennesker eller samfunnet, men som ikke er ulovlig, og hvem som i så fall har ansvaret for det. Det er også debatter om plattformselskapenes rett til å fjerne ytringer som følge av egne regler. I praksis er det private selskapers regler for innhold som setter rammene for hvilke ytringer som spres for et stort publikum.

Omfattende lovreguleringer som forsøker å gi svar på disse problemstillingene, har vært under utvikling de siste årene. Det mest inngripende og omfattende arbeidet skjedde i regi av EU parallelt med Ytringsfrihetskommisjonens arbeid. Forordningen om digitale tjenester (Digital Services Act, DSA) vil etter alt å dømme innebære komplekse og nyskapende kjøreregler for hvordan sosiale medier opererer også i Norge.

Dette kapittelet redegjør for gjeldende rettstilstand for ansvaret for ytringer på nettet og de viktigste reguleringsinitiativene i EU og i utvalgte enkeltland, med særlig vekt på DSA. Det redegjøres også kort for problemstillinger knyttet til skadelig innhold, anonymitet og kryptering. Til slutt gir kommisjonen sine vurderinger og anbefalinger. Redaktørstyrte journalistiske mediers håndtering av brukerskapt innhold behandles i kapittel 12.

8.2 Plattformenes moderering og egenregulering

8.2.1 Private selskaps spillerom

Lovene som regulerer plattformselskapenes innholdsansvar, tar primært for seg selskapenes ansvar for å fjerne ulovlig innhold. Selskapene fjerner også i stor utstrekning innhold som ikke er ulovlig i landene hvor selskapene opererer.2

Dette kan selskapene gjøre fordi deres forhold til brukerne hviler på en privatrettslig avtale om vilkår for bruk av plattformen. Menneskerettighetene forplikter i utgangspunktet stater. Det betyr at private plattformselskap ikke er direkte forpliktet av relevante grunnlovs- og konvensjonsforpliktelser som beskytter ytringsfriheten.3 I prinsippet kan de utforme reglene for hvem som skal få være brukere av tjenesten og hva som skal være tillatt å publisere.

Spørsmålet er imidlertid om selskapene kan holdes ansvarlig for ytringer som er ulovlige etter nasjonal lovgivning, og ikke minst hvilken plikt statene har til å regulere selskapenes ansvar for dette, som et utslag av ulike positive menneskerettsforpliktelser. Dette kan for eksempel knytte seg til plikten statene har til å beskytte borgerne mot trusler og hatefulle ytringer. Selv om selskapene formelt sett ikke er menneskerettslige pliktsubjekter, har de i stor grad selv uttrykt at de ønsker å sikre ivaretakelsen av relevante menneskerettslige skranker. Videre har det skjedd en omfattende rettslig utvikling de siste årene hva gjelder regulering av selskapenes samfunnsansvar og menneskerettighetsansvar.

Når man oppretter en brukerkonto på en nettplattform, er det vanlig å akseptere et krav om å godta selskapets brukervilkår. Når noen få enkeltplattformer er blitt så dominerende, både i Norge og globalt, er dette ikke uproblematisk.

Når man godtar brukervilkår, godtar man gjerne å følge selskapets til enhver tid gjeldende retningslinjer for tillatt innhold. Disse retningslinjene er ofte svært detaljerte og strengere enn nasjonale lovverk, og de endres stadig.

Fram til 2018 publiserte for eksempel Facebook bare korte og generelle retningslinjer. Siden da har de interne retningslinjene vært offentlige. Dette er nå blitt et flere titalls sider langt dokument med en lang rekke forbud.4 I tillegg har selskapet minst 1400 sider med interne notater som tolker retningslinjene.5 Twitter har over 20 ulike regelverk, rettet både mot innhold og ulike typer misbruk av tjenesten.6 Retningslinjene er ofte så lange og skrevet i et så uforståelig språk, at de fleste lar være å lese dem.7

Boks 8.1 Hvem styrer det norske ordskiftet?

Facebook har 3,5 millioner brukere i Norge. Over 80 prosent av disse er innom tjenesten daglig. Plattformen er dermed den suverent største arenaen for offentlig informasjon og debatt i Norge. Hvem tar de daglige avgjørelsene om hvilket innhold og hvilke brukere som skal tillates eller fjernes?

Det er ikke lett å finne ut av. Facebooks innholdsmoderering er overført til en rekke ulike selskaper. Disse har til sammen 15 000 ansatte fordelt på sentre plassert minst 20 ulike steder i verden. Meta selv tilbyr ingen oversikt over hvor mange som jobber med ulike språkområder eller hvor de er plassert.

Ytringsfrihetskommisjonen har spurt Meta Norge om tall på hvor mange moderatorer som jobber med norskspråklig innhold, hvor mange poster og brukere som fjernes og på hvilket grunnlag i løpet av en gitt periode. Svaret til kommisjonen var at selskapet ikke har tall på dette.

I en reportasje sommeren 2020 intervjuet VG to av Facebooks norske innholdsmoderatorer. Disse jobbet i et senter i Barcelona i Spania drevet av selskapet Competence Call Center (CCC). Til VG svarte en representant for Meta at de ikke kunne oppgi antallet moderatorer «av sikkerhetshensyn». VG omtaler de norskspråklige moderatorene som en liten gruppe.

Kilde: Høydal, H.F. (2020, 22. juli). På innsiden med Facebooks moderatorer. VG. https://www.vg.no/forbruker/teknologi/i/vQVQX4/paa-innsiden-med-facebooks-moderatorer og Stewart, R. (2019, 6. juni). Inside Facebook’s moderation hub: the realities of policing the dark side of the internet. The Drum. https://www.thedrum.com/news/2019/06/06/inside-facebooks-moderation-hub-the-realities-policing-the-dark-side-the-internet

8.2.2 Plattformenes moderering

Selskapenes innholdsmoderering har vært i rask utvikling. De første årene, fram til 2009, hadde ikke Facebook én eneste innholdsmoderator. I 2020 opplyste selskapet at 15 000 mennesker jobbet med moderering av innhold verden over.8 Tiktok sa i 2020 at de hadde over 10 000 ansatte som jobbet med innhold og sikkerhet.9

Hos flere av de store plattformene er innholdsmoderatorene ansatt av tredjepartsselskaper, gjerne innleiebyråer. Moderatorene har ofte svært krevende arbeidsforhold.10 De blir daglig vitne til store mengder poster som kan inneholde overgrep, drap og selvmord. Mange av moderatorsentrene ligger i lavinntektsland. Det har vært flere søksmål fra ansatte på grunn av dårlige arbeidsforhold.11

Mengden innhold som skal vurderes av selskapene, er enorm. I 2021 ble det anslått at brukere hvert eneste minutt i døgnet delte 65 000 bilder på Instagram, gjorde 5,7 millioner søk på Google og hadde 44 millioner visninger hos Facebook Live alene.12

Mengden innholdsvurderinger er tilsvarende enorm og kraftig økende. I løpet av første kvartal i 2018 fjernet for eksempel Facebook ifølge egne rapporter 2,5 millioner poster på grunn av brudd på retningslinjene mot hatefulle ytringer. I andre kvartal 2021 hadde dette økt til 31,5 millioner poster.13

Plattformgigantene er ikke de eneste som håndterer brukerskapt innhold. En lang rekke selskaper av ulik størrelse, samt privatpersoner, legger til rette for og modererer brukerstyrt innhold. Det samme gjør redaktørstyrte medier.14

De største selskapene har satset hardt på bruk av kunstig intelligens og maskinlæring for å håndtere innhold. Meta hevder at selskapets kunstig intelligens-programmer oppdager 95 prosent av all hatprat og 99 prosent av alt terrorrelatert innhold som postes før dette rapporteres inn.15 Det meste av dette blir vurdert av mennesker før det eventuelt slettes, men noe innhold fjernes også automatisk.16

Da covid-pandemien rammet verden og moderatorer ikke kunne være på kontoret, lot flere selskaper maskinene gjøre all innholdsmoderering. Dette førte til tydelige endringer i hva slags type innhold som ble fjernet og hva som slapp gjennom.17 Epidemien demonstrerte også hvor krevende det er å følge opp retningslinjer mot såkalt feilinformasjon. For eksempel fjernet Facebook i flere måneder poster der folk hevdet at covid-viruset oppsto i et laboratorium i Kina. Denne regelen ble endret da flere autoriteter sa det ikke var utelukket at teorien likevel kunne stemme.18 Til sammen fjernet Facebook og Instagram mer enn 20 millioner bilder, poster eller videoer som inneholdt påstått feilinformasjon om covid-19 i 2021.19

Selskapenes tekniske designvalg påvirker også modereringspraksisen og dermed ytringsrommet. Hos Facebook var det for eksempel lenge ikke mulig å skru av og på kommentarfunksjonen under innholdsposter på sider, bare i grupper. Dermed var brukerne nødt til å ha døgnbemanning for å kunne moderere sine sider etter samme standarder som redigerte medier. Først etter at australsk høyesterett kom med en kjennelse som sa at medieselskaper i Australia hadde juridisk ansvar for hva brukere kommenterte på facebooksidene deres, ble muligheten til å begrense kommentarfelt innført av selskapet i mars 2021.20

Facebook gir også mulighet for å skjule kommentarer på sider man administrerer. Da får ikke den som skrev kommentaren vite at ytringen er usynlig for andre. Denne funksjonen blir hyppig brukt, for eksempel når norske politiske partier modererer sine facebooksider.21

8.2.3 Plattformers egenregulering

Avgjørelser om hvilke poster som slettes og ikke, og hvilke brukere som utestenges fra plattformer, skaper stadig debatter. Her hjemme er kanskje kontroversen rundt det prisbelønte bildet av den såkalte napalmjenta av fotografen Nick Ut fra Vietnamkrigen mest kjent. Protestene fra blant andre Aftenpostens sjefredaktør og statsministeren førte til diskusjoner helt opp i toppledelsen i Meta og var en av årsakene til at selskapet bestemte seg for å sette ut deler av vurderingene om hva slags innhold som skal tillates til en delvis uavhengig stiftelse, kalt Tilsynsrådet.22

Tilsynsrådet (se boks 8.2) er en selvdømmeordning for sosiale medier. Slike egenreguleringer, som den norske pressens PFU er et eksempel på, er av flere trukket fram som bedre løsninger enn lovgivning for å ta vanskelige innholdsavgjørelser.23 Det norske fagutvalget for influencermarkedsføring er et mer lokalt (og langt mindre omfattende) eksempel.

Det finnes også flere etiske regelverk der de store nettplattformene forplikter seg til ulike prinsipper for innholdshåndtering.24 «The Real Facebook Oversight Board» er et eksempel på et initiativ fra sivilsamfunnet for å konfrontere Facebook mer direkte, utenom selskapets selvdømmeordning.25

Det aller meste av debatten om nettplattformenes egen atferd har dreid seg om de største plattformene, som Facebook, Instagram, YouTube, TikTok, Twitter og Spotify. En lang rekke andre selskaper legger også til rette for brukerskapt innhold. Mange av disse, eksempelvis 8Chan, har som en del av forretningsmodellen eller den grunnleggende filosofien ikke å drive med innholdsmoderering.

De såkalte chan-sidene har fått mye oppmerksomhet og kritikk for å være forum for ekstremisme og planlegging av terrorangrep. Nye forum dukker stadig opp og vokser eller mister oppslutning avhengig av oppmerksomhet, nettverkseffekter og hvilke tiltak større plattformer gjør. Vinteren 2021–22 var for eksempel plattformer som Telegram, Odysee og BitChute populære forum for blant annet høyreekstremisme og vaksineskepsis.26

Slike forum er gjerne basert på anonymitet og kryptering og har i varierende grad strukturer og kultur for moderering av innhold. Flere forum har også flyttet over til det såkalte mørke nettet, der det er enda mer krevende å ha innsyn og føre tilsyn.27

Boks 8.2 Metas tilsynsråd – en ny modell for innholdsansvar

Etter massiv kritikk over lang tid, konkluderte Metas toppleder Mark Zuckerberg i 2018 med at selskapet ikke alene burde stå ansvarlig for de stadige og krevende diskusjonene om hva slags innhold som skal tillates på plattformen. Resultatet av en omfattende utviklingsprosess ble Oversight Board (kalt Tilsynsrådet på norsk).

Rådet er organisert som en stiftelse med et budsjett på over én milliard kroner over seks år. De 40 medlemmene er utnevnt av Meta som også har bestemt rådets foreløpig begrensede mandat: Rådet gjelder bare plattformen Facebook og kan bare pålegge Facebook å republisere enkeltposter hvis noen klager til rådet over fjerning av innhold. Det er forventet at mandatet vil bli utvidet og at rådet selv vil forsøke å få større påvirkning på Metas innholdspolitikk.

Tilsynsrådets ønske om å påvirke var blant annet synlig i uttalelsen om utestengelsen av USAs tidligere president Donald Trump fra Facebook. Rådet støttet utestengelsen, men ba Meta revurdere avgjørelsen om å gjøre utestengelsen permanent og å innføre tydeligere og mer forutsigbare retningslinjer for varigheten av utestengelser. Meta fulgte disse anbefalingene.

Mark Zuckerberg har uttrykt at rådet senere kan utvides til å ta for seg også andre plattformselskapers innholdsavgjørelser. Rådet kan sees på som et forsøk på å innføre en global selvdømmeordning á la norske PFU for de største sosiale medier-selskapene. Det betraktes også som et forsøk på å komme statlig regulering i forkjøpet.

Kilde: Reporters Without Bordes (2021, 7. juni). Facebook’s Oversight Board is just a stopgap, regulation urgently needed, RSF says. RSF.org. https://rsf.org/en/facebooks-oversight-board-just-stopgap-regulation-urgently-needed-rsf-says og Lapowsky, I. (2020, 6. mai). How Facebook’s oversight board could rewrite the rules of the entire internet. Protocol. https://www.protocol.com/facebook-oversight-board-rules-of-the-internet

Boks 8.3 Middleware

Det finnes flere private initiativ for å forbedre innholdshåndtering på sosiale medier. Ett eksempel er initiativet Middleware fra Stanford Cyber Policy Center. Statsviter Francis Fukuyama er blant initiativtakerne. Middleware er en programvare som skal kunne brukes som mellomledd mellom sosiale medier-tjenester og brukeren. Programvaren henter data fra de sosiale mediene og gjør egne innholdsvurderinger, prioriteringer og filtreringer etter kundens ønske. Dette kan for eksempel være filtrering av nyheter etter hvor troverdig kilden er. Ideen er å utvikle et marked som gir brukerne flere muligheter til å ta kontroll over hva de ser og ikke ser, istedenfor å være prisgitt vurderingene fra noen få store plattformer.

Kilde: Fukuyama, F. m.fl. (2020). Report of the Working Group on Platform Scale. Stanford University.

8.3 Gjeldende rett

Den som laster opp innhold og derved ytrer seg på en nettside, er rettslig ansvarlig dersom ytringen er ulovlig. Dette er utgangspunktet for lovgivning både i Norge og andre land.

I tillegg kan et rettslig ansvar oppstå på minst tre ulike måter for den som formidler andres ytringer: Gjennom medieansvarsloven, ehandelsloven og det generelle medvirkeransvaret. Den nye åpenhetsloven omhandler ikke innholdsansvar direkte, men er også relevant for spørsmål som kommisjonen har vurdert i sammenheng med plattformselskapenes ansvar.

8.3.1 Medieansvarsloven

En ansvarlig redaktør for et medium som er omfattet av medieansvarsloven, har et rettslig ansvar også for andres ytringer i mediet vedkommende er ansvarlig for. Dette er et objektivt ansvar som gjelder uansett om redaktøren er klar over ytringen eller ikke, med mindre vedkommende godtgjør at vedkommende ikke kan lastes for manglende kontroll med innholdet eller ledelse av redaksjonen.

For kommentarfelt gjelder en særregel. Redaktøren kan kun holdes strafferettslig ansvarlig dersom det foreligger forsett og erstatningsansvarlig ved grov uaktsomhet. Redaktøren fritas dessuten fra rettslig ansvar dersom han eller hun reagerer raskt ved å fjerne ulovlig innhold.28 For straffansvarets del inntrer denne fjerningsplikten når redaktøren får kjennskap til ytringen, for erstatningsansvaret kan den inntre tidligere.29 Tekniske medvirkere er fritatt fra ansvar gjennom medieansvarsloven.30

8.3.2 Ehandelsloven

Sosiale medier, blogger eller andre brukerfora er ikke omfattet av medieansvarsloven. Her er det ehandelsloven som utgjør rettsgrunnlaget overfor tjenesteyterne. Denne ble innført som en konsekvens av EUs ehandelsdirektiv, som blant annet inneholder noen minimumskrav og grenser for hva slags regler de enkelte land kan vedta om ansvar for tilbydere av internettjenester.31

Ehandelslovens paragraf 15 fastslår at de alminnelige rettsregler om erstatnings- og straffeansvar gjelder for tjenesteytere som overfører informasjon, gir tilgang til et kommunikasjonsnettverk eller lagrer informasjon. De sentrale unntakene fra dette ansvaret følger i paragraf 16–18. Paragrafene fastslår at det er ansvarsfrihet for innhold for visse tjenester for overføring, tilgang, mellomlagring og lagring. De tre første kategoriene er tekniske tjenester som sørger for trafikkflyt på nettet. Lagringstjenester er tjenester som lagrer innhold «på oppfordring fra en tjenestemottaker». Dette inkluderer plattformer som Facebook og andre sosiale medier.32

Tilbydere av lagringstjenester kan bare straffes for lagring av ulovlig informasjon dersom de utviser forsett, eller holdes erstatningsansvarlige dersom de utviser forsett eller grov uaktsomhet.33 Tjenestene kan likevel bli fritatt fra ansvar hvis de «uten ugrunnet opphold treffer nødvendige tiltak for å fjerne eller sperre tilgangen til informasjonen», jf. paragrafens annet ledd. Når dette skal vurderes, må retten se på hvilke rutiner nettverten har etablert for bl.a. å motta varsler om ulovlig informasjon og å følge opp disse varslene.34 Loven fastslår også at tjenesteyterne ikke har en generell plikt til å overvåke innholdet på sine plattformer.35

Unntaksregelen gir uttrykk for det såkalte «notice and take down»-prinsippet. Sosiale medier har en plikt til å fjerne ulovlig innhold dersom de blir gjort oppmerksom på det. De kan ikke straffes for ulovlig innhold de ikke er klar over at finnes på egne plattformer. De er ikke pålagt å overvåke alt som publiseres hos dem for å oppdage eventuelle ulovlige ytringer.

Forordningen om digitale tjenester (DSA), som er under utarbeidelse i EU, vil erstatte paragraf 16–18 i ehandelsloven i Norge når den blir vedtatt (se kapittel 8.4.2).

8.3.3 Det generelle medvirkeransvaret

Det er straffbart å medvirke til lovbrudd. Dette generelle medvirkeransvaret i straffeloven kan også brukes på dem som formidler ulovlige ytringer.36 Hva som skal til for å bli rammet av medvirkeransvaret, vil avhenge av hvilket straffebud som brytes.

Om straffebudet krever forsett, vil det for eksempel ikke være tilstrekkelig å ha stilt lagringsplass til disposisjon (altså å ha åpnet for at folk kan poste innhold på dine sider) for å bli stilt ansvarlig, du må også ha kunnskap om hva som er blitt postet. Ved straffebud hvor terskelen er grov eller simpel uaktsomhet, skal det mindre til for å bli holdt ansvarlig, slik at det for eksempel kan være nok at du burde være kjent med de opplysningene du har bidratt til å spre.37 Flere bestemmelser i straffeloven unntar eksplisitt tekniske medvirkere for ansvar, for eksempel for krenkelse av privatlivets fred.38

Det finnes så vidt kommisjonen kjenner til ikke norsk rettspraksis om medvirkeransvar for straffbare ytringer på nett, selv om det har vært anmeldelser der medvirkeransvaret er anført.39 En sak om spørsmålet var oppe til behandling i Den europeiske menneskerettsdomstolen (EMD) da kommisjonen ferdigstilte sin utredning. Saken gjelder en lokalpolitiker i Frankrike som ble dømt for ikke å ha fjernet kommentarer på sin facebookside som oppfordret til hat eller vold mot folk på grunn av deres religion. Da EMD behandlet saken i ordinært kammer høsten 2021, konkluderte domstolen med at det ikke var et brudd på artikkel 10 å dømme politikeren for ikke å ha fjernet kommentarene etter å ha blitt gjort oppmerksom på dem.40 Saken ble imidlertid anket inn til EMDs storkammer, som avholdt høring i saken i juni 2022.

8.3.4 Åpenhetsloven

Åpenhetsloven trådte i kraft 1. juli 2022. Loven skal fremme bedrifters respekt for grunnleggende menneskerettigheter og sikre tilgang til informasjon om hvordan de håndterer negative konsekvenser for menneskerettighetene.41

Loven skal sikre en mer etisk vare- og tjenesteproduksjon. Loven gjelder for større norske virksomheter som tilbyr varer og tjenester i eller utenfor Norge. Den gjelder også for større utenlandske virksomheter som tilbyr varer og tjenester i Norge, og som er skattepliktige til Norge etter norsk intern lovgivning.42 Om et selskap er å regne som en «større virksomhet», beror på dets økonomiske forhold og antall ansatte.43

Loven pålegger disse selskapene til å utføre aktsomhetsvurderinger i tråd med OECDs retningslinjer for flernasjonale selskap. Dette inkluderer kartlegging og vurdering av «faktiske og potensielle konsekvenser for grunnleggende menneskerettigheter» som er direkte knyttet til virksomheten.44 Med «grunnleggende menneskerettigheter» menes de internasjonalt anerkjente menneskerettighetene, herunder FNs konvensjon om sivile og politiske rettigheter (SP).45 Aktsomhetsvurderingene skal ta utgangspunkt i OECDs retningslinjer for flernasjonale selskap.

Selskapene har plikt til å publisere en årlig redegjørelse for disse aktsomhetsvurderingene. Enhver har ved skriftlig forespørsel rett på informasjon fra en virksomhet om hvordan faktiske og mulige konsekvenser for grunnleggende menneskerettigheter blir håndtert.

Kommisjonen vurderer hvordan denne loven kan brukes på selskap som håndterer innhold på nettet i punkt 8.8.5.

8.4 EU-regler

8.4.1 Gjeldende rett i EU-/EØS-området

Ehandelsdirektivet har siden år 2000 vært grunnlaget for lovreguleringen av nettselskapers innholdsansvar i EU- og EØS-landene. Direktivet er i ferd med å bli supplert og delvis erstattet med en omfattende, ny lovpakke: Forordningen om digitale tjenester (DSA).46 Denne presenteres i punkt 8.4.3. Først følger en kortere redegjørelse for andre direktiver og avtaler i EU-regi som er relevante for diskusjonen om innholdsansvar på nett.

EU-kommisjonen inngikk i 2016 en frivillig avtale med Facebook, Youtube, Microsoft og Twitter for å bekjempe hatefulle ytringer på nettet. Flere selskaper har siden sluttet seg til. Denne code of conduct sier blant annet at selskapene skal fjerne ulovlig innhold innen 24 timer etter at de varsles om det og den lister opp ulike tiltak for å bedre brukervilkårene og varslingsrutiner, øke bevisstheten hos brukerne med mer. Kodeksen er fulgt opp med flere monitoreringsrunder der tiltakene er målt og evaluert.47 Dette er ikke en rettslig bindende avtale. Misnøye med oppfølgingen av avtalen var en av årsakene til at Tyskland senere vedtok en egen ansvarslov for nettselskapene (se punkt 8.5.2).

I 2018 fulgte EU-kommisjonen opp med en anbefaling om hvordan selskaper bør håndtere ulovlig innhold på nettet. Heller ikke denne var rettslig bindende. Anbefalingen rettet seg mot spredning av alle typer ulovlig innhold, og inneholdt mer spesifikke og detaljerte anbefalinger til selskapene enn den nevnte adferdskodeksen.48

Tiltak for å hindre spredning av terrorismerelatert innhold ble spesielt framhevet i denne anbefalingen. Samme år startet EU-kommisjonen arbeidet med et rettslig bindende regelverk for dette. Forordningen om fjerning av terrorrelatert innhold på nettet trådte i kraft i april 2021.49 Denne forplikter selskaper til å fjerne terrorrelatert innhold fra sine sider innen én time etter at de er varslet om slikt innhold fra myndighetene i et EU-land. Innholdet som rammes er både oppfordringer om og hyllester av terrorangrep, samt instruksjoner om hvordan terrorangrep kan utføres. Selskapene må varsle brukerne som får innhold fjernet, ha klagemekanismer på plass og levere årlige rapporter om hva som er gjort. De kan ilegges bøter på inntil fire prosent av selskapets årlige omsetning. Denne forordningen gjelder alle selskaper som tilrettelegger for brukerskapt innhold på nettet. Den ble ikke merket EØS-relevant, og gjelder derfor ikke for Norge.50

EUs opphavsrettsdirektiv berører også spørsmålet om plattformselskapenes ansvar for brukernes ytringer og da brudd på opphavsrett. En revisjon av direktivet ble vedtatt under navnet Digitalmarkedsdirektivet i 2019. Ansvarsfriheten nettselskaper har for andres innhold gjennom ehandelsdirektivet gjelder ikke for opphavsrett. Etter artikkel 17 i det nye direktivet er plattformselskapene forpliktet til å gjøre det de kan for å innhente tillatelse til å videreformidle opphavsbeskyttet innhold og å fjerne innhold hurtig dersom de blir varslet av rettighetshavere. Da direktivet skulle vedtas, ble det debatt om hvorvidt dette ville føre til overdreven filtrering eller overvåking av innhold.51 I april 2022 konkluderte EU-domstolen med at forpliktelsene i artikkel 17 ikke er i strid med EU-paktens vern om ytringsfrihet.52 Direktivet skal innføres i norsk lov, og i sin avgjørelse understreket EU-domstolen at nasjonale myndigheter må sørge for en avveining mellom ulike rettigheter når de gjennomfører artikkel 17 i nasjonal rett.53

Også revisjonen av AMT-direktivet i 2018 medførte nytt innholdsansvar for plattformselskap. Direktivet tar for seg audiovisuelle medietjenester (AMT) og regulerer tjenester som har brukergenerert videoinnhold som en vesentlig funksjon, som Facebook og Youtube. Disse har fått nye krav om tiltak for å beskytte mindreårige mot ulovlig og skadelig innhold på sine plattformer. Blant annet skal de ha rapporteringsordninger på plass for brukerne, sikre alderskontroll og ha ankeordninger når innhold fjernes.54

Felles for disse direktivene, kodeksene og anbefalingene er at de forsøker å finne en balanse mellom på den ene siden å minimere omfanget av ulovlig eller skadelig innhold på nettet og på den andre siden hensynet til ytrings- og informasjonsfriheten. Det er pågående diskusjoner om balansen er den rette.

8.4.2 Forordningen om digitale tjenester (DSA)

8.4.2.1 Generelt om forordningen

EUs forordning om digitale tjenester (Digital Services Act, heretter kalt DSA) er den klart viktigste lovmessige nyvinningen for plattformselskapers innholdsansvar. Forordningsforslaget ble presentert av EU-kommisjonen i desember 2020. 23. april 2022 ble det oppnådd enighet mellom parlamentet om rådet om en endelig avtaletekst. EU-parlamentet vedtok den endelige teksten 5. juli 2022.

DSA vil langt på vei være et svar på punktet i Ytringsfrihetskommisjonens mandat om behovet for internasjonal regulering av plattformselskapenes ansvar for ulovlig og skadelig innhold. Forordningsforslaget ble presentert sammen med et tilstøtende forslag, forordningen om digitale markeder (Digital Markets Act, DMA). Dette er primært ment å regulere de største plattformselskapenes markedsmakt, og er ikke like direkte relevant for Ytringsfrihetskommisjonens mandat (DMA behandles kort i punkt 8.4.2.3).

Rent lovteknisk vil DSA erstatte paragrafene om ansvarsfrihet for innhold i ehandelsdirektivet (artikkel 12–15, paragraf 16–18 i ehandelsloven). I praksis er dette langt mer enn en lovrevisjon. Da EU-kommisjonens visepresident Margrethe Vestager presenterte forordningsforslaget, sammenliknet hun dette med da de første trafikklysene kom langs veiene.55

Slik Ytringsfrihetskommisjonen leser forordningen, prøver EU-landene med DSA å finne løsninger på tre hovedutfordringer ved sosiale medier i dag:

  1. Brukernes maktesløshet: Det skal bli enklere å klage på innhold og få det fjernet, men også enklere å klage på at innhold er fjernet.

  2. Mangelen på innsyn: De store selskapene skal tvinges til å gi langt mer innsyn i sine innholdsvurderinger.

  3. Effektene sosiale medier har på samfunnet: De store selskapene skal tvinges til å vurdere faren for at plattformene deres for eksempel sprer desinformasjon og ulovlig innhold, og eventuelt endre anbefalingsalgoritmer og annonsesystemer.

Hovedprinsippet om ansvarsfritak fra ehandelsdirektivet beholdes i DSA. Samtidig innføres en lang rekke krav til hvordan selskapene skal håndtere innholdet på sine plattformer.

Forordningen prøver å balansere hensynet til ytringsfriheten ved ikke å innføre spesifikke krav til hva som skal fjernes eller sette tidsfrister for fjerning (slik flere nasjonale lover har gjort, se kapittel 8.5). Hva som er ulovlig innhold, skal fortsatt bestemmes i hvert enkelt land.

Forordningen gjelder alle selskaper som formidler innhold på nettet. Tiltakene er ment å være tilpasset typen tjeneste og størrelsen på selskapene: Det er færre krav til innholdsstyring og rapportering for de som bare leverer nettilkobling enn de som styrer innholdet. Det er unntak for små bedrifter og flest krav til de aller største plattformene.

Forordningen er vurdert som EØS-relevant. Når den skal implementeres i norsk rett, skal den innlemmes uten innholdsmessige endringer («som sådan») i norsk lovgivning.56

8.4.2.2 Gjennomgang av de viktigste elementene i DSA

DSA omfatter alle slags tilbydere av digitale tjenester. Omfanget av forpliktelsene som pålegges selskapene, er avhengig av hvilke typer tjenester de tilbyr. Selskapene er delt inn i fire ulike kategorier:

  1. Alle «mellomliggende» tjenester (intermediary services), altså tjenester som sørger for trafikkflyt på nettet, som ISPer, caching og hosting.

  2. Tjenester som lagrer innhold (hosting services), f.eks. webhosting, skytjenester etc.

  3. Nettplattformer (online platforms).

  4. De største nettplattformene (very large online platforms).

Nettplattformer defineres som alle selskaper som leverer åpent tilgjengelig innhold på nettet. Altså selskaper som gjør mer enn å lagre data og sørger for at datatrafikken flyter. Forordningen vil dermed gjelde alt fra de store sosiale mediene som Facebook og TikTok til blogger og ulike nettforum som opererer overfor EU-borgere.57

Alle kategorier av selskap blir pålagt å utnevne en juridisk ansvarlig person i EU og å ha et tilgjengelig kontaktpunkt for myndighetene. Alle må ha tilgjengelige brukerbetingelser, fjerne ulovlig innhold dersom de får pålegg om det fra myndighetene og utgi årlige rapporter om hva slags innhold som fjernes. Lagringstjenester (kategori to) og nettplattformer må i tillegg varsle den eller de som får innhold fjernet senest i samme øyeblikk som innholdet blir borte, og begrunne dette. Det gis en detaljert beskrivelse av hva begrunnelsen skal inneholde, blant annet en oppskrift på hvordan man kan klage på slettingen. Begrunnelsene skal ligge offentlig tilgjengelig for alle i en database som EU-kommisjonen skal administrere, uten personlige data.

For nettplattformer (kategori tre og fire) gjelder enda mer detaljerte regler for håndtering av brukerinnhold. Plattformene må ha et internt system for behandling av klager på fjerning. Det skal være mulig å klage inntil seks måneder etter at innhold er fjernet eller man er utestengt. Brukerne skal også ha mulighet til å anke avgjørelser til en ikke-rettslig instans som ikke kontrolleres av selskapet.

At krav om varsling, begrunnelse og klageordninger blir lovfestet, vil være en klar innstramming fra dagens praksis også hos de største nettplattformene. I dag er det ikke uvanlig at plattformer fjerner poster og hele kontoer uten forvarsel, begrunnelse eller videre kommunikasjon.58 Når DSA trer i kraft, vil det være ulovlig for et selskap å fjerne poster eller kontoer uten å melde fra til brukeren først, gi en begrunnelse og tilby en mulighet til å anke avgjørelsen.

Det blir innført en ny kategori av varslere som får ekstra rettigheter, såkalte ‘trusted flaggers’ («sertifiserte varslere»). Dette minner om den typen samarbeid for eksempel norske Faktisk.no har med Meta i dag. Disse varslerne (som kan være aktivister eller organisasjoner) skal godkjennes av tilsynsmyndigheter i de ulike medlemslandene. Nettplattformene blir pålagt å prioritere innholdsklager fra disse varslerne.

Nettplattformene pålegges å stenge ute brukere som «ofte publiserer åpenbart ulovlig innhold». Folk som misbruker klageordningene, skal også stenges ute fra disse. Hvis et selskap får mistanke om at en «alvorlig forbrytelse som innebærer fare for liv eller trygghet» skjer eller er i ferd med å skje, må det varsle myndighetene.

Det stilles også flere krav til selskap som driver med handel eller annonsering. Det må for eksempel være synlig for brukerne hva som er annonser, hvem som er ansvarlig for annonsen og «meningsfull informasjon» om hvordan annonsen er målrettet.59

Reglene for målrettet markedsføring var blant de største stridsspørsmålene i forhandlingene om forordningsteksten til DSA. En rekke aktører og medlemsstater, inkludert det norske Forbrukerrådet, Datatilsynet og Amnesty Norge tok til orde for et forbud mot markedsføring basert på overvåking av brukernes atferd (kalt «sporing og profilering» i forordningsteksten).60

Et slikt forbud fikk ikke gjennomslag i forhandlingene om forordningen. Som et kompromiss ble det lagt til et forbud mot å bruke sensitive data som hudfarge, seksuell orientering og religion i målrettet markedsføring. Det er også lagt inn forbud mot å målrette reklame mot barn og et forbud mot såkalte «dark patterns» – brukerdesign som gjør det vanskelig for den enkelte å reservere seg mot sporing.

De kanskje mest nyskapende kravene stilles til såkalt «veldig store nettplattformer» (kalt VLOPer i forordningsteksten, heretter kalt «kjempene» i denne teksten). Dette er definert som tjenester som brukes av mer enn 45 millioner brukere i snitt per måned i EU-landene. Dette er ment å omfatte tjenester som Facebook, YouTube, Amazon og TikTok, men sommeren 2022 var det ikke kjent akkurat hvilke tjenester som ville bli omfattet. Også «veldig store online søkemotorer» (VLOSEer) omfattes av skjerpede krav. Dette vil i praksis bety Google.

Disse kjempene skal hvert år gjennomføre risikovurderinger som tar for seg den systemiske risikoen tjenestene deres kan medføre for samfunnet. Vurderingene skal ta for seg faren for spredning av ulovlig innhold og manipulasjon av tjenestene som kan skade for eksempel den offentlige samtalen eller valgprosesser. Også negative effekter for blant annet ytrings- og informasjonsfrihet skal vurderes. Kjempene må videre vurdere om systemene deres for innholdsmoderering, anbefalinger og annonseplassering påvirker grad av risiko.

Dette er en type gjennomgang som minner om såkalt due diligence (selskapsgjennomgang) i det øvrige næringslivet. Risikovurderinger er et verktøy man finner for eksempel i arbeidsmiljø- og kjemikalielovgivning.61 Videre er tenkningen bak beslektet med aktsomhetsprinsippet som var gjennomgående i det opprinnelige forslaget til plattformregulering i Storbritannia (se punkt 8.5.6): Istedenfor å regulere hva slags innhold som skal fjernes og ikke, legger forordningen opp til at teknologiselskapene selv må vurdere hvordan deres tekniske design og forretningsmodell fremmer eller svekker den offentlige samtalen. Aktsomhetsvurderinger er også et sentralt element i den norske åpenhetsloven.

Kjempene pålegges å gjennomføre «fornuftige og effektive» tiltak for å dempe risiko. Det listes opp eksempler på hva disse kan være, som endring av anbefalingsalgoritmer og begrenset visning av annonser. En gang i året må disse store selskapene gjennomgå en ekstern og uavhengig revisjon.

Figur 8.1 Ansvarsforpliktelser for selskap gjennom DSA

Figur 8.1 Ansvarsforpliktelser for selskap gjennom DSA

Stigende ansvar for selskap i DSA (forenklet framstilling, ansvaret nederst i pyramiden gjelder også for selskapene lenger opp)

DSA stiller flere krav til transparens: Hvis kjempene bruker anbefalingssystemer (algoritmer som velger hva slags innhold brukerne ser), må de opplyse i brukervilkårene hvilke hovedkriterier de bruker for å velge ut innhold. De må også gi brukerne en mulighet til å endre kriteriene – og tilby minst én visningsmulighet som ikke er basert på «profilering» (personlig målretting). Det skal være lett for brukerne å endre innstillingene for hvilket innhold de får se. Her legges det opp til å gi brukerne mer makt over hvilket innhold de får se i for eksempel Facebooks hovedvisning. Dette punktet ble ytterligere forsterket i første parlamentsbehandling, da det ble lagt inn en presisering om at det skal være like enkelt å si nei til sporing som å si ja. Takker man nei, har man krav på å få tilgang til en sporingsfri versjon av plattformen.

Hvis de store selskapene viser annonser, må de lage en offentlig database som er tilgjengelig i minst ett år etter annonsen er vist. Den skal blant annet inneholde selve annonsen, hvordan den eventuelt ble målrettet og antall visninger.

Dette nye ansvarssystemet skal overvåkes av en ny type tilsynsmyndighet. Alle land som implementerer forordningen, skal utpeke egne «Digital Services Coordinator» (DSCer). Disse har krav på innsyn i alle data de trenger for å undersøke om kjempene følger regelverket. I tillegg må kjempene utlevere data til såkalte «vetted researchers» (sertifiserte forskere) som ønsker å undersøke selskapenes systemrisiko. Det medfølger regler for hvordan disse forskerne skal sertifiseres. Denne tilgangen på data og informasjon er av flere trukket fram som en viktig nyvinning for å sikre reelt innsyn og tilsyn.62

Et sentralt stridsspørsmål i forhandlingene om forordningsforslaget, var hvilke tilsyn som skal følge opp de største selskapene. I EU-kommisjonens forslag ble det lagt opp til at dette skal gjøres av tilsynet i landet hvor et selskap har hovedkontor, i tråd med den såkalte ettstedsmekanismen. Det vil trolig bety at det blir tilsynsmyndighetene i Irland og Luxembourg som får hovedjobben (Meta, Alphabet, Apple og Amazon er etablert der pga. skattereglene). Franske myndigheter var blant dem som ville endre dette slik at hvert enkelt EU-land i større grad kan følge opp mulige brudd på DSA.63

Forordningen fastslår at ettstedsmekanismen skal følges. For å styrke tilsynet med de aller største selskapene, gis EU-kommisjonen myndighet til å koordinere tilsynet av disse direkte og til å ilegge bøter på inntil seks prosent av selskapets globale årsinntekt.64

Forordningen inneholder også en såkalt kriseprotokoll som gir kommisjonen myndighet til å innføre egne tiltak overfor plattformer i forbindelse med «ekstraordinære omstendigheter som påvirker offentlig sikkerhet eller offentlig helse». I det opprinnelige forslaget innebar dette å kunne pålegge plattformer å formidle informasjon fra myndighetene. Dette punktet ble skjerpet i sluttforhandlingene, som resultat av Russlands invasjon av Ukraina. Plattformene skal også kunne pålegges å «redusere akutte trusler».65

8.4.2.3 Forordningen om digitale markeder (DMA)

DSA er utformet i samspill med et annet omfattende forordningsforslag fra EU-kommisjonen: Forordningen om digitale markeder (Digital Markets Act, DMA). Dette er i mindre grad rettet mot plattformselskapenes innholdsansvar, men berører til en viss grad ytrings- og informasjonsfriheten.66

DMA regulerer såkalte portvoktere, dvs. nettplattformer som er så store at de langt på vei kan bestemme vilkårene for hvilke tjenester og valgmuligheter brukerne deres blir begrenset til. Slik kriteriene er utformet, er det de aller største nettplattformene som Alphabet, Apple, Amazon osv. som vil bli omfattet.

Disse får blant annet forbud mot å kombinere brukerdata fra ulike tjenester i samme selskap og forbud mot å prioritere egne produkter eller tjenester framfor andre selskaper på sine plattformer. De kan ikke nekte brukerne å slette forhåndsinstallerte apper. Det blir også krav om interoperabilitet, altså at brukere kan kommunisere på tvers av selskapers plattformer.

Hvordan de største nettplattformene bruker sin markedsmakt, har betydning for hvilken informasjon brukerne får tilgang til. Det har vært flere granskninger av og søksmål mot de største plattformenes makt over informasjonsstrømmene. DMA er ment å sikre mer konkurranse og hindre at de største selskapene kan misbruke sin makt på bekostning av mindre selskaper.

8.5 Ansvarsregulering i enkeltland

De siste årene har flere land vedtatt eller initiert en rekke lover som retter seg mot plattformselskaps ansvar for brukernes ytringer. I det følgende presenteres situasjonen i et utvalg land som alle har gjennomført eller planlegger å gjennomføre lover som er relevante for diskusjonen om eventuelle rettslige tiltak i Norge.

Lovene kan ikke direkte sammenliknes eller overføres til norske forhold på grunn av ulik innretning og forskjellige rettstradisjoner. Felles for alle er at de forsøker å ramme inn hvilket ansvar formidlere har for andres ytringer på nettet.

8.5.1 USA

Den gjeldende rettstilstanden på dette området i Europa er påvirket av amerikanske forhold. Mye av den teknologiske og forretningsmessige innovasjonen som ligger bak de største plattformselskapene, stammer fra USA. Alle de store selskapene som dominerer infrastrukturen for ytringer i Europa er også amerikanske, og har primært forholdt seg til og øvet innflytelse på amerikansk lovgivning.

Det rettslige utgangspunktet for plattformselskapers innholdsansvar i amerikansk rett, er § 230 i Communications Decency Act. Denne loven ble vedtatt i 1996 og fastslår at plattformselskaper ikke har ansvar for innhold levert av tredjeparter på deres plattformer. Dette er samme type ansvarsfritak som ble vedtatt i Europa gjennom ehandelsdirektivet fire år senere, i 2000. Loven fastslår at:

«No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider.»67

Denne formuleringen er av tilhengere feiret som et av de viktigste redskapene for å sikre ytringsfrihet på nettet.68 Kritikere mener den har ført til at plattformselskapene ikke tar spredning av ulovlige og skadelige ytringer på alvor.69 Loven har vært mye debattert i USA de senere årene og det er lagt fram en lang rekke forslag til endringer av den, både fra president Trump, i Senatet og i Representantenes hus. Samtidig har flere europeiske land og deretter EU lagt fram lovforslag som er mer relevante for en diskusjon om hva som eventuelt bør gjøres i Norge.

8.5.2 Tyskland

Tyskland var først ute i Europa med ansvarsregulering av sosiale medier-selskaper. Den tyske loven har vært omstridt, men har også satt premisser for debatter og lovgivning i flere land og på EU-nivå.

Netzwerkdurchsetzungsgesetz (NetzDG) ble vedtatt sommeren 2017 og trådte i kraft 1. januar 2018.70 Direkte oversatt er navnet «nettverksgjennomføringsloven». Det fulle navnet er «loven for å forbedre gjennomføringen av lovverket på sosiale medier». Dette er altså en lov som skal sørge for at det allerede eksisterende lovverket for ytringer blir håndhevet også på nettet.

Loven fastslår at alle selskaper som driver digitale sosiale nettverk med mer enn 2,5 millioner brukere i Tyskland, har et selvstendig juridisk ansvar for å fjerne ulovlige ytringer på egne plattformer.

Såkalt «åpenbart ulovlige» ytringer skal fjernes innen 24 timer. «Ulovlige ytringer» skal som hovedregel fjernes innen sju dager. Fristen gjelder fra selskapene blir varslet av brukere og selskapene har ansvar for å handle uavhengig av om politiet ber dem om å fjerne innhold eller ikke.

Loven pålegger også selskapene å ha en ansvarlig representant i Tyskland og å lage et system der brukere kan klage og få svar. I tillegg må selskaper som i løpet av et kalenderår mottar mer enn 100 innholdsklager offentliggjøre halvårlige rapporter som redegjør for en rekke forhold, herunder hvor mange klager de får og hvor mange innholdsposter som fjernes. Hvis systemene ikke er gode nok, kan selskapene ilegges bøter på inntil 50 millioner euro. En vanlig misforståelse i omtaler av loven, er at selskapene kan bøtelegges dersom de ikke fjerner konkret ulovlig innhold. Det er altså mangelen på systemer for håndtering av klager og for ivaretakelse av andre forpliktelser etter loven som utløser bøter, ikke enkeltstående innholdsavgjørelser.

Lovens effekt er uviss.71 De store plattformselskapene har fjernet en lang rekke ytringer med henvisning til loven. For eksempel fikk Twitter 500 000 klager bare i første halvår i 2019, og drøyt 45 000 tweets ble fjernet med henvisning til loven. Samtidig har selskapene selv strammet til egne brukervilkår i samme periode slik at disse er langt strengere enn det tyske lovverket. Det er dermed vanskelig å vurdere om loven har ført til at mer innhold er fjernet på grunn av loven eller på grunn av selskapenes egne initiativ.

Forsvarere av NetzDG trekker gjerne fram at loven har presset selskapene til å ansette flere tyskspråklige moderatorer og dermed ta større ansvar for innhold, samt at det nå er lettere å komme i kontakt med selskapene og stille dem til ansvar i Tyskland. Kritikere trekker fram at kravet om tidsfrister for å fjerne innhold som det ofte er krevende å avgjøre hvorvidt er lovlig eller ikke, gjør at selskapene får insentiver til å fjerne mer enn nødvendig og dermed innskrenker ytringsrommet. Samt at loven privatiserer det som burde være en oppgave for domstolene; å vurdere hva som faktisk er lovlig å ytre og ikke.72 Det siste argumentet var blant annet hovedinnvendingen til FNs spesialrapportør for ytringsfrihet, som advarte mot loven før den ble innført.73

Loven er forsterket i to omganger: Våren 2021 vedtok det tyske parlamentet en egen lov mot høyreekstremisme og hatkriminalitet på nettet. Den førte til endringer blant annet av NetzDG. Plattformselskaper ble pålagt å rapportere visse typer lovstridige ytringer direkte til politiet, i tillegg til å slette dem fra sine plattformer. Blant disse er spredning av propaganda for ulovlige organisasjoner, støtte til terrororganisasjoner og trusler om vold. Selskapene må også utlevere informasjon om og IP-adressen til brukeren som postet innholdet og kan bli pålagt å utlevere passordet til brukerens konto til politiet.74 Flere selskaper har anlagt søksmål mot tyske myndigheter, og i mars 2022 besluttet forvaltningsdomstolen i Köln at deler av lovendringene måtte settes på vent overfor Meta og Alphabet. Selv om selskapene ikke fikk fullt medhold i sine påstander, mente domstolen at enkelte aspekter ved lovendringene er i strid med EU-retten, og ga derfor en midlertidig forføyning fram til saken er endelig avgjort.75

Sommeren 2021 ble det vedtatt en ytterligere endring av NetzDG. Den inkluderte blant annet krav om mer brukervennlige rapporteringsskjemaer, klagemekanismer for innholdsavgjørelser og mer detaljerte rapporteringskrav for selskapene.76

Boks 8.4 Modell for autoritære land?

Den tyske loven er blitt kritisert for å skape en modell for autoritære myndigheter som ønsker å begrense opposisjon og kritikk. I en rapport fra oktober 2020 lister den danske tankesmien Justitia opp 25 land som har innført eller vurderer å innføre lover inspirert av den tyske ansvarsreguleringen NetzDG. Bare fire av dem blir kategorisert som frie demokratier (Frankrike, Storbritannia, Østerrike og Australia). De øvrige er diktaturer eller autoritære regimer.

Et eksempel er loven om regulering av nettet som trådte i kraft i Tyrkia sommeren 2021. Loven pålegger store sosiale medier-selskaper å fjerne ulovlig innhold innen 48 timer dersom de får ordre om det fra myndighetene. Offisielt skal loven beskytte innbyggerne mot hatefulle ytringer, trakassering med mer – og det vises eksplisitt til NetzDG som modell. Flere frykter at loven vil bli et redskap for ytterligere undertrykking av det frie ordskiftet. Bare i 2019 ble for eksempel 36 000 mennesker etterforsket for mistanke om at de hadde fornærmet Tyrkias president. I 2020 ble nesten 60 000 nettsider sperret. Sanksjonene i den nye loven er også langt mer inngripende enn i NetzDG og inkluderer blant annet annonseforbud og reduksjon av båndbredde. Også Russland har innført en lignende lov med NetzDG som uttalt forbilde.

Kilde: Mchangama, J. (2020, 1. oktober). The Digital Berlin Wall Act 2: How the German Prototype for Online Censorship went Global – 2020 edition. Justitia og Windwehr, S. (2020, 30. juli). Turkey’s New Internet Law Is the Worst Version of Germany’s NetzDG Yet. Electronic Frontier Foundation.

8.5.3 Sverige

Ehandelsdirektivet danner det rettslige grunnlaget for ansvarsregulering i Sverige, som i andre EU-land. Det er ikke innført egne lover for ansvarsregulering av innhold på nettet utover dette i Sverige de siste årene.

Sverige har en lov fra 1998 som er rettet direkte mot ansvar for brukergenererte poster. «Lagen om ansvar för elektroniska anslagstavlor», eller BBS-loven, fastslår at alle som driver en elektronisk oppslagstavle – definert som en «tjeneste for elektronisk formidling av beskjeder» – har en plikt til å fjerne eller på andre måter forhindre videre spredning av visse typer ulovlig innhold.77 Dersom man forsettlig eller grovt uaktsomt unnlater å fjerne slikt innhold, kan man idømmes straff.78

I 2019 ble en administrator av en facebookgruppe dømt etter denne loven for ikke å ha fjernet lovstridige, rasistiske ytringer etter å ha blitt gjort oppmerksom på dem fra tipsere.79 Loven ble altså ikke brukt mot selskapet Meta, men mot personen som hadde det praktiske ansvaret for facebookgruppen vedkommende hadde opprettet. Samme type ansvar kan i prinsippet anvendes også etter norsk rett, som medvirkning til straffbar handling.

8.5.4 Danmark

Den danske ytringsfrihetskommisjonen anbefalte i 2020 at det ikke skulle innføres egne lover om ansvar for innhold på sosiale medier i Danmark. Kommisjonen oppfordret isteden til å bruke mulighetene i eksisterende lovgivning og til å skjerpe håndhevelsen av dette lovverket for å bidra til et tryggere debattklima på nettet.80

Etter at kommisjonen leverte sin utredning, har den danske regjeringen gått mot kommisjonens innstilling og fremmet en rekke forslag med flere krav til plattformselskapene.

I juni 2021 la regjeringen fram en rapport om store teknologiselskapers rolle i samfunnet. Rapporten inneholdt ni prinsipper «for et mer ansvarlig og rettferdig samfunn med tech-giganter». Blant prinsippene var at «tech-gigantenes forretningsmodeller skal underlegges demokratiske rammer» og at «tech-gigantene skal ta et større ansvar for innholdet på sine plattformer». Rapporten var ment som et oppspill til offentlig debatt.81

I august 2021 fulgte regjeringen opp med et utspill om sosiale mediers innholdsansvar. Her ble det skissert en ny lov med skjerpede krav til fjerning av ulovlig innhold med definerte tidsfrister: Åpenbart ulovlig innhold skal fjernes av selskapene selv innen 24 timer, innhold hvor det kan være tvil om lovligheten innen syv dager. Dette er altså samme modell som tyske NetzDG. Den nye loven skulle også inneholde krav om at plattformselskapene lager faste transparensrapporter med nøkkelopplysninger om innholdsmoderering i Danmark.82

I desember 2021 ble forslaget til ny lov presentert. Etter en kort høringsrunde ble lovforslaget lagt fram for Folketinget 15. mars 2022. Planen var å vedta loven i løpet av våren 2022, med ikrafttredelse sommeren 2022.83 Loven var ment å være en egen dansk regulering i tillegg til DSA. Regjeringen mente at det hastet så mye å få på plass nye reguleringer at Danmark ikke kunne vente på DSA og varslet at loven ville bli justert når DSA ble vedtatt.84 25. mai 2022 trakk regjeringen likevel lovforslaget tilbake. EU-kommisjonen hadde da signalisert at den ville blokkere loven fordi EU i mellomtiden hadde vedtatt DSA. EU-kommisjonen ville ikke akseptere at danske regler for det samme som DSA skulle regulere, trådte i kraft før de europeiske, ble det opplyst om fra den danske regjeringen.85

I februar 2022 publiserte regjeringen et ytterligere utspill, denne gang for en ny mediepolitikk. Også her er flere tiltak rettet mot plattformselskapene. Blant forslagene var å kreve større innsyn fra plattformselskapene i algoritmers effekter på det danske samfunnet, krav om at appene til danske medier får en fremtredende plassering i digitale tjenester som Apple TV og Android TV og en egen skatt, kalt kulturbidrag, på fem prosent for utenlandske strømmetjenester.86

8.5.5 Frankrike

Det franske parlamentet vedtok i mai 2020 en egen versjon av den tyske NetzDG-loven med mange av de samme kravene til plattformselskap. Loven ble imidlertid sendt til forhåndskontroll hos den franske forfatningsdomstolen, som konkluderte med at sentrale deler av loven var grunnlovsstridig.87 Det gjaldt særlig nettselskapenes forpliktelse til å fjerne visse typer ulovlig innhold innen 24 timer. Det endelige lovvedtaket fra juni 2020 ble derfor en utvannet variant.88 Prosessen som ledet til den franske loven skilte seg ut fra andre prosesser ved at regjeringen utformet lovgivningen delvis i samspill med Facebook.89 Målet var å utforske om det var mulig å lage mer effektive lover i samarbeid med selskapene som forvalter reglene til daglig.90

Sommeren 2021 vedtok parlamentet en ny lov som også berører plattformselskapenes innholdsansvar.91 «Loven for å styrke respekten for de republikanske prinsippene» ble initiert etter drapet på læreren Samuel Paty og er særlig ment å bekjempe islamistisk ekstremisme.92 Den krever blant annet at sosiale medier-selskaper skal ha en ansvarlig kontaktperson i Frankrike og at selskapene må forbedre innholdsmodereringen på ulike vis. EU-kommisjonen kritiserte loven for å fragmentere prosessen fram mot en enhetlig regulering i Europa gjennom DSA.93

8.5.6 Storbritannia

I Storbritannia pågår det en prosess med å vedta en lov mot ulovlig og skadelig innhold og aktivitet på nettet, under navnet Online Safety Bill. Den britiske regjeringen presenterte i 2019 et forslag til en slik lov i et «White Paper». Et lovforslag ble lagt fram for det britiske parlamentet i mai 2021, og i desember 2021 publiserte en komité som var nedsatt av parlamentet sine merknader til forslaget. Regjeringen la fram et nytt og omfattende lovforslag våren 2022, og dette forslaget er nå til behandling i parlamentet. Loven er ventet ferdig behandlet innen utgangen av året.94

Britene var tidlig ute med å initiere et lovgivningsarbeid for regulering av sosiale medier, og en del av prinsippene i lovforslaget ble plukket opp i EU-kommisjonens forslag til Digital Services Act (DSA). Samtidig har prosessen så langt vist at mange av spørsmålene er omstridte, og det er følgelig usikkert hvordan det endelige resultatet vil se ut. DSA vil dessuten være mer relevant for norsk lovgivning enn britenes forslag. Derfor går ikke kommisjonen dypt inn i det britiske forslaget.

Kjerneinnholdet i lovforslaget er at nettplattformer som tilrettelegger for brukerskapt innhold og søkemotorer pålegges en rekke plikter.95 Disse pliktene går for eksempel ut på å foreta risikoanalyser, ha visse brukervilkår og å fjerne innhold. Pliktene varierer ut i fra hva slags innhold det er snakk om og om det er sannsynlig at siden vil bli besøkt av barn eller ikke. Et av stridsspørsmålene underveis i prosessen har vært hvor detaljert pliktene skal utformes. Lovforslaget som nå er til behandling er som nevnt omfattende, og er på ca. 200 sider.

Et annet omstridt spørsmål har vært hva slags typer innhold som skal være omfattet av loven. Lovforslaget forplikter nettselskaper som er omfattet av loven til å beskytte voksne også mot innhold som er «skadelig», men ikke ulovlig.96 Tilsyn og håndheving av loven er lagt til britiske Ofcom.

8.5.7 Østerrike

DSA er ment å erstatte de enkelte EU- og EØS-landenes lovverk for ansvarsregulering av sosiale medier. Flere EU-land har likevel innført, eller forsøkt å innføre, egne lover i tillegg. Østerrike er et illustrerende eksempel, med to lover som trådte i kraft i 2021.

Den såkalte kommunikasjonsplattformloven er langt på vei identisk med den tyske NetzDG.97 Den innfører tidsfrister for fjerning av ulovlig innhold som plattformselskapene selv må vurdere. Selskapene må ha lett tilgjengelige klageskjemaer, rapportering og ankemekanismer.

«Loven for å bekjempe hat på nettet» er ikke rettet direkte mot plattformselskapenes ansvar, men innfører endringer i flere eksisterende lover for å gjøre det lettere å rettsforfølge sjikane på nettet. Terskelen for hva som er straffbart er også senket for enkelte ytringer.98 Loven skal gjøre det lettere for enkeltpersoner å gjennomføre sivile søksmål mot personer som sjikanerer eller ærekrenker fra anonyme profiler. Det gis også fri rettshjelp i større utstrekning enn før.

8.5.8 Polen

Polen er eksempel på et land der det diskuteres lovverk som går i motsatt retning av andre europeiske land: Istedenfor å lage nye lover for å sikre at innhold fjernes, diskuteres en lov som skal gjøre at mindre innhold blir slettet.

Den polske regjeringen presenterte i desember 2020 et lovforslag om å etablere et eget ytringsfrihetsråd for sosiale medier. Dette skal være et ekspertutvalg hvor medlemmene velges av parlamentet. Hit skal folk kunne klage når poster slettes fra sosiale medier. Om rådet konkluderer med at postene ikke bryter med polsk lov, skal rådet kunne beordre selskaper til å republisere dem innen 24 timer. Rådet kan også ilegge bøter.99

Reporters Without Borders var blant kritikerne. De mente rådet var et forsøk på politisk meningsstyring fra regjeringen, og at forslaget var i strid med DSA, som også etablerer klagemekanismer – men hvor klageinstansen ikke er politisk oppnevnt.100 Andre fryktet at loven, om den blir vedtatt, vil føre til mer skadelig innhold på nettet, fordi plattformselskapene vil bli mer forsiktige med å fjerne innhold.101 Loven var ennå ikke lagt fram for parlamentet vinteren 2022.102

I januar 2022 ble facebooksiden til et ytre høyre-parti med 11 representanter i den polske nasjonalforsamlingen slettet. Meta mente siden med 670 000 følgere delte feilinformasjon om covid og inneholdt hatytringer. Partiet tok i etterkant til orde for å innføre en lov som forbyr sosiale medier å fjerne kontoene til politiske partier.103

Boks 8.5 Sosiale medier-lover verden rundt

Nye lover for å ramme inn sosiale mediers innholdsansvar er under utvikling i stater og delstater verden over. Kommisjonen har konsentrert seg om å kartlegge de mest relevante prosessene i Europa. Her er noen ytterligere eksempler:

Australia har innført og utvikler flere nye lover: Online Safety Act trådte i kraft ved nyttår 2022 og minner mye om tyske NetzDG. Den setter en 24 timers frist for selskapene til å fjerne ulovlig innhold og pålegger selskapene å ha et eget skjema der brukere kan rapportere inn innhold. Høsten 2021 foreslo regjeringen å supplere med en egen «anti-trolling»-lov. Den skal gjøre plattformselskapene ansvarlige for ærekrenkende innhold og pålegge dem å lage systemer for å identifisere anonyme brukere som sjikanerer andre. Vinteren 2021 vedtok det australske parlamentet en lov som gir medieselskaper rett til å forhandle om betaling for bruk av deres innhold på sosiale medier.

Canadiske myndigheter har lenge jobbet med en lov etter modell av tyske NetzDG. Forslaget om å innføre en 24-timersfrist for fjerning av innhold møtte mye motstand fra minoritets- og sivilsamfunngrupper i høringsrunden som ble avsluttet i februar 2022. Flere påpekte at marginaliserte grupper er særlig utsatt for å få innhold fjernet. Et nytt lovforslag skal nå utarbeides.

Det finnes også lovforslag som går i motsatt retning. Delstatsmyndighetene i Texas, USA, vedtok høsten 2021 en egen sosiale medier-lov som forbød plattformselskaper å fjerne en bruker eller brukerens ytringer på grunn av vedkommendes meninger. Loven ble stanset i amerikansk høyesterett våren 2022 fordi den grep inn i private selskapers rett til å bestemme over innhold på egen plattform. Florida vedtok også en lignende lov høsten 2021, også denne ble stanset i rettsapparatet.

Kilde: Australia: Online Safety Act 2021, Draft Social Media (Anti-Trolling) Bill 2021, News Media bargaining code. Canada: Government commitment to address online safety. Texas: Bill 20 (2021).

8.6 Skadelig innhold på nettet

Flere lovforslag omfatter ikke bare regler for håndtering av ulovlig innhold, men har også føringer for hvordan plattformselskaper skal håndtere såkalt skadelig innhold. Utkastet til den kommende britiske lovgivningen for regulering av nettet het for eksempel «Online Harms White Paper».104 Risikovurdering av mulige skadeeffekter er et sentralt element i den kommende Digital Services Act, som vil bli norsk lov. Også Ytringsfrihetskommisjonens mandat bruker dette begrepet, der kommisjonen bes om å vurdere «tiltak for å motvirke spredning av ulovlig og skadelig innhold på elektroniske plattformer og sosiale nettverk».

Hva som defineres som skadelig innhold, varierer. Det er vanlig å bruke begrepet om innhold som ikke bør rettes mot barn. Grunnlovens paragraf 100 har et unntak fra forbudet mot forhåndssensur hvis det er «nødvendig for å beskytte barn og unge mot skadelig påvirkning fra levende bilder». I bildeprogramloven er begrepet «skadelig innhold» definert som «skildringer i bildeprogram som kan virke følelsesmessig opprivende eller kognitivt forstyrrende for mindreåriges velbefinnende».105

Det opprinnelige utkastet til den nye britiske lovgivningen for sosiale medier inneholder en liste over 23 definerte skader («online harms») som loven er ment å bekjempe. Flere av disse er kategorier av ytringer som ikke alle er åpenbart ulovlige etter britisk lovgivning. For alle kategoriene ble det foreslått prosedyrer plattformselskaper skal følge for å begrense omfanget av slike ytringer.106

Videre har forretningsmodellen som dominerende sosiale medier bygger på, utløst mange debatter om mulige skadevirkninger for enkeltmennesker og samfunnet. Sosiale medier blir kritisert for alt fra avhengighet og svekket psykisk helse til radikalisering av brukerne, og for fenomener som filterbobler, ekkokammer og polarisering. Bekymringen for ulike skadeeffekter kan sies å være utbredt. I kapittel fem gis en oversikt over forskning som vurderer disse skadetypene.

8.7 Anonymitet og kryptering

Kommisjonen er i mandatet blant annet bedt om å drøfte spørsmål om kryptering og anonymitet i forbindelse med tiltak som skal «sikre borgerne trygge rammer og infrastruktur for utøvelse av ytringsfriheten». Dette er komplekse problemstillinger som berører personvernspørsmål vel så mye som ytringsfrihet. Kommisjonen har ikke gjort dyptgående undersøkelser av temaene. I det følgende gis en kortfattet redegjørelse over utviklingen og debatter de siste årene.

8.7.1 Om anonymitet

Spørsmålet om anonymitet på nettet innebærer et reelt dilemma som har vært gjenstand for flere debatter i Norge de senere årene. Muligheten til å kunne være anonym er et premiss for at en rekke mennesker i mange situasjoner skal kunne ytre seg fritt. Samtidig er anonymitet forbundet med flere typer skadelig atferd på nettet, som nettovergrep og kontaktetablering mellom overgripere og barn (såkalt «grooming»), og ulike former for sjikane og personangrep fra «anonyme troll» på nettet.

Etter terrorangrepet 22. juli 2011 oppsto en bred debatt om retten til anonymitet i norsk offentlighet. Flere aviser strammet inn praksisen i sine kommentarfelt.107 De senere årene har det vært flere debatter om sammenhengen mellom anonymitet og sjikane for eksempel på apper som Sarahah og Jodel, begge omtalt som anonyme «mobbeapper».108

Det er vanlig å legge vekt på kjennetegn ved internett som arena når man skal forklare hvorfor folk oppfører seg dårlig på nettet. Internett kan gi en opplevelse av å være anonym, noe som gjør at folk føler de kan si ekstreme ting uten å måtte stå til ansvar for det. Denne effekten kan oppstå selv om folk kommuniserer under fullt navn.109

Det finnes lite empirisk dokumentasjon av hvorvidt anonymitet i seg selv øker forekomsten av sjikane og lignende på nett, og funnene er sprikende.110 En norsk undersøkelse fra 2011 indikerte at anonymitet kunne gi større grad av usaklighet i avisenes kommentarfelt.111 En studie av utvalgte amerikanske nettaviser i 2013, fant flere «usiviliserte» ytringer i de anonyme kommentarfeltene enn i de som krevde fullt navn. En annen studie fra Tyskland samme år gjorde motsatte funn: De som brukte fullt navn, oppførte seg verre.112

Det finnes heller ikke mange studier av hvor stort omfanget av anonym sjikane er. I en studie fra ISF i 2021, ble totalt 225 personer som sa de hadde mottatt det de oppfattet som hatefulle ytringer, spurt hvem avsenderen var. 25 prosent svarte at de hadde mottatt slike ytringer fra en anonym avsender. Resten av ytringene ble sendt fra personer som ikke var anonyme.113

Det er ikke åpenbart hvor mye problemet med sjikane og hatefulle ytringer på nett kan reduseres ved å innskrenke muligheten til å være anonym på nettet. Selv om flere redaktørstyrte medier i tiden etter 22. juli 2011 innførte krav om identifisering for å delta i nettdebatten, ble ikke problemet med sjikane borte og flere medier endte med å stenge kommentarfeltene fullstendig.114

Facebook har siden plattformen ble opprettet krevd at brukerne identifiserer seg med fullt navn og tillater i utgangspunktet ikke pseudonymer. Like fullt har plattformen stått i sentrum for mye av oppmerksomheten rundt uønskede ytringer på nett.115 Twitter tillater at brukere anvender pseudonym. Selskapet har møtt gjentatte krav om å endre praksis, for eksempel da rasistiske meldinger ble rettet mot fotballspillere på plattformen i forbindelse med Europamesterskapet i 2020. Ifølge Twitters egne undersøkelser, ble imidlertid 99 prosent av meldingene postet fra kontoer som ikke var anonyme.116

Det har vært flere debatter om det bør innføres strengere regler mot å opptre anonymt på nettet.117 Enkelte land har innført regler som skal gjøre det lettere for politiet å etterforske mulige lovbrudd fra anonyme profiler.118 I det reviderte utkastet til forordning om digitale tjenester (DSA) som ble vedtatt i Europaparlamentet i januar 2022, ble det lagt til en formulering som fastslår at brukere har rett til å bruke sosiale medier og andre tjenester anonymt.119

8.7.2 Om kryptering

En måte å sikre anonymitet på, er gjennom kryptering. Kryptering er en matematisk metode for å omforme data slik at de ikke kan leses eller endres av noen som urettmessig får tilgang til dem.120 Kryptering er utbredt i all digital kommunikasjon og er særlig viktig for utveksling av sensitiv informasjon.

De siste årene er det blitt mer utbredt med såkalt ende-til-ende-kryptering. Dette innebærer at kun avsender og mottaker av informasjon har adgang til å låse opp innholdet, gjerne gjennom automatiserte prosesser. Heller ikke selskapet som formidler informasjonen, kan få tilgang til innholdet i meldingene som sendes.

Meldingstjenesten Whatsapp har hatt ende-til-ende-kryptering som standard siden 2016, mens tjenester som Signal har vokst kraftig de siste årene grunnet bekymring for usikker kryptering hos mer utbredte meldingstjenester. De siste årene er ende-til-ende-kryptering også blitt tilgjengelig i tjenester som Metas Messenger og Googles Messages. I 2019 annonserte Meta at personvern skulle være et satsingsområde for selskapet og at ende-til-ende-kryptering skulle bli standard i deres meldingstjenester. Innføringen er forsinket og skal etter planen skje i løpet av 2023.121

Utviklingen innen kryptering har utløst flere debatter internasjonalt, særlig knyttet til kriminalitet som terrorplanlegging, nettovergrep osv. Det har vært fremmet flere forslag om å pålegge nettoperatører å tilby såkalte bakdører slik at etterforskningsmyndigheter eller etterretningstjenester kan få tilgang til kryptert innhold.122

Boks 8.6 Telegram: Fra terror-app til frihets-app

Meldingstjenesten Telegram illustrerer dualiteten ved kryptering. Appen ble utviklet av russiske Pavel Durov. Han er kalt Russlands Mark Zuckerberg, etter at han utviklet Russlands mest populære sosiale medium, VKontakte i 2006. Da russiske myndigheter tok indirekte kontroll over denne tjenesten, utviklet han Telegram som et mer sikkert og fritt alternativ i 2013.

Lenge var appen kjent som terroristers foretrukne app. Særlig ble den brukt av terrorgruppen IS, også i forbindelse med flere terrorangrep. Appen ble forbudt i Russland i 2018, etter at Durov nektet å gi russiske myndigheter tilgang til brukerdata. Forbudet viste seg vanskelig å håndheve og ble opphevet to år etter. I samme tidsrom ble appen den mest populære meldingstjenesten i Ukraina, blant annet fordi den ble ansett som sikrere enn Vkontakte og fordi det var mulig å dele meldinger med inntil 200.000 mennesker. Da Russland invaderte Ukraina i februar 2022, ble appen en sentral kanal for å kunne dele informasjon om krigen, ikke minst ble den hyppig brukt av president Volodymyr Zelenskyj.

Appen hadde i februar 2022 over 550 millioner månedlige brukere. Den markedsfører seg som en kryptert og sikker tjeneste, men har ikke ende-til-ende-kryptering som standardinnstilling. Dermed har selskapet mulighet til å få tilgang til informasjon om mye av innholdet som utveksles i appen.

Kilde: Sweeney, M. (2022, 5. mars). Telegram: the app at the heart of Ukraine’s propaganda battle. The Guardian. https://www.theguardian.com/business/2022/mar/05/telegram-app-ukraine-rides-high-thirst-trustworthy-news

8.8 Kommisjonens vurderinger

8.8.1 Hovedprinsippet for plattformenes innholdsansvar

Det er nødvendig med nye reguleringer av ulike sider ved informasjonsflyten på nettet og sosiale medier. Dette gjelder blant annet hvordan man kan hindre at selskap som skatter i andre land enn der de henter inntektene, skaper skjeve konkurranseforhold. Det gjelder store selskapers markedsmakt som gjør at de kan stenge ute konkurrenter og hindre flyt av tjenester og informasjon. Det gjelder sikkerheten på nettet og faren for tyveri av informasjon, og en rekke andre politikkområder (jf. vurderinger i punkt 7.9.3).

I dette kapittelet handler det om hvilket ansvar formidlere har for innholdet i andres ytringer. Hovedprinsippet i norsk lov er at den som ytrer seg, også på nett, selv har ansvar for ikke å ytre seg ulovlig. Formidlere kan primært bli stilt til ansvar dersom de ikke fjerner ulovlig innhold etter å ha blitt gjort oppmerksom på det av offentlige myndigheter.

Det har lenge vært diskutert om også plattformselskaper som Meta, Twitter og lignende bør ha et redaktøransvar for innholdet på sine plattformer. For eksempel skrev den danske regjeringen i sitt utspill om ny politikk for sosiale medier-ansvar at de ville vurdere «initiativer som innebærer en form for redaktørlignende ansvar og presseetiske regler for digitalt innhold.»123

Et redaktøransvar slik det er uttrykt gjennom medieansvarsloven vil innebære at plattformselskapene kan stilles juridisk til ansvar for alt innhold som postes hos dem, også når de ikke har vurdert innholdet. Dette vil kunne føre til at også sosiale medier, bloggportaler og lignende må godkjenne alle innlegg før de postes. Dette vil radikalt endre og begrense virkemåten til slike areaer.

Ingen av lovverkene kommisjonen har undersøkt, legger til grunn et slikt prinsipp. Forordningen om digitale tjenester (DSA) beholder grunnprinsippet fra ehandelsdirektivet om ansvarsfrihet, med en lovfesting av det såkalte notice and takedown-prinsippet: Nettplattformer er pålagt å fjerne ulovlig innhold når de blir gjort oppmerksom på det. Dette innebærer ikke en generell plikt til å overvåke innholdet på egne plattformer.

Kommisjonen støtter grunnprinsippet som ligger til grunn for DSA. Åpenheten og tilgjengeligheten nettplattformer og sosiale medier tilbyr, har positive sider som bør bevares. Reguleringen som ligger til grunn for redaktørstyrte medier kan ikke uten videre overføres til plattformselskapene, fordi de i sin natur er ulike.

Plattformer der brukerne selv ytrer seg uten forhåndsgodkjenning av en redaktør har en egen verdi og funksjon i det offentlige ordskiftet. De synliggjør marginale stemmer, viser personlige erfaringer og er i sin natur en friere arena for ytringsfrihet. Dette er det viktig å holde fast ved når behovet for nye reguleringer og tiltak skal vurderes.

8.8.2 DSA: En balansert tilnærming til regulering

EUs forordning for digitale tjenester (DSA) vil bli det viktigste rammeverket for regulering av formidleransvar på nettet i tiden framover. Forordningen er EØS-relevant og vil etter alt å dømme innarbeides i norsk lov. Dette kan ta noe tid. Dersom forordningen ikke er innarbeidet i norsk lovgivning når den trer i kraft i EU, vil den allikevel få betydning for brukere av medieplattformer i Norge siden de store plattformene er flernasjonale selskap.

Snarere enn å oppstille spesifikke krav til hva slags innhold som skal fjernes innen hvilke frister, er hovedtilnærmingen i DSA å stille strengere krav til prosesser, åpenhet og plattformdesign. Dette er en fornuftig tilnærming som kan medføre en kraftig forbedring av ytringsfrihetens rammevilkår så langt regelverket kan gjøres gjeldende.

For det første forbedres brukernes rettigheter markant. Et utbredt problem med de største sosiale medier-plattformene i dag, er at brukerne er prisgitt selskapenes håndtering av innholdet. DSA vil pålegge alle plattformer å ha tilgjengelige brukerbetingelser og mulighet til å rapportere inn innhold. Ikke minst vil det være en forbedring at plattformene pålegges å varsle folk før innhold fjernes og tilby muligheter til å anke avgjørelsen, også til instanser utenfor selskapene. Brukerne får også en lovfestet rett til selv å velge hvilket innhold de presenteres for på de største plattformene, hvor det også skal være mulig å se en innholdsstrøm som ikke er basert på såkalt profilering. Dette vil bety at det skal bli mulig å velge bort algoritmestyrte strømmer av innhold og heller velge for eksempel kronologiske visninger.

For det andre bedres muligheten til innsyn i hvordan innhold velges bort og hva som prioriteres. «Innsyn i algoritmene» har vært et hovedkrav i mange av debattene om sosiale mediers virkning på samfunnet. DSA gir reelle muligheter for bedre innsyn, både for enkeltbrukerne og samfunnet ellers. Brukerne får som nevnt rett til innsyn i begrunnelsene for hvorfor innhold eller kontoer er slettet. Brukere av de største plattformene får også rett til å vite hvilke kriterier innholdet blir presentert ut fra. Dette gjelder også for visning av annonser. Viktigst er kanskje lovfestingen av innsyn for forskere og tilsyn. Begrunnelser for fjerning av innhold og informasjon om visninger av målrettede annonser skal sendes inn og lagres i offentlig tilgjengelige databaser i minst ett år. Forskere og tilsyn får lovfestet rett til innsyn i data som er nødvendige for å vurdere hvilken systemrisiko de største selskapenes designvalg og systemutforming kan utgjøre. Disse kravene kan gi et langt bedre kunnskapsgrunnlag for de kompliserte debattene om hvordan plattformenes design og anbefalingsalgoritmer påvirker ytringsrommet.

For det tredje kan innføringen av krav om såkalte aktsomhetsvurderinger for de aller største selskapene bidra til å dytte selskapene i retning av mer ansvarlig utforming av anbefalingsalgoritmer og andre teknologiske og designmessige valg som påvirker hvordan den offentlige samtalen utformes. Dette er krevende mekanismer å regulere gjennom lovgivning. Innføring av krav om aktsomhetsvurderinger kan bidra til å tvinge fram en offentlig selvrefleksjon fra selskapene, og bøteregimet kan bidra til å presse fram endringer hvis det er nødvendig.

Så langt kommisjonen kan vurdere, balanserer DSA hensynet til ytringsfrihet på en forsvarlig måte opp mot behovet for en rettslig innramming for å gi flere rettigheter til brukerne, mer innsyn og håndtere potensiell samfunnsrisiko. Dette er imidlertid krevende å vurdere før reglene har tredd i kraft og brukes.

8.8.3 Om behovet for å styrke DSA på nasjonalt nivå

Kommisjonen har diskutert hvorvidt det er behov for å styrke DSA med en egen nasjonal regulering. Dette er imidlertid komplisert. Etter at DSA blir tatt inn i EØS-avtalen, må den implementeres i norsk rett. I henhold til EØS-avtalen skal forordninger implementeres «som sådan», som betyr at de skal kopieres rett inn i loven uten innholdsmessige endringer. Dette skyldes at forordninger skal sikre rettsenhet i EU- og EØS-området. Hensynet til rettsenhet og ønsket om en totalharmonisering av regelverket er også tydelig framhevet i utkastene til forordningen.124 Norske myndigheter har derfor et begrenset handlingsrom utover implementeringen av DSA.

Det viktigste for norske myndigheter blir derfor å sørge for at DSA raskt kan innlemmes i norsk rett, i tillegg til å etablere et effektivt håndhevingsapparat (jf. punkt 8.8.6). Som utgangspunkt skal forordningen bli virksom 15 måneder etter ikrafttredelse eller 1. januar 2024, avhengig av hvilket tidspunkt som kommer senest. Mye tyder på at deler av forordningen vil bli virksom tidligere. Ytringsfrihetskommisjonen mener det uansett bør være en målsetning for myndighetene å ha en norsk lov klar når forordningen trer i kraft i EU.125

Selv om handlingsrommet ved implementering av forordninger er begrenset, kan en forordning i seg selv åpne for nasjonal tilpasning i form av nasjonale regler som spesifiserer, utfyller eller gjør unntak fra reglene. Et eksempel på dette er personvernforordningen.126

Det kan være behov for å gjøre presiseringer som forsterker loven på nasjonalt nivå. Etter kommisjonens syn, bør muligheten for innsyn i og kontroll med plattformenes virksomhet i Norge, styrkes. Kommisjonen vil særlig framheve to innfallsvinkler:

For det første er det viktig å sikre innsyn i selskapenes operasjoner i Norge og hvordan de forholder seg til norskspråklig innhold. Ettersom håndteringen av de største selskapene skal skje på europeisk nivå koordinert gjennom EU-kommisjonen, er det ikke åpenbart at DSA sikrer et tilsvarende innsyn på nasjonalt nivå. Det er viktig å vite hva som skjer med innhold fra norske brukere på de store plattformene. Hvor mye innhold fjernes, hva slags type innhold er det snakk om, hvordan arbeider selskapene med moderering av norsk innhold, og så videre.

For det andre kan tydelige nasjonale krav innenfor rammene av det DSA åpner for, tvinge de store plattformselskapene til å prioritere Norge i større grad enn de ellers vil gjøre. Den tyske loven fra 2018 om ansvar for plattformselskaper førte eksempelvis til flere innholdsmoderatorer i Tyskland (se punkt 8.5.2). Tydelige nasjonale krav vil styrke Norges posisjon som foregangsland for åpenhet og innsyn i Europa.

Rapportene de største selskapene publiserer på nasjonalt nivå i dag forteller kun om innhold som er fjernet etter forespørsel fra myndighetene, og gir derfor begrenset informasjon om selskapenes egne håndteringer av innhold.127 Ytringsfrihetskommisjonen mener det bør være full åpenhet om hvor mange moderatorer selskapene bruker i Norge, hvor mange av dem som snakker norsk og hvordan norsk innhold håndteres – og dessuten hvor mye og hva slags innhold som fjernes, med hvilke begrunnelser, hva som påklages og så videre. De største selskapene bør også være pålagt å ha en juridisk ansvarlig kontaktperson for innhold i Norge, ikke bare på EU-nivå.

Ytringsfrihetskommisjonen mener derfor myndighetene bør vurdere om DSA slik den foreligger, gir grunnlag for innsyn og krav som skissert ovenfor. Videre bør myndighetene klargjøre hvilket handlingsrom som finnes for nasjonal tilpasning i forordningen og hvis nødvendig bruke dette til å sikre innsyn på nasjonalt nivå.

8.8.4 Bør plattformene pålegges tidsfrister for å fjerne ulovlig innhold?

Den tyske loven NetzDG satte tonen for reguleringer av sosiale medier-selskapers innholdsansvar. Gjennom loven fikk kommunikasjonsplattformer tidsfrister på ett og syv døgn for å fjerne ulovlig innhold. Flere land har tatt etter dette. Blant annet foreslo den danske regjeringen slike tidsfrister i sitt utkast til en sosiale medier-lov.

Hovedargumentene for en slik løsning har i hovedsak vært at den tvinger de store plattformselskapene til å ta mer ansvar for innholdet de tilrettelegger for. Sanksjonssystemet er innrettet etter hvorvidt selskapene har systemer for å håndtere klager og å vurdere dem raskt. Dette gjør at de er nødt til å ansette langt flere moderatorer som vurderer innhold.

Argumentene mot har vært at avgjørelser om hvor ytringsfrihetens grenser går, privatiseres når plattformselskapene selv pålegges å vurdere lovligheten i ytringer basert på klager fra brukerne. Dette kan gjøre private selskaper til sensurinstanser på vegne av staten. Ofte er det krevende å avgjøre om en ytring er lovlig eller ikke. Dette har skapt en bekymring for at loven ville føre til overblokkering av lovlige ytringer, ikke minst på grunn av de strenge tidsfristene.

DSA legger ikke opp til fastsatte tidsfrister for innholdshåndtering, men pålegger selskapene å handle «uten unødige forsinkelser».128 Tidsfrister er dermed ikke en aktuell problemstilling for Norge. Kommisjonen mener uansett at å sikre innsyn og forsvarlig ressursbruk fra plattformselskapene, ikke å innføre tidsfrister, bør være det viktigste formålet med nye reguleringer.

8.8.5 Åpenhetsloven som supplerende verktøy

Det finnes allerede en lov i Norge som skal sikre større åpenhet og mer innsyn i hvordan private selskap håndterer grunnleggende menneskerettigheter som ytringsfriheten. Åpenhetsloven trådte i kraft 1. juli 2022 og pålegger både større norske og utenlandske virksomheter som tilbyr tjenester i Norge å gjøre aktsomhetsvurderinger av om selskapets virksomhet kan påvirke grunnleggende menneskerettigheter negativt.

Kommisjonen har vurdert om loven kan anvendes for å føre kontroll med plattformselskapene, og mener dette reiser tre spørsmål.

Det første spørsmålet er hvorvidt loven kan anvendes for å ettergå selskapenes håndtering av brukernes ytringsfrihet. Her er det ingen tvil, slik kommisjonen ser det. Ytringsfriheten er en grunnleggende menneskerettighet. Selskaper som er omfattet av loven, pålegges derfor å gjøre aktsomhetsvurderinger knyttet til ytringsfrihet.129

Aktsomhetsvurderingene skal offentliggjøres og enhver har rett til å kreve informasjon om hvordan virksomheten håndterer faktiske og potensielle negative konsekvenser for menneskerettighetene.130 Denne retten til å stille spørsmål og kreve å få et svar, kan være et verktøy for å tvinge fram intern refleksjon og ekstern åpenhet fra selskaper som har stor innflytelse over den reelle ytringsfriheten i Norge.

Neste spørsmål er hvorvidt det vil være adgang til å bruke åpenhetsloven på plattformselskapene når DSA regulerer disse. Dette er et mer åpent spørsmål, så langt kommisjonen kan vurdere. DSA legger opp til en totalharmonisering, men det gjelder kun for det som faller inn under forordningen (forordningens virkeområde). Det er derfor ikke utenkelig at det finnes sider ved plattformselskapenes forhold til ytringsfriheten som kan reguleres gjennom annen lovgivning, som åpenhetsloven.

Hvor stort dette handlingsrommet er, er det ikke mulig å si sikkert før DSA er implementert i EU. Ettersom åpenhetsloven skal ivareta et langt bredere sett av formål enn DSA sitt virkeområde, antar kommisjonen at den uansett kan supplere forordningen på flere punkter. Et eksempel kan være aktsomhetsvurderinger knyttet til anstendige arbeidsforhold for moderatorer.

Det hadde vært en klar styrke for ytringsfriheten dersom loven også kunne brukes for å kreve aktsomhetsvurderinger av hvordan plattformene påvirker ytringsfriheten i Norge gjennom for eksempel innholdsmoderering (hva som fjernes og promoteres) og algoritmisk utvelgelse av innhold. Kommisjonen mener dette potensialet for å anvende loven overfor plattformselskaper bør avklares nærmere når DSA blir endelig vedtatt i EU og vi får mer oversikt over DSAs virkeområde og det nasjonale handlingsrommet for tilpasninger.

Et tredje spørsmål som må stilles uavhengig av forholdet til DSA, er om åpenhetslovens virkeområde, altså avgrensningen av hvem som må følge loven, er hensiktsmessig. Selskapene med størst innflytelse over den reelle ytringsfriheten i Norge i dag, er utenlandske plattformtjenester som Facebook, Google, Twitter, Tiktok og så videre. Slik åpenhetsloven er utformet i dag vil de færreste av disse være omfattet.

Dette gjelder for eksempel Facebook Norway AS, som ifølge driftstallene for 2020 ikke kan anses som en «større virksomhet» i Norge i lovens forstand.131 Google Norway AS har derimot tilstrekkelig høye driftsinntekter og antall ansatte i Norge til at de vil være omfattet. Kommisjonen mener det er viktig at åpenhetsloven omfatter selskap som har stor innflytelse over hvordan ytringsfriheten realiseres i Norge. Av den grunn bør loven endres slik at det ikke er noen tvil om at disse plattformselskapene omfattes.

Oppsummert mener kommisjonen for det første at åpenhetsloven er et verktøy som bør utforskes for å føre kontroll med plattformselskapene. For det andre bør det gjøres en vurdering av om loven kan anvendes på plattformselskapene sett opp mot DSA. For det tredje bør lovens virkeområde endres slik at den også kan anvendes på plattformselskapene.

8.8.6 Styrke det institusjonelle rammeverket i Norge

Utformingen av tilsyn vil bli en sentral oppgave for å sikre at DSA og et eventuelt supplerende nasjonalt lovverk blir en velfungerende ramme for den offentlige samtalen også i Norge.

Innføringen av GDPR illustrerer hvor viktig tilsyn er for effektiv håndheving. Den såkalte ettstedsmekanismen gjør at det er landet hvor et selskap har hovedkontor som har det førende tilsynsansvaret. Dermed er tilsynene i Irland og Luxembourg blitt flaskehalser for oppfølging av lovverket.132

DSA legger opp til at tilsyn skal skje i samarbeid mellom ulike lands tilsynsmyndigheter og EU-kommisjonen, som gis et særlig ansvar for å følge opp de største selskapene. Hvert land skal opprette nye tilsynsfunksjoner, såkalte Digital Services Coordinators. Disse kan være nye institusjoner, eller funksjonen kan legges til eksisterende tilsyn. I Norge vil forordningen potensielt berøre arbeidsområdene til flere tilsynsmyndigheter, som Datatilsynet, Medietilsynet, Konkurransetilsynet, Forbrukertilsynet og Nasjonal kommunikasjonsmyndighet.

DSA vil bli et komplekst rettslig rammeverk som skal håndtere et stort landskap av aktører, inkludert svært store markedsaktører, og teknologier som utvikler seg i stort tempo. For å motvirke asymmetrier i myndighet, kompetanse og ressurser, er det viktig å utforme tilsyn med tilstrekkelige ressurser og kompetanse.

Samordning mellom eksisterende tilsyn og myndigheter vil også bli viktig. Det viktigste norske myndigheter kan gjøre i oppfølgingen av DSA og et eventuelt supplerende nasjonalt lovverk (jf. anbefaling i punkt 8.8.3), er å jobbe for at implementeringen blir effektiv. Dette forutsetter en gjennomgang av eksisterende tilsynsfunksjoner og at det sikres et tilstrekkelig institusjonelt rammeverk og mandat som sørger for at DSA blir et virksomt regelverk i Norge. Fragmentering og ressursmangel er en reell bekymring.

Det institusjonelle rammeverket handler om mer enn rene tilsynsfunksjoner. Det er også viktig med god koordineringen mellom relevante forvaltningsorganer og departementer. Flere funksjoner og organer i forvaltningen må innrettes slik at de samlet kan ivareta kompleksiteten i utfordringer som digitaliseringen medfører. Kraften i den teknologiske utviklingen og makten til de globale plattformselskapene, tilsier at det trengs en samordnet og gjennomtenkt strategi fra offentlige myndigheter.

Dette kan løses på ulike vis. Norge hadde en periode en egen digitaliseringsminister, som også var distriktsminister. Danske myndigheter har opprettet en egen «tech-ambassadør» tilknyttet Utenriksdepartementet. I Norge er koordineringen av norske myndigheters arbeid med DSA lagt til Kommunal- og moderniseringsdepartementet (KMD). Kommisjonens inntrykk er imidlertid at det er behov for et større, løpende engasjement i komplekse, men viktige reguleringsspørsmål som for eksempel utviklingen av DSA.

Dette gjelder ikke bare for offentlige myndigheter. Da KMD inviterte til høring om EU-kommisjonens opprinnelige forslag til DSA høsten 2021, kom det kun fem høringssvar: Fra Abelia, Amnesty, Mediebedriftenes landsforening, NHO og Schibsted.133 For å sikre gjennomtenkt regulering, er det behov for kunnskap og engasjement også fra privat sektor og organisasjonslivet om de faktiske løsningene som foreslås.

8.8.7 Plattformselskapene bør ansette flere moderatorer

Det aller meste av modereringen på sosiale medier styres ikke av lovgivning, men av plattformselskapenes egne standarder for innhold. Sosiale medier, blogger, diskusjonsforum og søkemotorer fjerner og prioriterer store mengder lovlig innhold. Dette kan de gjøre fordi de er private selskap.

Enkelte steder har man vurdert å gjøre det ulovlig å fjerne innhold som ikke er lovstridig (for eksempel Polen og Texas, se punkt 8.5.8 og boks 8.5). Slike ordninger er imidlertid problematiske fordi de pålegger private selskaper å publisere ytringer fra alle som ønsker det.

Det kan diskuteres hvorvidt tjenester som Facebook og Google er så viktige for den offentlige debatten at de må anses som infrastruktur for ytringsfriheten og reguleres deretter. Slik rettstilstanden er i dag, må en vurdering av innholdsansvar ta utgangspunkt i at private aktører har stort spillerom til selv å avgjøre hvilket innhold de ønsker å slippe fram, så lenge ytringene ikke er ulovlige.

Dette er en påminnelse om at lover som tar utgangspunkt i håndtering av ulovlig innhold, kun vil gi en rettslig regulering av en liten andel av innholdet som fjernes eller får redusert spredning hos ulike plattformselskap. Det er ikke til å komme bort fra at store plattformer som Facebook og Youtube har stor påvirkning på hva slags innhold som eksponeres for den brede offentligheten. Dette understreker viktigheten av plattformmangfold, for å unngå at noen få plattformer blir enerådende og får for stor makt over den offentlige debatten (jf. punkt 7.9.5).

Skal plattformselskapene være i stand til å ta sitt ansvar som moderatorer for den offentlige samtalen i Norge på alvor, er det avgjørende at de ansetter nok norsktalende moderatorer. Kunstig intelligens kan ikke alene sette grensen for hva som skal være tillat å ytre og ikke.

De største selskapene er åpenbart ikke godt nok bemannet til å ta dette ansvaret per i dag. Meta er et opplagt eksempel. Kommisjonen har ikke fått svar på hvor mange moderatorer Meta har ansatt for å håndtere det norskspråklige innholdet på sine plattformer. Tidligere rapporter tilsier at det er snakk om et svært lite antall personer som jobber via et selskap i Barcelona (se boks 8.1). Plattformen Facebook alene hadde 2,25 millioner aktive daglige brukere i Norge ved inngangen av 2022.134 Tar man utgangspunkt i at Meta har ti personer som jobber med norskspråklig innhold på Facebook, må hver enkelt av dem håndtere 225 000 brukere av tjenesten.

Kommisjonen har diskutert hvorvidt en eventuell nasjonal lovgivning av kommunikasjonsplattformer bør inkludere konkrete krav til antall moderatorer en tjeneste må ha per bruker. Dette er krevende ettersom tjenestene er ulike: De har ulikt antall brukere og det varierer hvor aktive brukerne er og hva de poster. Men det må kunne stilles krav om at modereringen gjennomføres på en forsvarlig måte for å ivareta ytringsfriheten. Dette forutsetter etter kommisjonen syn et visst antall norsktalende moderatorer.

Kravene i DSA om å begrunne og varsle om avgjørelser før innhold slettes og å tilby ankeordninger, bør tvinge fram en oppbemanning av antall moderatorer og deres kompetanse. Å pålegge krav om rapportering om hvor mange som jobber med norskspråklig innhold, vil kunne presse fram en oppbemanning også av håndteringen av norskspråklig innhold, dersom dette viser seg å være nødvendig. Kommisjonen anbefaler at dette vurderes i forbindelse med tilpasningen av DSA til norsk lov (jf. anbefaling i punkt 8.8.3).

8.8.8 Administratorenes ansvar for samtalen

Mange praktiske avgjørelser om innhold tas ikke av selskapene som driver plattformene som samtalene foregår på eller av deres ansatte moderatorer, men av brukerne av plattformene: De som oppretter og administrerer grupper eller sider på sosiale medier, blogger med kommentarfunksjon, diskusjonsgrupper på ulike nettsider, i spillforum, apper og så videre.

Etter gjeldende rett kan det oppstå et medvirkeransvar for dem som legger til rette for samtalen dersom det ytres noe ulovlig og medvirkeren unngår å reagere. Dette vil være unntakene. I de aller fleste tilfeller vil administratorens ansvar være etisk. Det medfører et etisk ansvar å være vertskap for en samtale der alt fra noen titall til flere hundre tusen mennesker deltar.

Det vil være ulikt hvor godt forberedt den enkelte er på hva administratoransvaret kan innebære. De største plattformselskapene kunne med fordel laget enkle veiledere i ytringsfrihet, med tips og råd til administrering av grupper for dem som gir seg selv ansvar for å håndtere innhold.

Kommisjonen understreker gjennom hele utredningen at diskusjonene om ytringsfrihet i mange tilfeller er diskusjoner om ytringskultur. Ytringskulturen må bygges nedenfra, dag for dag. Dette gjelder også i spørsmålet om ansvar på nettet.

Å opprette en gruppe for så å forlate rommet og la diskusjonen flyte fritt, er ikke ansvarlig. Å bygge en god ytringskultur på nettet handler ikke minst om hvordan man legger til rette for samtalen i den daglige deltakelsen og modereringen, og hvordan man selv oppfører seg når man deltar i en offentlig samtale. Dette er et ansvar den enkelte må ta.

8.8.9 Anonymitet bør være unntaket i offentlig debatt

Kommisjonen er i mandatet blant annet bedt om å drøfte spørsmål om kryptering og anonymitet i forbindelse med tiltak som skal «sikre borgerne trygge rammer og infrastruktur for utøvelse av ytringsfriheten». Dette er omfattende spørsmål og kommisjonen vil i det følgende begrense seg til å komme med noen overordnede betraktninger.

Spørsmålet om anonymitet innebærer et reelt dilemma. Anonym sjikane, mobbing og lignende er utvilsomt et problem, selv om det er vanskelig å fastslå hvor stor betydning selve anonymiteten har for omfanget av problemet.135 Samtidig er anonymitet noen ganger nødvendig for at ytringer skal kunne offentliggjøres.

I autoritære regimer er det åpenbart viktig at det finnes en mulighet til å ytre seg anonymt. Også i Norge kan anonyme ytringer være nødvendige. Situasjonen der noen varsler til mediene eller opptrer som kilder, er typiske eksempler. Her vil retten til anonymitet være beskyttet av kildevernet.136

I rammen av spørsmålet om ansvar for ytringer på nettet, kan det diskuteres hvorvidt plattformselskap skal pålegges å begrense adgangen til å opptre anonymt. Det foreliggende forslaget til forordning om digitale tjenester (DSA) fastslår at brukerne har rett til å opptre anonymt på nett. Samtidig vil kravene til selskapene gjøre det lettere å rapportere innhold og å kreve begrunnede svar fra selskapene som driver sosiale medier-plattformer og lignende. Dette vil også gjelde for anonyme ytringer og vil tydeliggjøre ansvaret plattformselskap har for innholdet de tilrettelegger for.

Kommisjonen har ikke vurdert om det er nødvendig med ytterligere lovendringer angående anonymitet. Et generelt forbud mot anonymitet på nettet er ikke ønskelig og heller ikke mulig å håndheve. Kommisjonen mener likevel anonymitet bør være unntak i den åpne, offentlige debatten i Norge. De som driver plattformene som tilrettelegger for debatt, har et ansvar for å legge til rette for en debatt som ikke domineres av sjikane og personangrep. Da er krav om å diskutere under fullt navn et naturlig utgangspunkt.

8.8.10 Kryptering bør ikke forbys

Kryptering er en teknologi som er sentral for å sørge informasjonssikkerhet i en lang rekke sektorer. Sett i lys av ytringsfriheten er kryptering viktig for folk som har et reelt behov for å kunne kommunisere uten å overvåkes fra myndighetene eller aktører med onde hensikter. Dette gjelder store deler av verdens befolkning som lever i diktaturer eller autoritære regimer. Ikke minst gjelder det i krigssoner.

Også i liberale, åpne demokratier som det norske, har det vært en økende bekymring for statlig overvåkning, ikke minst i lys av avsløringene fra den amerikanske overvåkningsvarsleren Edward Snowden og andre. Dette har ført til en økt bruk av kryptering for utveksling av informasjon.

Samtidig brukes teknologien i utstrakt grad av aktører som selv har onde hensikter, til narkotikahandel, planlegging av terrorisme, spredning av overgrepsmateriale og annen kriminalitet.

Det har vært en rekke debatter om og forslag fra myndigheter i flere land om å regulere eller forby ulike typer kryptering de siste årene. I 2015 behandlet et utvalg om digital sårbarhet (Lysneutvalget) spørsmålet i Norge. Utvalget anbefalte at myndighetene ikke regulerer eller forbyr bruk av kryptografi i Norge og ba norske myndigheter om aktivt å arbeide mot regulering og forbud internasjonalt. Utvalget argumenterte med at reguleringer i liten grad vil hindre uærlige aktører fra å bruke teknologien, men at reguleringer vil ramme vanlige norske borgere, virksomheter og myndighetene selv.137

Ytringsfrihetskommisjonen slutter seg til denne vurderingen og understreker at de klare fordelene ved kryptering som en del av ytringsfrihetens infrastruktur ikke må undervurderes. Det finnes en rekke legitime grunner for å ville kommunisere uten fare for å bli overvåket.

8.9 Kommisjonens anbefalinger til tiltak

8.9.1 Prioriter arbeidet med å innlemme DSA i norsk lov

Forordningen om digitale tjenester (DSA) er et ambisiøst forsøk på å lage en helhetlig regulering av plattformselskapenes ansvar for innhold på nettet. Det er krevende å vurdere hvor effektivt regelverket blir før det er vedtatt.

Etter å ha studert utkastene til forordningen og debatten rundt utformingen av regelverket, er kommisjonens vurdering at DSA synes å være et skritt i riktig retning for å sikre bedre rammevilkår for ytringsfriheten på nettet i Norge.

Som ikke-medlem av EU har Norge i begrenset grad hatt mulighet til å påvirke selve lovteksten til DSA. Kommisjonen anbefaler regjeringen å prioritere arbeidet med å få DSA innlemmet i EØS-avtalen og implementert i norsk lov. Målet bør være at en norsk lov som implementerer forordningen er på plass når DSA trer i kraft.

8.9.2 Følg opp DSA med effektivt tilsyn

Skal DSA bli en effektiv regulering, er velfungerende tilsynsordninger avgjørende. Når DSA innlemmes i norsk lov, må norske myndigheter opprette en ny tilsynsfunksjon, kalt Digital Services Coordinator i forordningen, som skal føre tilsyn i samarbeid med andre lands tilsynsorganer og EU-kommisjonen. Ytringsfrihetskommisjonen har ikke tatt stilling til hvordan dette tilsynet konkret bør utformes, men understreker viktigheten av at det opprettes tilsyn som har ressurser og kompetanse til å håndtere et komplekst regelverk som angår svært store markedsaktører og teknologier som utvikler seg i stort tempo.

Kommisjonen anbefaler også at det gjøres en gjennomgang av eksisterende tilsynsfunksjoner og av hvordan offentlige myndigheters organer virkemiddelapparat best kan rigges for å sikre robust beredskap og motmakt til utfordringene digitaliseringen innebærer.

Det er naturlig at de nordiske landene samarbeider om en felles tilnærming til hvordan DSA kan håndheves på en effektiv måte, samt gjør erfaringsutveksling. Den danske regjeringen erklærte i februar 2022 at den ville ta initiativ til å samle en gruppe «likesinnede land» for å jobbe for «større demokratisk kontroll og gjennomsiktighet hos selskapene og at «algoritmene deres understøtter den demokratiske samtale».138 Et slikt samarbeid bør norske myndigheter slutte seg til, selv om formålsbeskrivelsen i det danske utspillet er ganske generell.

8.9.3 Kartlegg muligheten for tilpasninger ved implementeringen av DSA

Kommisjonen vil trekke fram behovet for kontroll med den norskspråklige delen av plattformselskapenes virksomhet. Det inkluderer blant annet innsynsrapporter om nasjonale forhold, krav om åpenhet rundt bruk av moderatorer i Norge og en juridisk ansvarlig kontaktperson for innhold i Norge.

Myndighetene bør vurdere i hvilken grad DSA slik den foreligger åpner for denne type innsyn og tilsyn. Videre bør myndighetene kartlegge muligheten for tilpasninger. Muligheten for å tilpasse en forordning i norsk rett er svært begrenset. Utgangspunktet er at forordningen skal inkorporeres som sådan, og DSA legger opp til en totalharmonisering av regelverket.

Forordninger kan allikevel åpne for nasjonale regler som spesifiserer, utfyller eller gjør unntak fra reglene. Kommisjonen anbefaler at regjeringen i forbindelse med implementeringen av DSA kartlegger rommet for nasjonal tilpasning i forordningen, og at rommet for tilpasninger utnyttes slik at man får en så sterk kontroll med plattformselskapene som mulig når det gjelder åpenhet om norske forhold.

8.9.4 Åpenhetsloven som verktøy for økt innsyn i plattformselskapene

DSA vil pålegge de største plattformselskapene å gjøre risikovurderinger av eventuelle negative samfunnseffekter produktene deres kan innebære. I Norge er store virksomheter allerede forpliktet til å gjøre lignende vurderinger gjennom åpenhetsloven som trådte i kraft 1. juli 2022.

Kommisjonen er opptatt av å sikre sterkest mulig innsyn i de store plattformselskapenes virksomhet også i en nasjonal, norsk kontekst. Åpenhetsloven kan være et slikt verktøy. Det kan være utfordringer knyttet til dette, i og med at DSA er utformet som en forordning (se nærmere i 8.8.5). Kommisjonen anbefaler derfor at åpenhetslovens potensiale avklares nærmere i forbindelse med implementeringen av DSA.

Det er ikke tvil om at negative konsekvenser av selskapers virksomhet for ytringsfriheten er omfattet av det åpenhetsloven skal regulere. Det som er mer tvilsomt slik loven er avgrenset i dag er om den kan anvendes på selskapene med størst innflytelse over den reelle ytringsfriheten i Norge. Kommisjonen anbefaler derfor at åpenhetslovens virkeområde endres slik at de store plattformselskapene omfattes av loven. Kommisjonen er klar over at virkeområdets utstrekning skal ivareta flere hensyn, herunder koordinering med regnskapsloven.139

En mulig løsning kan være å «snu» vurderingen i § 3 a) andre setning om forholdet mellom morselskaper og datterselskaper, slik at man også for norske datterselskaper skal inkludere morselskaper i vurderingen av om vilkårene er oppfylt. En slik endring vil innebære et annet system enn regnskapslovens system, og det kan etter omstendighetene være utfordrende for kontrollmyndighetene å vurdere et utenlandsk morselskaps økonomiske forhold og antall ansatte.

Samtidig mener kommisjonen at det faktum at Facebook Norway AS ikke omfattes av loven, illustrerer svakhetene ved dagens ordning (jf. punkt 8.8.5). Det er også en illustrasjon på at det ikke nødvendigvis vil være så krevende å ta stilling til om en virksomhet er omfattet av loven selv om man inkluderer morselskapet i vurderingen. For øvrig vil en slik endring ivareta hensynet til å skjerme mindre virksomheter, som ble vektlagt i lovens forarbeider.

Kommisjonen fremmer ikke et konkret forslag til utforming av ny lovbestemmelse, men anbefaler at spørsmålet utredes og at det settes i gang arbeid med å endre loven slik at de selskapene med størst innflytelse over den reelle ytringsfriheten i Norge i dag, omfattes av loven.

Der loven kan anvendes, oppfordrer kommisjonen organisasjoner, forskere og andre til å bruke åpenhetsloven for å få bedre innsikt i hvordan de globale plattformselskapene påvirker ytringsfrihet og samfunnsdebatt i Norge. Loven gir alle rett til å stille spørsmål og kreve informasjon. Dette kan tvinge fram intern selvrefleksjon og innsyn i selskapene. Kommisjonen vil også oppfordre Forbrukertilsynet, som skal føre tilsyn med at bestemmelsene i loven overholdes, til å kontrollere at plattformselskapene inkluderer ytringsfriheten i sine aktsomhetsvurderinger.

Videre bør myndighetene initiere en prosess for å utvikle retningslinjer for selskapsgjennomgang («due diligence») i regi av OECD om hvordan plattformselskap skal håndtere hensynet til ytringsfriheten. Slike sektorspesifikke vurderinger er utarbeidet for flere sektorer, men ikke for plattformselskap. I dette arbeidet kan norske myndigheter med fordel alliere seg med de andre nordiske landene.

8.9.5 Bruk eierinnflytelsen i oljefondet

Det norske oljefondet (Norges Bank Investment Managment, NBIM) sitter på betydelige eierposisjoner i flere av verdens største plattformselskaper. Ved inngangen av 2022 var de fire største aksjeinvesteringene til fondet alle i selskaper som har stor innvirkning på ytringsfrihetens infrastruktur og rammevilkår i Norge: Apple, Microsoft, Alphabet (Google) og Amazon.140

NBIM var på samme tidspunkt den tiende største eieren i Meta.141 Riktignok utgjorde eierandelen bare drøyt én prosent, og eierskapet er strukturert slik at Mark Zuckerberg har flertallet av de stemmeberettigede aksjene – selv om han bare eier 14 prosent av selskapet. Dermed gir NBIMs andel liten formell makt. Men på grunn av NBIMs totale størrelse og NBIM som aktør, har fondet en reell makt som gjør at det blir lyttet til – ikke minst ved avstemningene på de årvisse generalforsamlingene.

Om NBIM forvalter denne posisjonen på en tilstrekkelig prinsipiell måte, har vært gjenstand for mange debatter. Ett eksempel er at fondet i 2018 stemte mot et forslag på generalforsamlingen til Meta om at selskapet skulle lage en rapport som kunne gi «detaljert informasjon om virkningen av nåværende falske nyhetsstrømmer og styringssystemer på den demokratiske prosessen, ytringsfrihet og samfunnet».142

Det har vært mange debatter om hvorvidt NBIM skal brukes som politisk instrument gjennom eierskap i ulike saker. Fondet har uansett store muligheter for påvirkning gjennom hvordan det direkte forvalter sine eierposisjoner og hvordan de stemmer på generalforsamlingene. Etikkrådet er dessuten oppnevnt for å vurdere om fondets investeringer er i strid med de etiske retningslinjene til Statens pensjonsfond utland.

Kommisjonen legger til grunn at fondet tar hensyn til ytringsfrihet som den grunnleggende menneskerettigheten denne er. Det vil være underlig å se bort fra at den norske staten sitter på store eierposisjoner i selskaper som har stor påvirkning på grunnleggende menneskerettigheter globalt. Ytringsfrihet bør være en sentral del av vurderingsgrunnlaget når fondet bruker sin eierposisjon, blant annet gjennom stemmegivning på generalforsamlinger. Åpenhet og ytringsfrihet bør også være et tema for NBIMs forventningsdokumenter til selskapene de investerer i.

8.9.6 Legg til rette for mer forskning på plattformenes effekter

Debattene om hvordan arenaer som Facebook, Youtube, Twitter og Tiktok med flere påvirker den offentlige samtalen, er preget av sterke antakelser og hypoteser om alt fra til psykisk uhelse og avhengighet til radikalisering og polarisering.

Slik forskningsgjennomgangen i kapittel fem har vist, er studiene av disse fenomenene langt mer usikre enn debattene kan gi inntrykk av. Det skyldes delvis at det er grunnleggende krevende å finne tydelige, empiriske svar når man undersøker komplekse, sosiale fenomen. Det skyldes også at det er vanskelig å få tilgang til data som kan gi bedre underlag for å vurdere hvordan plattformenes innretning og algoritmer faktisk virker. Strenge forskningsetiske rammer vanskeliggjør dessuten studier av persondata.

DSA vil gi tilgang på data som kan bedre kunnskapsgrunnlaget for debattene framover. Myndighetene bør legge til rette for en sterkere satsing på forskning som bruker disse dataene og utvikler datadrevne metoder for å skape bedre innsikt om plattformselskapenes effekt på norsk offentlighet. Dette bør særlig sees opp mot prioriteringen av Forskningsrådets bevilgninger.

8.9.7 Anbefalinger til tiltak oppsummert

Offentlige myndigheter bør:

  • Prioritere arbeidet med å innlemme DSA i EØS-avtalen og norsk lov.

  • Klargjøre hvilket handlingsrom som finnes for nasjonal tilpasning i DSA og bruke handlingsrommet til å styrke muligheten for innsyn i og kontroll med plattformenes virksomhet i Norge gjennom nasjonale presiseringer av loven.

  • Sørge for effektivt og koordinert tilsyn av plattformselskapene gjennom DSA og supplerende nasjonal lovgivning.

  • Gjøre en vurdering av eksisterende tilsynsfunksjoner og hvordan forvaltningen koordinerer arbeidet med oppfølgingen av plattformselskapene.

  • Bidra til et nordisk samarbeid for større demokratisk kontroll av plattformselskapene.

  • Vurdere åpenhetsloven opp mot DSA og endre loven slik at den kan brukes på plattformselskapene.

  • Ta initiativ til å utarbeide OECD-veileder for plattformselskap som kan brukes i arbeidet med åpenhetsloven.

  • Sikre at ytringsfrihet blir en sentral del av vurderingsgrunnlaget når eierinnflytelsen gjennom oljefondet forvaltes.

  • Sikre et forskningsløft for å bedre kunnskapen om plattformenes påvirkning på det norske samfunnet.

Fotnoter

1.

Kommisjonen bruker betegnelsen plattformselskap om selskap som har som funksjon å være plattformer eller arenaer for ytringsfriheten, jf. boks 7.2.

2.

Denne bloggposten samler akademiske studier som undersøker omfanget av såkalte «over-removals»: Keller, D. (2020, 8. mai). Empirical Evidence of «over-removal» by internet companies under intermediary liability laws. Center for Internet and Society, Stanford Law School. http://cyberlaw.stanford.edu/blog/2015/10/empirical-evidence-over-removal-internet-companies-under-intermediary-liability-laws

3.

Som eksempelvis EMK og SP.

4.

Facebook kaller selv dette sine «standarder». De er også oversatt til norsk. https://transparency.fb.com/nb-no/policies/community-standards/?source=https%3A%2F%2Fwww.facebook.com%2Fcommunitystandards%2F

5.

Levy, S. (2020). Facebook, the inside story. Penguin. S. 444ff

6.

Oversikt over Twitters ulike retningslinjer: https://help.twitter.com/en/rules-and-policies#general-policies

7.

Samme utfordring gjelder for brukerbetingelser og personvernerklæringer, jfr. denne undersøkelsen fra Forbrukerrådet. Forbrukerrådet (2016, 24. mai). Du må lese over en kvart million ord med appvilkår. Forbrukerrådet.

8.

Barrett, P.M. (2020). Who Moderates the Social Media Giants? NYU Stern. https://bhr.stern.nyu.edu/tech-content-moderation-june-2020

9.

Shead, S. (2020, 12. november). TikTok is luring Facebook moderators to fill new trust and safety hubs. CNBC. https://www.cnbc.com/2020/11/12/tiktok-luring-facebook-content-moderators.html

10.

Roberts, S.T. (2019). Behind the Screen: Content Moderation in the Shadows of Social Media. Yale University Press.

11.

Newton, C. (2019, 25. februar). The trauma floor. The secret lives of Facebook moderators in America. The Verge. https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-arizona og Block, H. (regissør). (2018). The Cleaners [Film]. Gebrueder Beetz Filmproduktion. http://www.thecleaners-film.de/

12.

Hutchinson, A. (2021, 3. oktober). What Happens on the Internet Every Minute (2021 Version). Social Media Today. https://www.socialmediatoday.com/news/what-happens-on-the-internet-every-minute-2021-version-infographic/607586/

13.

Jf. Metas egne rapporter, tilgjengelig hos: https://transparency.fb.com/data/community-standards-enforcement/hate-speech/facebook/

14.

Medienes modereringspraksis behandles i kapittel 12.

15.

Facebook (2020, 19. november). How AI is getting better at detecting hate speech. Facebook. https://ai.facebook.com/blog/how-ai-is-getting-better-at-detecting-hate-speech/

16.

Vincent, J. (2020, 13. november). Facebook is now using AI to sort content for quicker moderation. The Verge. https://www.theverge.com/2020/11/13/21562596/facebook-ai-moderation Gillespie, T. (2020). Content moderation, AI, and the question of scale. Big Data & Society. https://doi.org/10.1177/2053951720943234

17.

Scott, M. (2020, 21. oktober). What happened when humans stopped managing social media content . Politico. https://www.politico.eu/article/facebook-content-moderation-automation/

18.

Hatmaker, T. (2021, 28. januar). Facebook changes misinfo rules to allow posts claiming COVID-19 is man-made. Techcrunch. https://techcrunch.com/2021/05/28/facebook-covid-man-made-lab-theory/

19.

Tall fra selskapet selv: https://about.fb.com/news/2021/08/community-standards-enforcement-report-q2-2021/

20.

Taylor, J. (2021, 21. mars). Facebook now lets users and pages turn off comments on their posts. The Guardian. https://www.theguardian.com/media/2021/mar/31/facebook-turn-off-comments-on-post-limit-restrict-disable-comment-posts-moderation-control-tool

21.

Kalsnes B. og Ihlebæk K.A. (2020). Hiding hate speech: political moderation on Facebook (journals.sagepub.com). Media, Culture & Society. September 2020. https://journals.sagepub.com/doi/full/10.1177/0163443720957562

22.

Mark Zuckerberg tok den endelige avgjørelsen om å la bildet bli postet på Facebook og innføre «newsworthiness» som et kriterium i innholdspolitikken. Levy (2020). S. 457f

23.

Se f.eks. Iversen, I.A. (2020, 6. mars). Jurist om netthets: «Vi har en overdreven tro på strafferett». Agenda Magasin. https://agendamagasin.no/intervjuer/ytringsfrihet-marten-schultz/

24.

Se også punkt 8.4.1.

25.

Butcher, M. (2020, 30. september). «The Real Facebook Oversight Board» launches to counter Facebook’s «Oversight Board». Techcrunch. https://techcrunch.com/2020/09/30/the-real-facebook-oversight-board-launches-to-counter-facebooks-oversight-board/

26.

Scott, M. (2022, 25. januar). Fringe social media networks sidestep online content rules. Politico. https://www.politico.eu/article/fringe-social-media-telegram-extremism-far-right/

27.

Keen, F. (2020, 1. oktober). Online Subcultures and the Challenges of Moderation. Global Network on Extremism & Technology. https://gnet-research.org/2020/10/01/online-subcultures-and-the-challenges-of-moderation/

28.

Jf. mediansvarsloven § 13 annet ledd. Da medieansvarsloven ble utredet, ble det vurdert om det objektive redaktøransvaret også skulle gjelde for ytringer framsatt i mediers kommentarfelt. Dette ble ikke innført. Se Prop. 31 L (2019–2020) Lov om redaksjonell uavhengighet og ansvar i redaktørstyrte journalistiske medier (medieansvarsloven) Kulturdepartementet.

29.

Prop. 31 L (2019–2020) s. 106.

30.

Den som tilbyr en tjeneste som formidler ulovlige ytringer og som får inntekter av dette, for eksempel i form av annonser, kan imidlertid etter omstendighetene straffes for heleri etter straffeloven § 332. Se Torvund, O. (2020): Ytringsfrihet og medieregulering. Universitetsforlaget: Kap. 25.1

31.

Torvund, O. (2020). Kap. 25.1

32.

Ehandelsloven. (2003). Lov om visse sider av elektronisk handel og andre informasjonssamfunnstjenester. (LOV-2003-05-23-35).

33.

Ehandelsloven § 18 første ledd.

34.

Ref Ot.prp. nr. 4 (2003–2004) punkt 9.3.3.3.

35.

Jf. ehandelsloven § 19.

36.

Jf. straffeloven paragraf 15 om medvirkning.

37.

Bing, J. (2008). Ansvar for ytringer på nett – særlig om formidlerens ansvar. Universitetsforlaget, s. 198ff.

38.

Straffeloven (2005) § 267 andre ledd.

39.

Jensen, I. (2019, 1. mars). Politiet grep inn mot Sylvi Listhaugs Facebook-profil. TV2. https://www.tv2.no/nyheter/10441554/

40.

Sanchez mot Frankrike (45581/15, 2. september 2021, ikke rettskraftig).

41.

Lov om virksomheters åpenhet og arbeid med grunnleggende menneskerettigheter og anstendige arbeidsforhold (åpenhetsloven). LOV-2021-06-18-99.

42.

Åpenhetsloven § 2.

43.

Åpenhetsloven § 3 første ledd bokstav a.

44.

Jf. §4b

45.

Åpenhetsloven § 3 bokstav b.

46.

DSA er utformet i sammenheng med forordningen om digitale markeder (Digital Markets Act). Denne behandles kort i kapittel 6.4.2.3.

47.

The EU Code of conduct on countering illegal hate speech online. Oversiktsside fra EU-kommisjonen, hentet ut 7. juni 2022. https://ec.europa.eu/info/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-xenophobia/eu-code-conduct-countering-illegal-hate-speech-online_en

48.

European Commission (2018, 1. mars). Commission Recommendation (EU) 2018/334 of 1 March 2018 on measures to effectively tackle illegal content online.

49.

Avtalen Christchurch Call inngått i 2019 er også rettet mot spredning av terrorismerelatert innhold. Denne er ikke en rettslig bindende avtale: https://www.christchurchcall.com/

50.

EUR-Lex – 32021R0784.

51.

Betænkning nr. 1573 (2020). Ytringsfrihedens rammer og vilkår i Danmark. Betænkning afgivet af Ytringsfrihetskommissionen. Justitsministeriet. S. 645f

52.

Polen mot EU-parlamentet og Rådet, sak C-401/19, 26. april 2022.

53.

C-401/19 avsnitt 99, sml. også presiseringen i avsnitt 71 om at domstolens avgjørelse ikke utelukker en annen konklusjon ved prøvingen av nasjonale bestemmelser som gjennomfører direktivet.

54.

Directive (EU) 2018/1808. AMT-direktivet er også kjent som AMVS-direktivet på engelsk.

55.

Vestager, M. (2020, 15. desember). Statement by Executive Vice-President Vestager on the Commission proposal on new rules for digital platforms. European Commission. https://ec.europa.eu/commission/presscorner/detail/en/STATEMENT_20_2450

56.

EØS-avtalen artikkel 7.

57.

Bortsett fra «mikro- og små virksomheter». Lovverket er utformet slik at det ikke skal legge uforholdsmessig store byrder på små foretak.

58.

Et par eksempler: Veberg, A. og Kallelid, M. (2021, 21. mars). NRK, forlag og forskningssenter er blitt utestengt fra Google eller Facebook. Flere aner ikke hvorfor. Aftenposten. https://www.aftenposten.no/kultur/i/zgxLEr/nrk-forlag-og-forskningssenter-er-blitt-utestengt-fra-google-eller-fa og Hystad, J. (2021, 15. mars). HL-senteret tilbake på Facebook – krever svar. Khrono. https://khrono.no/hl-senteret-tilbake-pa-facebook--krever-svar/563053

59.

Her mente bl.a. EUs eget privatlivstilsyn, EDPS, at loven burde gått lenger og foreslått et forbud mot målrettede annonser basert på innsamlede brukerdata: Lomas, N. (2021, 10. februar). EU’s top privacy regulator urges ban on surveillance-based ad targeting. Techcrunch. https://techcrunch.com/2021/02/10/eus-top-privacy-regulator-urges-ban-on-surveillance-based-ad-targeting/

60.

Thon, B.E., Blyverket, I.L. og Egenæs, J.P. (2021, 21. oktober). Nok er nok! Gigantene må tøyles. Aftenposten. https://www.aftenposten.no/meninger/kronikk/i/k6mzKB/nok-er-nok-gigantene-maa-toeyles. I tillegg kommer et forslag til forordning om åpenhet og målretting av politisk reklame. Forslaget skal komplettere reklamebestemmelsene i DSA. https://europalov.no/rettsakt/apenhet-malretting-av-politisk-reklame/id-29743

61.

Se for eksempel forskrift om utførelse av arbeid, bruk av arbeidsutstyr og tilhørende tekniske krav, § 3-1.

62.

Se for eksempel Nelson, M. og Reinhold, F. (2020). The DSA proposal is a good start. Now policymakers must ensure that it has teeth. Algoritm Watch. https://algorithmwatch.org/en/wp-content/uploads/2020/12/AlgorithmWatch_position_DSA.pdf og Engler, A. (2021, 15. januar). Platform data access is a lynchpin of the EU’s Digital Services Act. Brookings. https://www.brookings.edu/blog/techtank/2021/01/15/platform-data-access-is-a-lynchpin-of-the-eus-digital-services-act/

63.

Espinoza, J. og Abboud, L. (2021, 14. februar). France pushes for big changes to proposed EU tech regulation. Financial Times. https://www.ft.com/content/5e41d0cf-a83c-4817-997e-a353858137ab

64.

Dette er høyere enn bøterammene i GDPR-lovverket, som er fire prosent.

65.

Meaker, M. (2022, 25. april). Ukraine War Prompts Europe’s New Emergency Rules for the Internet. Wired. https://www.wired.com/story/europe-digital-services-act/

66.

Det ble oppnådd foreløpig enighet mellom Rådet og parlamentet i EU om DMA 25. mars 2022. Den endelige forordningsteksten var ennå ikke publisert 1. juli 2022.

67.

47 U.S. Code § 230 – Protection for private blocking and screening of offensive material.

68.

Se for eksempel Electronic Frontier Foundations omtale: https://www.eff.org/issues/cda230

69.

Se for eksempel Golberg, C. (2019, 14. August). Herrick v. Grindr: Why Section 230 of the Communications Decency Act Must be Fixed. Lawfare. https://www.lawfareblog.com/herrick-v-grindr-why-section-230-communications-decency-act-must-be-fixed

70.

Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz – NetzDG).

71.

For studier av lovens effekt, se for eksempel Griffin, R. (2021). New School Speech Regulation and Online Hate Speech: A Case Study of Germany’s NetzDG. Tilgjengelig hos SSRN: https://ssrn.com/abstract=3920386; Echikson, W. og Knodt, O. (2018, 9. november). Germany’s NetzDG: A key test for combatting online hate. CEPS Research Report No. 2018/09 og Heldt, A. (2019). Reading between the lines and the numbers: an analysis of the first NetzDG reports. Internet Policy Review, 8(2). https://doi.org/10.14763/2019.2.1398

72.

Se for eksempel Iversen, I.A. (2020, 6. mars). Med lov skal hets bekjempes. Viser Tyskland vei i sin kamp mot nettgigantene? Agenda Magasin. https://agendamagasin.no/artikler/lov-hets-bekjempes-viser-tyskland-vei/

73.

UN Special Rapporteur on freedom of expression and opinion. DEU 1/2017.

74.

Bundesregierung (2021, 3. april). Gesetzespaket gegen Rechtsextremismus und Hasskriminalität. Bundesregierung. https://www.bundesregierung.de/breg-de/suche/gesetz-gegen-hasskriminalitaet-1722896

75.

Se domstolens pressemelding: https://www.vg-koeln.nrw.de/behoerde/presse/Pressemitteilungen/05_01032022/index.php. Kommisjonen er ikke kjent med om avgjørelsen er anket videre.

76.

Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes, vedtatt 3. juni 2021.

77.

Lag (1998:112) om ansvar för elektroniska anslagstavlor. BBSer (bulletin board systems) var en tidlig versjon av dagens sosiale medier, der man kunne ringe opp en server for å koble seg på et diskusjonsforum, eller oppslagstavle.

78.

Lag (1998:112) § 7.

79.

Eskilstuna tingsrätt 25. juni 2019, jf. 2019-06-25 i mål nr TR-B 3750-18. Domsavgjørelsen ble stadfestet i Svea hovrätt (tilsvarende lagmannsretten) 4.12.2020, men straffen ble senket, jf. 2020-12-04 i mål nr B 8432-19.

80.

Betænkning nr. 1573 (2020). Side 656–665

81.

Regeringen (juni 2021). Mod et bedre samfund med tech-giganter. Hvidbog fra den danske regjeringen.

82.

Regeringen (august 2021). Sociale mediers ansvar – skærpede krav til sociale medier og digital dannelse af børn og unge. Dokument fra Erhvervsministeriet, Justitsministeriet, Kulturministeriet og Børne- og Undervisningsministeriet i Danmark.

83.

Lovforslag nr. L 146, Folketinget 2021–22, Forslag til Lov om regulering af sociale medier.

84.

Side 9 i fremlegget for Folketinget 15.3.22.

85.

Erhvervsministeriet (2022, 25. mai). EU-Kommissionen bremser danske ambitioner om strammere krav til sociale medier. Pressemelding fra det danske Erhvervsministeriet. https://em.dk/nyhedsarkiv/2022/maj/eu-kommissionen-bremser-danske-ambitioner-om-strammere-krav-til-sociale-medier/

86.

Kulturministeriet (februar 2022). Den demokratiske samtale skal styrkes. Demokratisk kontrol med tech-giganter, mere dansk indhold og stærkere lokale og regionale medier. Udspil til ny medieaftale dra det danske Kulturministeriet.

87.

Décision no 2020-801 DC, 18. juni 2020.

88.

Loi no 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet.

89.

Scott, M. og Young, Z. (2018, 12. november). France and Facebook announce partnership against online hate speech. Politico. https://www.politico.eu/article/emmanuel-macron-mark-zuckberg-paris-hate-speech-igf/

90.

Denne rapporten ble skrevet for det franske digitaliseringsdepartementet etterkant av eksperimentet (mai 2019): Creating a French framework to make social media platforms more accountable: Acting in France with a European vision. https://thecre.com/RegSM/wp-content/uploads/2019/05/French-Framework-for-Social-Media-Platforms.pdf

91.

Loi no 2021-1109 du 24 août 2021 confortant le respect des principes de la République.

92.

Paty var en fransk ungdomsskolelærer som høsten 2020 ble halshugget og drept av en radikal islamist etter at det ble kjent at Paty hadde vist karikaturer av profeten Muhammed fra satireavisen Charlie Hebdo i en skoletime.

93.

Pollet, M. (2021, 7. juli). French law on content moderation risks ‘fragmenting’ EU digital market, says Commission. Euractiv. https://www.euractiv.com/section/digital/news/commission-new-french-bill-risks-fragmenting-eu-digital-market/

94.

Online Safety Bill, Bill 004 2022-23.

95.

Lovforslagets del 3.

96.

Lovforslagets Section 13.

97.

Kommunikationsplattformen-Gesetz på tysk.

98.

Hass-im-Netz-Bekämpfungs-Gesetz (HiNBG) på tysk.

99.

Ministry of Justice (2020, 17. desember). A breakthrough law on freedom of expression on the Internet. Pressemelding fra det polske justisdepartementet. https://www.gov.pl/web/justice/a-breakthrough-law-on-freedom-of-expression-on-the-internet og Easton, A. (2021, 15. Januar). Poland proposes social media ‘free speech’ law. BBC News. https://www.bbc.com/news/technology-55678502

100.

RSF (2021, 28. januar). Poland’s new social media law puts freedom of expression at risk, RSF warns. Pressemelding fra Reportere uten grenser. https://rsf.org/en/polands-new-social-media-law-puts-freedom-expression-risk-rsf-warns

101.

Gad-Nowak, M og Wnukowski, M. (2021, 12. februar). Polish government to pass law that will allow it more control over the Internet content and legitimize blocking access to certain websites. National Law Review. https://www.natlawreview.com/article/polish-government-to-pass-law-will-allow-it-more-control-over-internet-content-and

102.

Wilczek, M. (2021, 5. oktober). Law to protect Poles from social media «censorship» added to government agenda. Notes frm Poland. https://notesfrompoland.com/2021/10/05/law-to-protect-poles-from-social-media-censorship-added-to-government-agenda/

103.

Kosc, W. og Cerulus, L. (2022, 5. januar). Polish right-wing party furious over Facebook page removal. Politico. https://www.politico.eu/article/polands-right-wing-confederation-party-furious-over-facebook-page-removal/ og Chapman, A. (2022, 18. Januar). Poland Confronts the EU Again – This Time on Digital. Bandwith. https://cepa.org/poland-confronts-the-eu-again-this-time-on-digital/

104.

Se punkt 8.5.6.

105.

LOV-2015-02-06-7, § 2h. Se også NOU 2021: 3 Barneliv foran, bak og i skjermen. Kulturdepartementet, for diskusjon om begrepet skadelig innhold og barn.

106.

Tabell 1, under pkt. 2.1 i Online Harms White Paper. https://www.gov.uk/government/consultations/online-harms-white-paper/online-harms-white-paper

107.

Ihlebæk, K.A., Sundnes Løvlie, A. og Mainsah, H. (2013). Mer åpenhet, mer kontroll? – Håndteringen av nettdebatten etter 22. juli. Norsk medietidsskrift 20(3) 15. oktober 2013. Sider: 223–240. https://doi.org/10.18261/ISSN0805-9535-2013-03-03. Se også kapittel 10.4.5 for ytterligere redegjørelse.

108.

Barth-Heyerdahl, L. (2017, 24. september). Advarer mot «mobbe-app». Tv2.no. https://www.tv2.no/a/9377682/ og Grut, S. (2016, 9. juni). Jodel: Den skjulte trussel. NRK Beta. https://nrkbeta.no/2016/06/09/jodel-den-skjulte-trussel/

109.

Dette er blant annet kalt nettets «disinhiberingsffekt». Se kapittel 5.5.2.

110.

Nadim, M. og Fladmoe, A. (2016). Hatefulle ytringer. Delrapport 1: Forskning på art og omfang. Institutt for samfunnsforskning Rapport 2016:14. Punkt 4.3.

111.

Elgesem, D. (2014, 22. mai). Anonymitet og usaklighet i nettdebatten: en sammenlikning mellom VG.no, dagbladet.no og bt.no. Vox Publica. https://voxpublica.no/2014/05/anonymitet-og-usaklighet-i-nettdebatten-en-sammenlikning-mellom-vg-no-dagbladet-no-og-bt-no/

112.

Den amerikanske studien: Santana, A.D. (2014). Virtuous or Vitriolic. Journalism Practice, 8(1), 18–33 https://doi.org/10.1080/17512786.2013.813194. Den tyske studien er omtalt her: Kvittingen, I. (2016, 5. august). Mest netthets under fullt navn. Forskning.no. https://forskning.no/sosiale-relasjoner-mobbing-sosiologi/mest-netthets-under-fullt-navn/404556

113.

Nadim, M., Thorbjørnsrud, K. og Fladmoe, A. (2021). Gråsoner og grenseoverskridelser på nettet. En studie av deltakere i opphetede og aggressive nettdebatter. Institutt for samfunnsforskning Rapport 2021:1. Punkt 3.4.

114.

Se redegjørelse i kapittel 12.4.8.

115.

«Alle bruker det navnet de bruker til daglig» var den offisielle beskjeden til brukerne i Facebooks hjelpesenter våren 2022: https://www.facebook.com/help/112146705538576. Se ellers forskningsgjennomgang i kapittel fem for oversikt over norske studier som kartlegger omfanget av sjikane også på Facebook.

116.

Perrigo, B. (2021, 11. august). Twitter Offers More Transparency on Racist Abuse by Its Users, but Few Solutions. Time. https://time.com/6089289/twitter-racist-abuse-anonymity/

117.

For eksempel i Storbritannia i 2021, jf. Dickson, A. (2021, 19. oktober). UK wrestles with online anonymity in wake of MP’s killing. Politico. https://www.politico.eu/article/ending-anonymity-is-not-easy-for-uk-ministers/

118.

Østerrike er blant dem. Se punkt 8.5.7.

119.

Tillegg 142, ny artikkel 7, paragraf 1c): https://www.europarl.europa.eu/doceo/document/TA-9-2022-0014_EN.html

120.

Kryptering i Store norske leksikon (hentet ut 8. juni 2022). https://snl.no/kryptering

121.

Lomas, N. (2021, 22. november). Facebook to delay full E2EE rollout until ‘sometime in 2023’. Techcrunch. https://techcrunch.com/2021/11/22/facebook-delays-completing-e2ee-until-2023/

122.

Ett eksempel: Storbritannias daværende statsminister tok i 2015 til orde for å pålegge selskap å opprette slike bakdører: Wakefield, J. (2015, 13. januar). Can the government ban encryption? BBC News. https://www.bbc.com/news/technology-30794953

123.

Side 4 i Sociale mediers ansvar – skærpede krav til sociale medier og digital dannelse af børn og unge fra den danske regjeringen, august 2021.

124.

Jf. pkt. 2 og 9 i forordningens fortale (recitals).

125.

Dette er også utgangspunktet i utredningsinstruksen § 5-5.

126.

Se Prop. 56 LS (2017–2018) s. 15.

127.

Googles innsynsrapport: Forespørsler fra myndighetene om å fjerne innhold. https://transparencyreport.google.com/government-removals/overview og Twitters Removal requests: https://transparency.twitter.com/en/reports/removal-requests.html#2021-jan-jun

128.

Jf. art 8 i det opprinnelige utkastet til DSA.

129.

Dette framgår av lovens henvisning til SP i § 3 b, der ytringsfriheten er vernet i artikkel 19, og Prop. 150 L (2020–2021) s. 106.

130.

Jf. § 6.

131.

Jf. åpenhetsloven § 3 første ledd bokstav a. Kravet er et man enten omfattes av regnskapsloven § 1-5 eller oppfyller to av følgende tre vilkår på balansedagen: mer enn 70 millioner kroner i salgsinntekt, mer enn 35 millioner i balansesum og mer enn 50 årsverk ansatte i gjennomsnitt i regnskapsåret.

132.

Jensen, D. (2021, 14. september). Irland svigter i GDPR-håndhævelsen: Har kun afgjort to procent af GDPR-sagerne mod de store tech-firmaer med europæisk hovedkvarter i Dublin. Computerworld. https://www.computerworld.dk/art/257875/irland-svigter-i-gdpr-haandhaevelsen-har-kun-afgjort-to-procent-af-gdpr-sagerne-mod-de-store-tech-firmaer-med-europaeisk-hovedkvarter-i-dublin

133.

Kommunal- og distriktsdepartementet (2021, 27. oktober). Framlegg om regulering av digitale tenester og digitale marknader. https://www.regjeringen.no/no/tema/transport-og-kommunikasjon/elektronisk-kommunikasjon/digital-service-act-dsa/id2880549/

134.

Se kapittel fem og seks for mer detaljerte tall.

135.

Jf. oversikt over studier i punkt 8.7.1.

136.

Se redegjørelse og vurderinger i kapittel 12.

137.

NOU 2015: 13 Digital sårbarhet – sikkert samfunn – Beskytte enkeltmennesker og samfunn i en digitalisert verden. Justis- og beredskapsdepartementet. Pkt. 23.8.

138.

Dette ble fulgt opp våren 2022 med etablering av en midlertidig «tankesmie» med nordiske deltakere som skal levere en rapport første halvår 2023. https://www.norden.org/no/news/ny-nordisk-tankesmie-gransker-teknologikjempenes-innflytelse

139.

For dette og de følgende henvisningene til forarbeidene, se Prop. 150 L (2020–2021) punkt 7.3.3.

140.

Aksjeverdiene var ved inngangen av 2022 fra 121 til 216 milliarder kroner, eierandelen mellom 0,81 og 0,95 prosent. Meta var nummer seks på lista, jf. oversikt hos NBIM. https://www.nbim.no/no/oljefondet/investeringene/#/2021/investments/equities

141.

CNN. Meta Platforms Inc. Oversikttside, hentet ut januar 2022. https://money.cnn.com/quote/shareholders/shareholders.html?symb=FB&subView=institutional

142.

Heller ikke et aksjonærforslag om å lage en rapport om omfanget av Metas lobbyvirksomhet, fikk NBIMs støtte. Løken Stavrum, K. (2018, 8. mai). Heller ikke Oljefondet ville rydde opp i Facebook. Dagens Næringsliv. https://www.dn.no/medier/sosiale-medier/heller-ikke-oljefondet-ville-rydde-opp-i-facebook/2-1-331607

Til dokumentets forside