Automatiseret overbevisning – algoritmer og data erstatter retorik og truer demokratiet

De sociale medier skaber had og polarisering. Brugere radikaliseres i dystre kaninhuller. Misinformation og ’fake news’ umuliggør konstruktiv debat på et oplyst grundlag. Hadtale og overgreb forrår den demokratiske samtale, der risikerer helt at forstumme. Det skorter ikke på bekymrede og bekymrende overskrifter, når det kommer til de digitale teknologiers betydning for demokratiet og den offentlige debat. Og der er god grund til bekymringen, som vi for eksempel så med stormen på Capitol Hill i januar 2021, der ifølge flere uafhængige undersøgelser blandt andet blev muliggjort via mobilisering på sociale medier. Og som vi ser det i krigen i Ukraine, hvor den fysiske kamp suppleres af kampen om information.

af Sine Nørholm Just · professor i strategisk kommunikation ved Roskilde Universitet og forskningsleder af Algoritmer, Data & Demokrati-projektet

5. maj 2022 · 10 minutter læsetid

I det følgende vil jeg vende blikket fra de store og larmende overskrifter til den underliggende proces for at undersøge, hvordan algoritmer og data nærmest umærkeligt former meningsdannelsen. Man kan sammenligne idealet for det, jeg her vil kalde automatiseret overbevisning, med Aristoteles’ ideal for den retoriske stil; arbejdet med stilen skal, siger Aristoteles (1404b), foregå så ubemærket som muligt. For den automatiserede overbevisning gælder dette ideal hele kommunikationsprocessen; modtagerne skal helst ikke opdage, at de bliver påvirket, men i stedet opleve det som om de handler selvstændigt og træffer deres egne valg.

 

Det lyder måske skummelt, og det er det også, men det er samtidig en helt almindelig hverdagsoplevelse. Lad os se på nogle eksempler: du shopper jævnligt dagligvarer online, og når du er ved at afslutte en ny ordre, bliver du spurgt, om du vil tilføje nogle af dine sædvanlige favoritter; det er nyttigt, for du kommer så tit til at glemme at købe mælk. Du har lige set en rom-com på en streaming tjeneste, og nu bliver du anbefalet en hel række andre film og serier i samme genre; det er bekvemt, for på den måde er fredagsunderholdningen altid sikret. Du lægger et billede af din baby, hund eller bil (indsæt selv relevant eksempel) op på et socialt medier, og nu er internettet pludselig fuldt af tilbud på udstyr til baby eller hvad det nu er, der fylder i dit liv; det er dejligt, for du vil jo dit barn (din hund, din bil, etc.) det bedste og er glad for anbefalinger, der kan gøre jeres samvær endnu bedre.

Som sagt er alle disse eksempler ganske dagligdags, og den underliggende mekanisme er også relativt let at få øje på; du har foretaget en handling, som efterlader et digitalt aftryk, der omsættes til et tilbud af mere af det samme eller ting, der ligger i forlængelse deraf. I mere tekniske termer bearbejdes dine data af algoritmer, som bruger dine oplysninger til at give dig tilpassede kommunikative tilbud på de digitale platforme, som du bruger. Som sagt er dette ikke ulig Aristoteles’ stilistiske ideal om en umærkelig tilpasning. Forskellen mellem den algoritmiske kommunikation og klassisk retorik er bare, at hvor rhetor forsøger at forstå sit publikum og tilpasse sig til dem, så baserer den algoritmiske kommunikation sig på faktisk adfærdsdata – ikke, hvad afsender forestiller sig, at modtageren kan lide, men hvad brugeren faktisk gør.

Det er effektivt, og det er dybt problematisk. Før jeg udfolder, hvad problemet er, og kommer med bud på, hvordan det kan løses, så lad mig træde et skridt tilbage og give en nærmere introduktion til de teknologiske betingelser, der danner grundlag for automatiseret overbevisning.

 

Algoritmer og data som kommunikative grundvilkår

Algoritmer er ikke noget nyt fænomen, men derimod blot et fint ord for en regneregel eller en beslutningsprocedure. Groft sagt virker algoritmer sådan, at man sender konkret input igennem et antal prædefinerede trin, hvorved der produceres et output; altså, et svar på det spørgsmål, som algoritmen er beregnet til at besvare. Digitale algoritmer bygger videre på det princip, men kan bearbejde langt større mængder af data langt hurtigere end noget menneske (eller nogen gruppe af mennesker for den sags skyld). Desuden er digitale algoritmer i stadigt stigende grad i stand til selv at definere deres parametre og procedurer. Det kaldes maskinlæring og er grundlaget for det, der i dag ofte betegnes som kunstig intelligens – altså, algoritmiske systemer, der ikke bare kan løse en bestemt opgave, men også selv definerer, hvordan opgaven skal løses.

Lad os se på et konkret og meget omtalt eksempel: Facebooks algoritmer har længe været omgærdet med megen mystik; fra tid til anden har virksomheden fortalt om opdateringer, der for eksempel kunne føre til højere prioritering af indhold fra privatpersoner end fra organisationer, men detaljerne betragtes som forretningshemmeligheder. I efteråret 2021 gik den nu tidligere Facebook medarbejder Frances Haugen imidlertid til offentligheden med sin viden om algoritmernes funktion. Den opgave, Facebooks algoritmer løser, er i bund og grund at få folk til at blive hængende så længe på platformen som muligt, og man bliver længere, hvis man præsenteres for indhold, som man engagerer sig i. Så langt så godt. Sagen er bare den, at algoritmerne via undersøgelsen af brugerdata har fundet, at det indhold, der skaber mest engagement, er hadfyldt og polariserende. Og derfor tilbyder Facebook sine brugere mere og mere af dette indhold. Denne del af opgaven – altså, identifikationen af præcis, hvad det er for indhold, der er mest engagerende – har algoritmerne løst alene. Men, og dette er Frances Haugens egentlige afsløring, Facebooks menneskelige aktører var blevet klar over, hvad det var for et mønster, algoritmerne havde fundet og nu opererede ud fra (og dermed forstærkede), men de valgte ikke at gøre noget ved det. Som ’Facebook tjener penge på had, og derfor vil de ikke ændre noget’.

Algoritmer sætter i dag i stadigt flere tilfælde rammerne for vores kommunikation – og mere end det, de former vores kommunikative processer. Og det gør de ud fra brugerdata, som netop også er tilgængelige via digitale teknologier. Når vi bruger digitale teknologier, er vores brug altså formet af det, teknologierne allerede ved om alle sine brugere og om hver enkelt bruger. En ny bruger vil derfor blive præsenteret for information og tilbud på baggrund af teknologiens samlede datagrundlag, men efterhånden som man bruger teknologien mere og mere, vil den information, man møder, blive mere personaliseret.

Det fører til konkrete og gennemskuelige anbefalinger, der ligefrem er annoncerede som sådanne: ’fordi du så Love Actually, vil du måske også kunne lide Notting Hill.’ Men det fører også til mere generelle, subtile og uigennemskuelige processer: en bekendt, der er datalog, fortalte mig, at han nulstiller sin søgeprofil på Google hver anden uge, og hver gang, der er gået to uger, har han opbygget præcis den samme profil igen. Han kan altså se, at Google tilpasser sig, men på trods af sin faglighed, ved han ikke præcis, hvordan det sker.

 

Automatiseret overbevisning er et demokratisk problem

Som forbruger ved jeg ofte præcis, hvad jeg vil have, og det er nemt og bekvemt, at digitale platforme hjælper mig med at få det. Når jeg køber dagligvarer online, bliver jeg hjulpet til at huske at købe mælk, og man kunne i princippet radikalisere den automatisering, så mit køleskab selv sørger for nye forsyninger, når det er ved at løbe tør. Men allerede her opstår et problem, for vil vi altid have mere af det samme? Og har vi altid godt af det? Med andre ord, hvor langt bør vi lade den algoritmiske automatiseringen gå?

Hvis vi skifter indkøbslisten ud med en stemmeseddel og anlægger et borgerperspektiv, giver de spørgsmål anledning til dyb bekymring. Det er hverken godt for demokratiet eller for borgeren (og sandsynligvis heller ikke for forbrugeren), hvis alle altid får, hvad de vil have. Hvad der nok kan være hensigtsmæssigt fra et forbrugerperspektiv, er demokratisk problematisk, for når det kommer til politiske beslutninger, har vi ikke brug for mere information om det, vi allerede ved, eller flere argumenter for den position, vi allerede hælder til. Tværtimod har vi brug for ny viden og argumenter, der gør den svagere sag stærkere, som Protagoras formulerede det. Men netop det er algoritmer ikke særligt gode til.

Lad os kort vende tilbage til Facebooks algoritme; den har som nævnt egentlig til formål at skabe mest muligt engagement, ikke at sprede had. Og når had er det mest engagerende indhold, er det ikke som sådan Facebooks skyld – på samme måde som det ikke er pistoler, der dræber mennesker. Men når man har en pistol, er der større risiko for, at man vil skyde. Og når man har en algoritme, der promoverer had (uagtet, at dette ikke er dens formål), så er der stor risiko for at hadet vil forstærkes i en ond spiral, der ender med, at man tager sin pistol med til demonstration mod resultatet af et demokratisk valg (jf. stormen på Capitol Hill). Det er ikke algoritmen, der er hadefuld, men den finder et mønster i den menneskelige adfærd og forstærker det ved så at sige at fodre mønstret med sig selv.

Der er altså ikke bare tale om en selvopfyldende, men ligefrem en selvforstærkende profeti, der desuden kan være meget svær at gennemskue. Når algoritmer og data ikke bare bruges til at forme menneskers beslutningsprocesser, men i stigende grad også til at træffe beslutninger, kan disse beslutninger nemlig få et skær af objektivitet, rationalitet, præcision og effektivitet, der til sammen får dem til at ligne en oplysningstænkers våde drøm. I Dave Eggers’ dystopisk-satiriske roman The Every måles og rangeres alle medarbejderne i den monopolitiske tekgigant, som bogen deler navn med, konstant og hele tiden ud fra det hav af data, som virksomheden indsamler om dem. Der beregnes automatisk en score og med jævne mellemrum fyres de medarbejdere, der scorer lavest. Det er nemt for ledelsen og bekvemt for de medarbejdere, der sidder tilbage, for der var jo tale om et objektivt mål og en objektiv beslutning – som ikke blev truffet af andre mennesker, men udelukkende skyldtes de berørtes dårlige performance.

Eksemplet kan synes absurd og overdrevet (det er jo fiktion), men det er også skræmmende realistisk. Når for eksempel kommuner laver forsøg med algoritmer, der kan risikoscore udsatte børn, når forsikringsselskaber bruger algoritmer til at beregne en ny kundes præmie, eller når HR-afdelinger indfører algoritmer til screening af ansøgeres CV, så er det konkrete formål i hvert tilfælde måske forsvarligt. Men det betyder også, at vi allerede har teknologien til at indføre systemer, som dem Eggers karikerer – det er altså ikke et spørgsmål om udvikling af teknologi, men om anvendelsen af den. Og det betyder, at mennesker allerede er villige til at overlade deres dømme- og handlekraft til teknologier, som de ikke helt forstår – eller rettere, at handlekraften overlades til teknologierne, uanset om vi er klar over det eller ej.

 

Genindførelse af den retoriske overbevisning

Løsningen på den automatiserede overbevisnings demokratiske problemer er ikke ligetil. Selvom det kan være fristende – og i mange situationer fornuftigt – at ’hive stikket’, så tilbyder de digitale teknologier også så mange fordele og er blevet så indgroede i det individuelle og det kollektive liv, at det ikke giver mening at lede efter løsninger helt uden for det digitale rum. I stedet må vi overveje, hvordan vi kan omforme rummet, så algoritmerne i højere grad støtter op om demokratiet i stedet for at svække det. Det handler først og fremmest om at indføre noget modstand i de ellers så gnidningsfrie digitale processer. Altså, at afdække, hvordan processerne forløber, og at sætte nogle benspænd op undervejs, så vi får mindre automatik og mere reel overbevisning.

Det kan, vil jeg foreslå, ske på tre stadier i processen. Først i den tidlige fase, hvor man overvejer, om man vil indføre en given teknologi i den kontekst, man befinder sig i. Skal jeg for eksempel oprette en profil på et nyt socialt medie? Bør min arbejdsplads indkøbe et algoritmisk system til trivselsmåling? Kan ansigtsgenkendelse bruges i det offentlige rum? For nu blot at nævne tre eksempler, der gradvist bliver mere bredtfavnende og kontroversielle, men alle er reelle spørgsmål, vi (som individ, organisation, samfund) bør overveje nøje. Bare fordi man kan gøre noget, skal man ikke gøre det. For at få en fornemmelse af, om en algoritmisk løsning er en god ide, kan man fx spørge: hvad er det for et problem, algoritmen løser? Hvorfor har vi brug for at få det problem løst? Hvordan løser algoritmen problemet? Hvad er værdien af løsningen og har den nogle omkostninger?

For det andet kan synliggørelse af de underliggende kontroverser også indgå i selve teknologiudviklingen. Her kan man stræbe efter fuld viden om, hvad det er for værdier en algoritme anvender som grundlag for sine beslutninger, fuld indsigt i de ellers skjulte beslutningsprocesser og dermed fuld involvering af mennesker i hele udviklingen. Det kan stadig føre til automatiserede beslutninger, men så ved man i det mindste, hvad beslutningerne beror på; man har fået et blik for, at selve kodningsprocessen er persuasiv, som Kevin Brock (2019) viser i sit arbejde med ’retoriske kodestudier’.

For det tredje kan man designe mødet mellem brugeren og teknologien, så det synliggør, at der er tale om overbevisning, snarere end at forsøge at sløre det. Mediegruppen Vice lancerede for nogle år siden en kampagne, der på simpel men effektiv vis illustrerer dette. ’Like what you hate’ hedder kampagnen og går simpelthen ud på at vende tendensen, så man ikke får mere og mere af det indhold, man kan lide, men bliver eksponeret for flere synspunkter, der er forskellige fra ens egne. Mindre radikalt og mere almindeligt er det, når nogle anbefalingssystemer forklarer, hvorfor man får en anbefaling eller fremhæver den enkeltes mulighed for at vælge og justere sine præferencer. En sådan varedeklaration, gerne koblet med eksplicitte tilbud om alternativer, vil gøre den automatiserede overbevisning mere synlig – og derfor potentielt mindre effektiv. Omvendt vil den gøre den automatiserede overbevisning mere etisk og demokratisk legitim. Og det kunne muliggøre et konstruktivt spændingsforhold mellem effektivitet og etik, hvor retorisk og automatiseret overbevisning spiller sammen – til fordel for os alle i vores roller som (for)brugere af produkter og tjenester og demokratiske borgere.

Forfatteren anbefaler:

Brock, K. (2019). Rhetorical Code Studies. Ann Arbor, MI: University of Michigan Press. 

Eggers, D. (2021). The Every. New York, NY: Vintage Books.

Pasquale, F. (2015). The Black Box Society. Cambridge, MA: Harvard University Press.

Zuboff, S. (2019). The Age of Surveillance Capitalism. New York, NY: Public Affairs.

Algoritmer, Data & Demokrati. https://algoritmer.org/

  • ADD-projektet vil sikre at demokratiet styrkes af den digitale udvikling gennem forskning, øget teknologiforståelse, digital dannelse og dialog.