Övervakningskapitalism, algoritmer för att manipulera opinionen och fallet av Facebook

Det som händer på Facebook kunde förutses för en tid sedan och är en del av ett större problem: den rådande modellen av vaksam kapitalism och frestelserna från Big Data

Från början var det en stor kontrovers om förlusten av integritet som Facebook betydde, ett företag som aldrig riktigt intresserat sig för att skydda sina användares data. Olika medier varnade för att Facebook inte var "gratis"; Det innebar att leverera integritet och bevilja en växande makt till ett företag som inte är intresserat av ditt välbefinnande, eftersom den information som den fick logiskt skulle användas för att skapa personliga annonser, och också kunde hamna i händerna på politiker, marknadsföringsföretag och andra. Detta var alltid något som sprids i mindre eller större utsträckning runt Facebook, men det hördes inte riktigt, eftersom "alla är på Facebook" och fördelarna med att vara "anslutna" var för många, eller kanske för att tills nyligen det inte fanns någon sett specifikt hur denna information skulle kunna manipulera opinionen - något vi såg sedan Brexit och Trumps triumf. Vi trodde att eftersom vi inte var terrorister eller brottslingar så hade vi inte mycket att förlora genom att leverera all vår information. Mark Zuckerberg sade upprepade gånger att integriteten var övervärderad, att det viktiga var det sociala; Han uttalade till och med 2010 att han inte trodde på integritet. Nu verkar det ironiskt att Facebook och Twitter främjades som "verktyg för demokrati" eller för att avsätta diktatorer i den så kallade arabiska våren för några år sedan.

För några veckor sedan avslöjades avslöjandet av fallet med de 50 miljoner profilerna som undergrävde Cambridge Analytica-företaget för att skapa annonser och personligt innehåll för att påverka valet en glimt av vad som kan hända när Big Data kombineras med propaganda. Vi vet att bara ha tillgång till ett dussin likes eller lite annat kan förutsäga kön, ras, politisk orientering och så vidare. Försöker denna information Cambridge Analytica skröt att den kunde förstå vilken typ av meddelanden, format, innehåll, ton och frekvens som enskilda användare är mottagliga för. Samtidigt inrättade han ett medieproduktionsteam och ett team för spridning av medieprodukter i bloggar och sociala medieprofiler, skapade specifikt för att marknadsföra innehållet som kan gynna denna uppfattningsteknik. På samma sätt, baserat på användarnas psykologiska och emotionella profiler, skapades annonser med specifika mål . En tidigare anställd i detta företag, Christopher Wylie, sa att verktyget de utvecklade, till skillnad från att ta en megafon och kommunicera ett meddelande på ett offentligt torg, är "en viskning i varje väljares öra", vilket ger var och en ett personligt meddelande. ; "Detta undviker en kollektiv upplevelse och en kollektiv förståelse, " verkligheten är fragmenterad. Ett "kulturellt vapen" skapades med detta och den så kallade "filterbubblan" togs till det yttersta där alla får en personlig version av verkligheten baserad på deras tidigare smaker, och därmed placerade varje användare i ett separat tautologiskt universum av andra. Wylie påpekade att visionen om politisk alkemi av Trumps rådgivare, Steve Bannon, understöddes under detta axiom: "För att förändra samhället måste du först bryta den och sedan måste du rekonstituera bitarna och forma dem enligt din vision."

Indikationer om vad vi ser med Cambridge Analytica-fallet hade redan visats mycket tidigare. För att nämna ett anmärkningsvärt exempel som släpptes 2014 genomförde Facebook ett experiment med 700 000 ungdomar som känslomässigt manipulerades med information i sin Newsfeed utan att de visste det. Detta fortsatte att väga, vilket framgår av ett läckt dokument avslöjat av en australisk tidning 2017, som visar att "Facebook använder sofistikerade algoritmer för att identifiera och utnyttja australier så unga som 14 år, vilket gör att annonsörer kan leverera sina meddelanden. i de mest utsatta stunderna, inklusive när de känner sig 'ovärda' och 'osäkra'. "

Facebook står för närvarande inför enorm kritik, citeringar till publiken i olika delar av världen, dess handlingar sjunker på aktiemarknaden och det finns en viktig (men inte så massiv) utvandring av sina användare. Detta är verkligen bara början, eftersom Facebook-modellen och modellen för Google och andra företag är mer än att sälja reklam; Det är det som har kallats en " övervakningskapitalism" : de är värda inte för vad de säljer reklam, men för den information de har om sina användare och vad som kan göras med den. I den utsträckning som konstgjord intelligens eller maskininlärning växer, är frestelsen att skapa algoritmer för att förutsäga eller påverka beteenden för stor, särskilt när dessa företag inte riktigt är mänskliga, och helt enkelt följer förmånen att få mer vinster. Detta genererar i sin tur en intressekonflikt inte mindre, eftersom dessa plattformar tjänar pengar för varje sekund av uppmärksamhet från sina användare, men fängslar deras användares uppmärksamhet, så att den digitala ekonomin fortsätter att växa, nödvändigtvis innebär främling och utveckling av patologiskt beteende hos användare. Den digitala ekonomin mobiliseras för uppmärksamhet; Så medan användare konsumerar information konsumeras deras uppmärksamhet och därför förblir de i bortse från eller distraherar. För att göra detta, som vi dokumenterar här, integreras sofistikerade tekniker i designen och programmeringen med vilken dopaminsystem aktiveras - löfte om belöning - från användare på samma sätt som spelautomater. Du kan hävda att digital dopamin är något som nytt socker.

De oundvikliga resultaten av övervakningskapitalismen och dess data mining för att skapa annonser och förutsäga beteende har diagnostiserats väl av analytiker Mark Pesce:

Vårt nya sociala experiment - en värld där alla är anslutna - överlevde inte så mycket deras möte med kapitalismens rovdjurskrafter, och sjönk ned i en kloak av ilskningsförstärkning i namnet "ökande användarengagemang". Det här sättet att formulera saker gör att det låter som om försökspersonerna - alla vi - levde i en värld som skiljer sig från effekterna av förstärkning. Men det är mer som att sätta eld på en byggnad medan du fortfarande är inne.

Vi har lärt oss en viktig lektion: vi marknadsför våra sociala utrymmen på egen risk. Vi står nu inför den omedelbara risken att hitta utgångar till den här brinnande byggnaden medan vi hamnar i ruiner. När vi är ute måste vi möta en större utmaning - hur föreställer vi oss kollektivt framtiden så att detta inte händer igen?

Pesce verkar föreslå att systemet kollapsar. Vi måste se. Visst står Facebook inför eventuella förordningar och vissa länder, som Kina redan har gjort, kan börja begränsa deras tillgång. Men utöver detta är utmaningen hur vi föreställer oss en annan värld djupt i fiskskålen. Inte bara en värld utan Facebook, om så vore fallet, utan en mänsklig värld där vi inte är i händerna på maskiner och algoritmer som ingen kontrollerar eller som bara några få kontrollerar och i viss mån, eftersom de i sin ambition inte har Verkligen en idé om hur mycket de skapar något som en ny Frankenstein eller en ny Faust-pakt.