Klimatsamtal - Effektiv Altruism
Rörelsen “Effektiv Altruism” handlar om att göra goda saker, till exempel donera pengar, men att ställa frågan hur de borde doneras för att göra mest nytta. Boken “80 000 hours” verkar vara central, den talar då om hur vi kan använda vår (profesionella) tid på bästa sätt. Det spelar helt enkelt roll - många saker som känns bra gör lite till ingen verklig nytta, medan några av de mest effektfulla investeringarna kan gå bortglömda.
Jag var just på en meetup i Madrid och hade ett samtal med två självutnämnda “effektiva altruister,” 26 resp. 23 år gamla. Detta är en sammanfattning från minne av vårat samtal, och det är varken objektivt eller faktakollat.
Jag började med att introducera mig och säga att deras rörelse hade inspirerat mig att ifrågasätta hur jag använder mina resurser och min tid. Jag förklarade att jag såg klimatkrisen som mänsklighetens antagligen största fara, och att jag därför försöker hitta hur jag bäst kan hjälpa till med det problemet.
“Så vad är det du gör för att mitigera klimatkrisen?”
Första frågan var välställd, för väldigt mycket skada kopplad till klimatkrisen är redan “garanterad”, det vore alltså fel att prata om att “lösa krisen”, vi kan endast hindra den från att bli ännu värre. Jag förklarade att jag började med att minska mitt eget klimatavtryck genom livsstilsförändringar där det gör mest skillnad (kött, flyg och konsumption - jag har aldrig haft bil). Detta passar väl ihop med filosofin bakom effektiv altruism, eftersom många saker man kan göra som känns bra, egentligen gör ganska liten skillnad, det gäller därför att fokusera på de som verkligen spelar roll. Men jag förklarade vidare att mina personliga utsläpp i sig är ganska irrelevanta, att det som krävs är förändringar på systemnivå - lagar, regleringar, omställning. Bäst då att lägga tid på det - och det gör jag genom att delta i demonstrationer, och stötta grupper som kämpar för sådan förändring. Dels kan det handla om att donera pengar, dels hjälpa till som volontär med att bygga webbsidor eller dela ut flygblad.
“Vad kan jag läsa för att få en överblick över klimatkrisen? Jag trodde ärligt talat att det är ett problem vi var ganska nära att lösa.”
Tyvärr är det ju inte så. Varje år av de senaste 10 har varit det varmaste hittills1, halten av koldioxid i atmosfären fortsätter öka, liksom mänsklighetens konsumption av fossila bränslen. Och mycket av skadan vi gör går kanske inte att återvända från på grund av tipping points. Jag tipsade om “Under the sky we make”2, “How the world really works”3, Nate Hagens papper “Beyond the Superorganism”4 och podcast “the great simplification”5, samt IPCC’s syntesrapport6. Jag fick förklara vad tipping points är7.
Jag frågade vad de tyckte var det bästa man kunde göra?
“Att donera pengar är väl det bästa. På andra plats kommer nog att kommunicera om det. Att ta upp ämnet i olika samtal, för att hålla konceptet levande. Eller det kanske egentligen kommer på första plats?”
Sedan pratade vi mycket om deras engagemang också. Båda jobbar med AI. En av dem ville att fler människor skulle veta om AI och dess möjligheter. Han har en blogg8 och vill förklara tekniska AI-detaljer på ett tillgängligt sätt så att även hans mormor ska kunna förstå. För då tror han att framtiden blir bättre - om fler får vara med och ge sina perspektiv på AI-utvecklingen så kommer AI att kunna fungera bättre i mänskligheten. Folk kan också lyckas ställa om bättre till en ny verklighet, men det krävs att de pratar om det nya. Min fråga var huruvuda mormor verkligen har ett sätt att påverka AI-utvecklingen - gör det skillad att mormor lär sig, eller måste inte AI-företagen också vilja lyssna på mormor? Företagen vill ju tjäna sina kunder, sa han. Fast då är det bara de betalande kunderna som får vara med och påverka, sa jag, medans alla människor vars liv på något vis påverkas av AI i samhället ju är många fler.
AI-säkerhet sågs av dessa två som en existensrisk för mänskligheten. En tanke inom effektiv altruism är att jobba med det problem som är mest allvarligt, men som också får minst uppmärksamhet av andra, d.v.s. det finns inte redan många andra som jobbar på det. AI-säkerhet uppfyller dessa. Problemet har sina paralleller med klimatkrisen - AI-företagen är medvetna om riskerna med att skapa en intelligens som överstiger människan, men kapplöper ändå om vem som kan göra det snabbast. Det är också ett “allmänningens tragedi”-problem, där upplevda vinster för enskilda aktörer sammanlagt leder till förlust för alla.
Vi pratade om hur otroligt snabbt utvecklingen inom AI har gått - att det är en stor utmaning i sig att ens komma på nya tester för AI, för den lyckas bara krossa alla de som vi tidigare haft. Vi pratade om energiåtgången i AI-träning - att de stora techbolagen köper upp eller bygger nya energikällor för att ha nog för att träna nya modeller.
De sa att de tror AI kan hjälpa oss lösa klimatkrisen. Jag frågade om de kan berätta hur de ska ske. En person nämnde effektivisering genom nya teknologiska lösningar - men påpekade själv att när teknik blir mer effektiv så tenderar vi att använda mer av den (vilket kallas Jevons paradox). Den andre tyckte att AI kommer hjälpa oss förstå klimatkrisen bättre - vi vet ju inte exakt hur jordens alla system hänger ihop, kanske kan vi förstå det bättre med hjälp av AI och därmed kunna lösa klimatkrisen. Jag försökte förklara att vi redan förstår klimatkrisen mycket väl, att det som saknas är politisk vilja snarare än ännu mer vetenskap, men jag vet inte om det fastnade.
En av dem jag pratade med kritiserade EU-regleringar som gör att europeiska användare utesluts från nya användbara produkter baserade på AI. Det försökte jag gräva lite djupare i. Det lät som att han ena stunden önskade AI-företagen skulle gå långsammare fram för att vi ska kunna garantera att AI är säkert innan vi “släpper det löst”, men när nu EU-lagstiftningen agerade bromskloss, så ogillade han att vi i EU “kommer efter” i utvecklingen? Var inte detta samma logik som i AI-företagens kapplöpning? Han tyckte att AI-företagen vet väl bättre hur man säkerställer att AI är säkert än vad EU-byråkraterna vet. Men, påminde jag, det är väl ingen som kan säkerställa att AI är säkert än? Det är väl själva AI-säkerhetsproblemet? Och efter en stund började han se kopplingen och lovade att tänka vidare på saken.
Det var jättekul att dela en lunch med dessa välvilliga och AI-intresserade människor. Jag påmindes om hur mycket man lär sig av att prata med folk man inte känner, men också hur olika våra mentala bilder kan vara.