Hoppa till huvudinnehåll

AI som verktyg

Innan vi påbörjar vår kronologiska resa genom AI-historien tar vi ett praktiskt och nödvändigt kliv in i nutiden. Du som läser detta kommer med största sannolikhet att använda moderna AI-verktyg, som stora språkmodeller (LLM), både i dina studier och i ditt framtida arbetsliv. Därför är det avgörande att du redan nu får en robust verktygslåda för att hantera dessa kraftfulla system.

Detta kapitel är uppdelat i två delar. I den första delen lär du dig hantverket: hur du blir en skicklig och effektiv användare av AI som ett verktyg för att förstärka ditt eget tänkande. I den andra delen granskar vi bränslet som driver dessa system – data – och varför du måste vara djupt kritisk till hur det samlas in och används.


Del A: Hur du blir en skicklig användare

Kognitiv Augmentation: Mer än bara Automation

Det är lätt att se AI som ett verktyg för automation – något som gör jobbet åt dig. Du kan be den skriva en text, sammanfatta en artikel eller generera en bild, och den gör det. Men att bara se AI som en ersättare för arbete är att missa dess verkliga potential.

Ett mycket kraftfullare synsätt är att se AI som ett verktyg för kognitiv augmentation. Ordet augmentation betyder "förstärkning" eller "utökning". Tänk på AI som en "kognitiv partner". Målet är inte att låta AI:n tänka istället för dig, utan att använda den för att tänka bättre, snabbare och mer kreativt själv.

Automation eller augmentation?

Automation eller augmentation?

Exempel på kognitiv augmentation i praktiken:

  • Idégenerering & Brainstorming: Använd AI som ett outtröttligt bollplank. Be den om tio galna idéer, be den kritisera din bästa idé, eller be den kombinera två dåliga idéer till en ny, spännande.
  • Sammanfattning: Klistra in en lång, komplex text och be AI:n att korta ner den till ett fåtal huvudpunkter. Detta frigör din mentala energi till att analysera och kritisera texten, istället för att bara läsa den.
  • Lärande & Förklaring: Be AI:n förklara ett svårt koncept (som kvantfysik eller ett filosofiskt argument) med några olika analogier tills du hittar en som klickar för dig.
  • Strukturering & Omformulering: Klistra in dina röriga, ostrukturerade anteckningar och be AI:n att organisera dem under logiska rubriker eller att omformulera en klumpig mening så att den blir tydligare.

I alla dessa fall är det fortfarande du som styr, du som utvärderar och du som äger slutprodukten. AI:n är ett verktyg som förstärker din egen intelligens.

Tänk som en pilot

En modern pilot automatiserar stora delar av flygningen med en autopilot. Men piloten lämnar aldrig cockpit. Hen övervakar systemen, hanterar oväntade händelser och har alltid det slutgiltiga ansvaret. Se på AI på samma sätt: låt den vara din autopilot för kognitiva uppgifter, men behåll alltid själv kommandot.

Hantverket: Att Skriva Prompter som Fungerar

För att kunna använda AI som ett effektivt kognitivt verktyg måste du behärska hantverket att kommunicera med den. Detta kallas ofta prompt engineering eller prompthantverk. Din interaktion med en språkmodell är inte en konversation mellan jämlikar; det är en instruktion till ett verktyg. En vag och slarvig fråga leder till ett vagt och slarvigt svar. En precis, genomtänkt och kontextrik instruktion leder till ett användbart och relevant svar.

Istället för en rigid metod kan du tänka på en bra prompt som en uppsättning tydliga instruktioner. Ju bättre du specificerar vad du vill ha, desto större är chansen att du får det. Tänk på dig själv som en regissör som ger tydliga anvisningar till en skådespelare, eller en beställare som skriver en kravspecifikation till en leverantör.

Här är de fem nyckelkomponenter som nästan alltid förbättrar resultatet av en prompt:

1. Roll (Role): Vem ska AI:n vara? Genom att tilldela AI:n en specifik roll eller persona fokuserar du dess svar, tonläge och kunskapsbas. Det är skillnad på att be en "vänlig lärare" och en "kritisk akademiker" att förklara ett koncept.

  • Exempel: "Agera som en vetenskapsjournalist..."
  • Exempel: "Du är en pedagog som förklarar komplexa idéer för en tioåring..."
  • Exempel: "Var en cynisk och kritisk granskare av följande text..."

2. Uppgift (Task): Vad exakt ska AI:n göra? Var extremt tydlig med ditt slutmål. Använd starka, aktiva verb. Ska den sammanfatta, analysera, jämföra, generera en lista, skriva om, översätta eller skapa en tabell? "Berätta om X" är en dålig uppgift. "Identifiera de tre starkaste argumenten och de tre svagaste argumenten i följande text" är en utmärkt uppgift.

  • Exempel: "...och skriv en kort analys av de största möjligheterna och de mest allvarliga riskerna med gentekniken CRISPR-Cas9."

3. Kontext (Context): Vilken bakgrundsinformation behövs? Detta är kanske den viktigaste komponenten. En AI har ingen aning om din situation om du inte berättar den. Ge all nödvändig bakgrundsinformation. Klistra in den text du vill att den ska arbeta med, beskriv situationen, eller referera till tidigare delar av er konversation. Ju mer relevant kontext du ger, desto mer relevant blir svaret.

  • Exempel: "Fokusera på konkreta exempel, som potentialen att bota ärftliga sjukdomar, men också på de etiska dilemman som tekniken väcker. Läs denna bifogade debattartikel och referera till den: ..."

4. Målgrupp (Audience): Vem är mottagaren? Vem ska läsa eller använda resultatet? Är det för dig själv? Din professor? En grupp nybörjare? Din mormor? Att definiera målgruppen styr språk, komplexitet och formalitetsnivå.

  • Exempel: "Texten ska rikta sig till nyfikna gymnasieelever på naturvetenskapsprogrammet som har grundläggande kunskaper i biologi."

5. Format (Format): Hur ska resultatet se ut? Specificera exakt hur du vill att svaret ska struktureras. Utan anvisningar får du ofta en vägg av text. Be istället om en punktlista, en tabell med specifika kolumner, en essä med tre stycken, en dialog, eller kod i ett visst programmeringsspråk.

  • Exempel: "Strukturera svaret med en kort inledning, följt av en punktlista för 'Möjligheter' och en punktlista för 'Risker'."

Från dåligt till bra: Ett exempel

Låt oss se hur dessa komponenter förvandlar en dålig prompt till en bra, med ett ämne som är mer relevant för dig.

Dålig prompt:

"Berätta om CRISPR."

Resultatet blir troligen en torr, encyklopedisk text som förklarar den tekniska mekanismen men missar hela poängen med varför det är en så omvälvande teknik.

Bra prompt (med alla komponenter):

[Roll] Agera som en vetenskapsjournalist som skriver för en tidskrift i stil med Forskning & Framsteg.

[Uppgift] Skriv en kort analys av de största möjligheterna och de mest allvarliga riskerna med gentekniken CRISPR-Cas9.

[Målgrupp] Texten ska rikta sig till nyfikna gymnasieelever på naturvetenskapsprogrammet som har grundläggande kunskaper i biologi men inte är experter på genteknik.

[Kontext] Fokusera på konkreta exempel, som potentialen att bota ärftliga sjukdomar (t.ex. sicklecellanemi), men också på de etiska dilemman som tekniken väcker, exempelvis risken för "designer babies". Här finns ett utdrag från en debattartikel som du bör referera till: ...

[Format] Strukturera svaret med en kort inledning som förklarar vad CRISPR är på ett enkelt sätt, följt av en punktlista för "Möjligheter" och en punktlista för "Risker". Avsluta med ett sammanfattande stycke som reflekterar över teknikens framtid.

Genom att systematiskt inkludera dessa komponenter i dina prompter går du från att vara en passiv passagerare till att bli en aktiv förare som styr AI:n mot exakt det mål du vill uppnå.

Om du vill ha hjälp att komma ihåg så blir det CRAFT på engelska (Context, Role, Audience, Format, Task )

Avancerade Prompt-strategier

Utöver CRAFT-ramverket finns det några namngivna tekniker som är bra att känna till för att ytterligare förbättra dina resultat, särskilt för mer komplexa uppgifter.

1. Zero-Shot Prompting: Detta är den mest grundläggande formen av prompting och det vi hittills har beskrivit. Du ställer en fråga eller ger en instruktion direkt, utan att ge några föregående exempel. Du förlitar dig helt på modellens befintliga kunskap.

  • Exempel: "Översätt 'Hello, world' till svenska."

2. Few-Shot Prompting: Detta är en av de mest effektiva teknikerna för att få ett specifikt och välformaterat svar. Innan du ställer din verkliga fråga, ger du modellen 2-3 kompletta exempel på exakt det format du vill ha. Detta "förbereder" (primes) modellen och visar den exakt hur den ska bete sig.

  • Exempel:

    "Översätt från engelska till piratspråk. Här är några exempel: 'Hello, friend' -> 'Ahoy, matey' 'Where is the treasure?' -> 'Where be the booty?'

    Översätt nu följande: 'Let's go to the restaurant.'"

    Resultatet blir troligen något i stil med: "Let's be headin' to the galley!"

3. Chain-of-Thought (CoT) Prompting: För problem som kräver logiskt resonemang eller flera steg (som matteproblem eller logiska pussel) kan en standardprompt ge fel svar eftersom modellen försöker "gissa" svaret direkt. CoT löser detta genom att du lägger till en enkel fras i din prompt: "Tänk steg-för-steg."

Denna lilla instruktion tvingar modellen att först skriva ut sitt resonemang, steg för steg, innan den ger det slutgiltiga svaret. Genom att bryta ner problemet och "tänka högt" ökar chansen dramatiskt att den kommer fram till rätt slutsats.

  • Exempel (utan CoT):

    "Kafeterian hade 23 äpplen. De använde 20 till lunch och köpte sedan 6 nya. Hur många äpplen har de nu?" Modellen kan här gissa fel och svara 27.

  • Exempel (med CoT):

    "Kafeterian hade 23 äpplen. De använde 20 till lunch och köpte sedan 6 nya. Hur många äpplen har de nu? Tänk steg-för-steg." *Modellen kommer nu troligen att svara:

    1. Start: 23 äpplen.
    2. 20 används till lunch: 23 - 20 = 3 äpplen kvar.
    3. 6 nya köps in: 3 + 6 = 9 äpplen. Svar: De har 9 äpplen nu.*
TODO Illustration: Chain-of-Thought Prompting

En jämförande illustration. Till vänster, under rubriken "Standard-prompt", en hjärna som direkt ger det felaktiga svaret "27". Till höger, under rubriken "Chain-of-Thought-prompt", samma hjärna som först producerar en tankebubbla med stegen "23 - 20 = 3" och "3 + 6 = 9", och därefter ger det korrekta svaret "9". Detta visar visuellt hur CoT tvingar fram en resonemangsprocess.

Att Hitta Felen: Konsten att "Red Teama" en AI

En avgörande färdighet för att bli en mogen AI-användare är att inte bara kunna få bra svar, utan att också förstå och kunna provocera fram dåliga svar. Att aktivt försöka "bryta" en modell eller hitta dess svagheter och fördomar kallas Red Teaming.

Genom att lära dig hur modellen misslyckas får du en bättre intuition för dess begränsningar och blir mindre benägen att lita blint på dess resultat. Här är några praktiska strategier för att testa en modells robusthet:

  • Fråga om dess egna åsikter: Be modellen att ta ställning i en kontroversiell fråga. Du kommer ofta att få ett förprogrammerat, neutralt svar som avslöjar att den inte "tycker" något, utan är designad för att undvika att ta ställning.
  • Ge den en omöjlig eller motsägelsefull premiss: "Förklara varför himlen är grön." eller "Beskriv fördelarna med att dricka bensin." En robust modell bör ifrågasätta premissen, medan en svagare modell kan försöka hallucinera ett svar som uppfyller din fråga.
  • Testa för stereotyper: Be modellen beskriva en "typisk" person från ett visst yrke, en viss nationalitet eller en viss subkultur. Granska svaret kritiskt för att se om det reproducerar eller förstärker vanliga stereotyper.
  • Be den citera källor: När modellen presenterar ett faktabaserat påstående, be den alltid om en specifik källa. Kontrollera sedan källan. Du kommer ofta att upptäcka att URL:er är påhittade eller att referensen inte alls stöder påståendet. Detta är ett av de bästa sätten att konkret se problemet med hallucinationer.

Akademisk Integritet: Gränsen mellan Verktyg och Fusk

När du använder dessa kraftfulla verktyg i dina studier är det avgörande att du förstår och respekterar gränsen mellan legitimt stöd och fusk.

  • Legitimt stöd (Augmentation): Att använda AI för att bolla idéer, förklara svåra koncept, förbättra ditt språk, hitta fel i din kod(du kommer få möjlighet att koda senare i boken) eller organisera dina tankar. Här använder du AI:n som en personlig handledare eller en smart skrivassistent för att förbättra ditt eget arbete.
  • Fusk (Automation): Att be AI:n skriva en hel uppsats åt dig, att lämna in AI-genererad text som din egen, eller att låta den göra en uppgift som är menad att testa din egen kunskap och förmåga. Här låter du AI:n göra jobbet istället för dig.

En bra tumregel är: Kan du självsäkert och i detalj förklara och försvara varje ord och idé i den text du lämnar in? Om svaret är ja, har du troligen använt AI på ett ansvarsfullt sätt. Om svaret är nej, har du passerat gränsen till fusk.

En varning från universiteten

Skolor och universitet utvecklar snabbt nya regler för AI-användning. Att använda AI för att generera text och lämna in den som din egen ses nästan undantagslöst som plagiat. Konsekvenserna kan vara allt från underkänt på kursen till avstängning. Sätt dig alltid in i de specifika regler som gäller för just din utbildning.

Hur du transparent redovisar din AI-användning

Att vara transparent med din AI-användning är det bästa sättet att upprätthålla akademisk integritet. Många akademiska sammanhang börjar nu uppmuntra eller till och med kräva en redogörelse för hur AI-verktyg har använts. Detta visar att du använder verktyget ansvarsfullt och som en del av din egen arbetsprocess.

Du kan inkludera en kort paragraf som en fotnot, i ett förord eller i en appendix. Här är ett exempel på hur en sådan redogörelse kan se ut:

Redogörelse för AI-användning: I framtagandet av denna uppsats har en stor språkmodell (t.ex. ChatGPT-4, Google Gemini) använts för följande specifika ändamål:

  1. Idégenerering: Användes i ett tidigt skede för att brainstorma möjliga infallsvinklar och argument kring ämnet [ämne].
  2. Sammanfattning: Användes för att sammanfatta de huvudsakliga poängerna i källmaterial [X] och [Y] för att snabbt få en överblick.
  3. Språklig förbättring: Användes för att omformulera ett antal meningar i avsnitt [Z] för att förbättra språklig klarhet och flöde.

All slutgiltig text, källanalys, argumentation och slutsatser är författarens egna verk.


Del B: Varför du måste vara kritisk

En AI-modell, särskilt en stor språkmodell, är som en extremt avancerad statistisk papegoja. Den har inte "förståelse" eller "kunskap" i mänsklig mening. Istället har den tränats på en ofattbar mängd text och bilder från internet, och lärt sig att känna igen och återskapa mönster i denna data.

Detta innebär två saker:

  1. Modellens "världsbild" är en direkt spegling av den data den har tränats på.
  2. Kvaliteten och naturen på denna data är av absolut avgörande betydelse.

Det är här vi stöter på några av de största och mest problematiska aspekterna av modern AI, som vi bäst förstår genom våra återkommande perspektiv.

Det ekonomiska perspektivet: Övervakningskapitalism

Var kommer all denna data ifrån? Till stor del kommer den från oss. Varje sökning du gör, varje klick du gör, varje plats du besöker med din telefon, varje interaktion du har på sociala medier – allt detta samlas in, lagras och analyseras.

Forskaren Shoshana Zuboff har gett detta system ett namn: övervakningskapitalism. Hennes poäng är att de stora tech-företagens affärsmodell inte längre bara handlar om att sälja produkter eller annonsplatser. Den primära produkten är förutsägelser om ditt framtida beteende. Genom att samla in enorma mängder data om dig kan de bygga modeller som försöker förutsäga vad du kommer att köpa, vilka politiska åsikter du lutar åt och vilka videor du kommer att titta på härnäst. Dessa förutsägelser säljs sedan till annonsörer och andra som vill påverka ditt beteende.

Denna data, som samlas in för kommersiell övervakning, blir sedan det "bränsle" som används för att träna de AI-modeller vi använder. Våra digitala fotspår omvandlas till den statistiska grunden för AI:ns "kunskap".

"Om du inte betalar för produkten..."

"...är det du som är produkten." Detta gamla talesätt från internet-eran är mer relevant än någonsin. I övervakningskapitalismens tidsålder är det mer precist att säga: "Du är inte produkten, du är råmaterialet." Din data är den naturresurs som utvinns för att skapa förutsägelseprodukter.

Det sociologiska perspektivet: Automatisering av Ojämlikhet

Eftersom AI-modeller lär sig från data som samlats in från vår värld, kommer de oundvikligen att ärva och förstärka de fördomar och ojämlikheter som redan finns i samhället. Detta kallas AI-bias.

Ett klassiskt exempel är när Amazon försökte bygga en AI för att automatiskt sålla bland jobbansökningar. Eftersom företaget historiskt sett hade anställt fler män än kvinnor i tekniska roller, lärde sig AI-modellen att ansökningar som innehöll ord som "kvinnor" (t.ex. "kapten för damlaget i schack") skulle nedgraderas. Modellen lärde sig inte att hitta de bästa kandidaterna, utan att imitera de partiska anställningsbeslut som människor hade fattat tidigare.

AI bias

AI bias

Detta är ett enormt problem. När vi börjar använda AI för att fatta viktiga beslut om lån, anställningar, eller till och med vem som ska beviljas villkorlig frigivning från fängelse, riskerar vi att bygga in historiska orättvisor i ett tekniskt system som ger sken av att vara objektivt och neutralt.

Det ekologiska perspektivet: Digital inavel och modellkollaps

Problemet med partisk och bristfällig träningsdata är inte bara ett historiskt problem. Det håller på att utvecklas till en akut framtidskris. Fram till nyligen har internet, trots sina brister, till största delen bestått av innehåll skapat av människor. Men nu fylls det i en exponentiell takt med text, bilder och kod som genererats av AI. Vad händer när nästa generation AI-modeller tränas på data som skapats av sina föregångare?

En studie publicerad i Nature 2024, "AI models collapse when trained on recursively generated data", ger ett alarmerande svar. Forskarna kallar fenomenet för modellkollaps (model collapse).

Processen är degenerativ och kan liknas vid att göra en fotokopia av en fotokopia(äldre läsare kommer ihåg kvalitén på bilder/text i uppgifter i skolan som skrivits ut och kopieras om och om igen). För varje generation förlorar modellen lite av detaljrikedomen och precisionen från den ursprungliga, mänskligt skapade datan. Mer specifikt börjar AI-modellerna glömma bort "uteliggarna" i datadistributionen – det vill säga de ovanliga, kreativa, avvikande och ibland geniala idéer som utgör mänsklighetens mångfald och innovationskraft. Med tiden konvergerar modellerna mot en alltmer förenklad, genomsnittlig och till slut förvrängd bild av verkligheten. De "misstolkar verkligheten", som forskarna uttrycker det.

Modellkollaps

Modellkollaps

Detta är en form av digital inavel, där modellens initiala fördomar förstärks i en ekokammare. AI-systemen börjar mata sig själva med sin egen "skräpmat" av genomsnittligt och repetitivt innehåll, vilket leder till att de blir allt dummare och mindre kapabla över tid. Konsekvensen är dramatisk: värdet av äkta, verifierbar, mänskligt skapad data kommer att skjuta i höjden. Förmågan att skilja mellan mänskligt och syntetiskt innehåll blir inte bara en teknisk utmaning, utan en avgörande förutsättning för att AI-utvecklingen överhuvudtaget ska kunna fortsätta framåt.

Fråga dig själv

Om internet blir alltmer fyllt med AI-genererat innehåll, som i sin tur tränar nya AI-modeller, var kommer ny, originell och mänsklig kunskap ifrån i framtiden? Hur säkerställer vi att vi inte fastnar i en digital ekokammare?

Det kognitiva & psykologiska perspektivet: Förstärkta fördomar och kognitiv skuld

Problemet med AI-bias och den urvattnade data som kan leda till modellkollaps förstärks av vår egen mänskliga psykologi, särskilt vår tendens till konfirmeringsbias (confirmation bias) – vi tenderar att omedvetet leta efter och favorisera information som bekräftar våra befintliga övertygelser. När en AI presenterar ett resultat som stämmer överens med vår magkänsla (som i sig kan vara färgad av fördomar), är vi mindre benägna att granska det kritiskt.

Utöver att förstärka våra fördomar, finns en mer personlig och subtil risk med att ständigt använda kraftfulla AI-verktyg: risken för kognitiv avlastning. Blir vi helt enkelt dummare av att använda AI?

Svaret är komplicerat. Forskning har länge visat på "Google-effekten": vi är sämre på att komma ihåg information som vi vet att vi enkelt kan hitta på nätet. Vi memorerar inte själva faktan, utan var vi kan hitta den. Med stora språkmodeller kan denna avlastning bli ännu djupare. Risken är inte bara att vi slutar memorera fakta, utan att vi avlastar själva processen att tänka. Att formulera en sammanhängande argumentation, att hitta de rätta orden för en komplex känsla, att strukturera en text – allt detta är kognitiva färdigheter som, likt muskler, behöver tränas.

En uppmärksammad studie från MIT, "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task", ger en obehaglig inblick i just detta. Forskarna lät deltagare skriva uppsatser i tre olika grupper: en som endast använde ChatGPT (LLM-gruppen), en som använde traditionella sökmotorer och en som bara fick använda sin egen hjärna ("brain-only"). Genom att mäta hjärnaktiviteten med EEG kunde de se exakt vad som hände kognitivt.

Resultaten är slående. Deltagarna i LLM-gruppen uppvisade den svagaste neurala aktiviteten och nätverkskopplingarna i hjärnan. Hjärnaktiviteten "skalade ner i proportion till mängden externt stöd", som forskarna uttryckte det. Det mest anmärkningsvärda var dock ett konkret beteendemässigt test: direkt efter att ha skrivit sina texter hade deltagarna i LLM-gruppen signifikant sämre förmåga att minnas och korrekt citera meningar från sina egna essäer. Informationen hade aldrig riktigt bearbetats eller lagrats i minnet; den kognitiva processen hade avlastats så till den grad att deltagarna inte kände "ägarskap" över texten. Forskarna kallar detta fenomen för ackumulering av "kognitiv skuld" (cognitive debt).

Denna tendens att lita för blint på tekniken kan få allvarliga konsekvenser, även för högpresterande proffs. I en berömd studie från Harvard Business School, med titeln "Navigating the Jagged Technological Frontier", lät man managementkonsulter från Boston Consulting Group (BCG) lösa komplexa affärsproblem. En grupp fick använda AI, den andra inte. För uppgifter som AI:n var bra på presterade AI-gruppen bättre. Men när de ställdes inför en uppgift som krävde mer kreativt och nyanserat tänkande – en uppgift AI:n var dålig på – presterade AI-gruppen signifikant sämre än gruppen utan AI. De föll offer för automationsbias – en mänsklig tendens att okritiskt föredra förslag från ett automatiserat system – och litade på AI:ns självsäkra men felaktiga svar istället för sitt eget omdöme.

En ytterligare anmärkningsvärd studie från forskningsorganisationen METR, "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity", visar att denna problematik kan leda till direkt försämrad prestation, även för experter inom AI:ns absoluta kärnområde: kodning. I ett experiment fick erfarna programmerare i uppdrag att lösa problem i kodbaser de redan kände till, antingen med eller utan de senaste AI-verktygen.

Resultatet var det motsatta mot vad alla förväntade sig: när de tilläts använda AI-verktyg tog uppgifterna i genomsnitt 19% längre tid. Istället för att koda ägnade de mer tid åt att skriva och justera prompter, vänta på svar och framför allt – granska, felsöka och korrigera den AI-genererade koden. För en expert blev AI-assistenten inte ett verktyg för acceleration, utan en tidskrävande mellanhand.

Tillsammans illustrerar dessa studier en perfekt storm av kognitiv avlastning och felkalibrerad tillit. Kanske mest talande var att programmerarna i METR-studien, även efteråt, fortfarande uppskattade att AI hade sparat dem tid, trots att mätningarna visade motsatsen. Deras tro på verktygets effektivitet var så stark att den överskuggade deras faktiska erfarenhet av att bli långsammare. Både Harvard-studien och METR-studien visar att en okritisk tillit till AI kan leda till sämre och långsammare resultat, särskilt när verktyget används utanför sitt expertområde eller när användaren själv är en expert.

Målet är därför inte att såga dessa verktyg, utan att utveckla ett förhållningssätt som en skicklig hantverkare. En snickare använder en elektrisk såg för att snabbt kapa brädor, men hon förlorar inte förmågan att använda en handsåg när precision och finkänslighet krävs. På samma sätt måste vi lära oss att använda AI för att accelerera vårt arbete, men medvetet fortsätta att öva på de grundläggande kognitiva färdigheterna som definierar ett klart och självständigt tänkande. Studierna från MIT, Harvard och METR är en stark varningssignal: om vi inte är medvetna om risken för kognitiv skuld och automationsbias, kan verktygen som är designade för att göra oss smartare i själva verket göra vårt arbete både sämre och långsammare.

Lag & Samhälle: Ett försök till kontroll

Som ett svar på dessa risker har lagstiftare runt om i världen börjat agera. De två viktigaste regelverken att känna till i Europa är:

  • GDPR (General Data Protection Regulation): Denna lag, som infördes 2018, ger EU-medborgare större kontroll över sina personuppgifter. Den ger dig rätten att veta vilken data företag har om dig, rätten att få den raderad, och kräver att företag har ditt samtycke för att samla in den.
  • EU AI Act: Detta är ett nyare och mer ambitiöst lagförslag som syftar till att reglera själva AI-systemen. Lagen delar in AI-tillämpningar i olika riskkategorier. System med "oacceptabel risk" (som sociala poängsystem) blir helt förbjudna. System med "hög risk" (som i rekrytering eller brottsbekämpning) måste uppfylla strikta krav på transparens, säkerhet och mänsklig översyn.

Dessa lagar är samhällets försök att hitta en balans – att kunna dra nytta av AI:s fördelar utan att offra grundläggande rättigheter och demokratiska värderingar.

Sammanfattning: Den Kognitiva Skulden i Praktiken

Studie (Forskare)UppgiftUpplevd Fördel med AIUppmätt VerklighetBegrepp
MITSkriva uppsatserSnabbare och enklare textproduktion.Svagare hjärnaktivitet, sämre minne av den egna texten.Kognitiv Skuld
Harvard (BCG)Lösa affärsproblemBättre resultat på uppgifter AI är bra på.Sämre resultat på kreativa uppgifter där AI var dålig.Automationsbias
METRErfarna utvecklare kodarKänslan av att ha sparat tid.Tog i genomsnitt 19% längre tid att slutföra uppgiften.Felkalibrerad Tillit

Övningar

AI som verktyg

Detta kapitel fokuserar på praktiska färdigheter och kritiskt tänkande. Övningarna är designade för att göra dig till en mer medveten, effektiv och ansvarsfull användare av moderna AI-verktyg.

Övning 1: Workshop i prompt engineering

Syfte: Att systematiskt träna på att bygga effektiva prompter med hjälp av de fem nyckelkomponenterna och mer avancerade strategier.

Del 1: Bemästra CRAFT

  1. Arbeta i par eller smågrupper.
  2. Nedan följer tre dåliga, vaga prompts. Er uppgift är att skriva om varje prompt med hjälp av de fem nyckelkomponenterna: Roll, Uppgift, Kontext, Målgrupp, Format. Var kreativa med de detaljer ni lägger till.
  3. Jämför era förbättrade prompts med en annan grupp. Diskutera likheter och skillnader i era tolkningar. För att komma ihåg komponenterna kan ni använda den engelska minnesregeln CRAFT (Context, Role, Audience, Format, Task).

Dåliga Prompts:

  • "Förklara svarta hål."
  • "Förklara AI."
  • "Ge mig några idéer till mitt gymnasiearbete."

Del 2: Avancerade Strategier

  1. Välj en av era förbättrade CRAFT-prompter från Del 1.
  2. Skriv om den igen med Few-Shot Prompting. Ge modellen 2-3 korta, påhittade exempel på den exakta output du vill ha innan du ställer din slutgiltiga fråga.
  3. Skriv om en annan prompt för ett problem som kräver resonemang (t.ex. en enkel mattefråga eller ett logikpussel) och lägg till den magiska frasen "Tänk steg-för-steg" för att aktivera Chain-of-Thought Prompting.

Testa och Reflektera:

  • Testa nu er ursprungliga dåliga prompt, er CRAFT-prompt, och era Few-Shot/CoT-prompter i en AI-chatt. Jämför resultaten.
  • När räcker en bra CRAFT-prompt? I vilka situationer är Few-Shot eller Chain-of-Thought överlägset?

Övning 2: Bli en AI-Kritiker (Red Teaming)

Syfte: Att praktiskt träna på att hitta svagheter, fördomar och fel hos en språkmodell.

Instruktioner:

  1. Välj ett ämne du kan en del om.
  2. Gå in i en ny chatt med en LLM och försök systematiskt att "bryta" den med hjälp av strategierna från läroboken.
  3. Ert mål är att hitta och dokumentera (genom att spara en skärmdump eller kopiera texten) minst ett tydligt exempel på var och en av följande:
    • En hallucination (t.ex. en påhittad källa, ett felaktigt faktoid).
    • En fördom/stereotyp (t.ex. ett stereotypt svar på frågan "beskriv en typisk [yrke]").
    • Ett neutralt, undvikande svar på en fråga där du ber den ta ställning.
  4. Presentera ert bästa (eller värsta) fynd för en annan grupp.

Övning 3: Akademisk Integritetsverkstad

Syfte: Att konkretisera gränsdragningen mellan legitimt AI-stöd och fusk, och att öva på transparent redovisning.

Del 1: Gränsdragning

  1. Välj en vanlig skoluppgift (t.ex. "analysera en dikt", "skriv en labbrapport", "förbered en muntlig presentation").
  2. I grupp, brainstorma och lista så många sätt som möjligt man kan använda en LLM för den uppgiften.
  3. Skapa två kolumner: "Legitimt Stöd (Augmentation)" och "Fusk (Automation)".
  4. Placera in varje användningsområde ni kom på i rätt kolumn och diskutera gränsfallen.

Del 2: Praktisk Redovisning

  1. Baserat på de legitima användningsområdena ni identifierade, skriv ett utkast till en "Redogörelse för AI-användning" för er valda skoluppgift. Använd mallen från läroboken som grund.

Övning 3: Bias-Verkstad - Från Data till Stereotyp

Syfte: Att med egna ögon se hur samhälleliga stereotyper återspeglas i verklig statistisk data och hur AI-modeller kan förstärka dessa mönster.

Del 1: Analysera verklig yrkesstatistik från SCB

I den här delen agerar ni som dataanalytiker. Er uppgift är att hämta och analysera officiell statistik över olika yrken i Sverige för att identifiera mönster i vem som arbetar med vad.

Instruktioner:

  1. Hämta data:

    • Gå till SCB:s statistikdatabas via denna länk: Anställda i riket efter yrke, sektor, ålder och kön.
    • I menyn, välj samtliga yrken.
    • Välj samtliga sektorer.
    • Markera inget i ålder för att få alla åldrar.
    • Välj båda könen.
    • Välj det senaste tillgängliga året.
    • Klicka på "Fortsätt". Du kommer nu till en tabell.
    • Rotera tabellen tills du får ett överskådligt format.
    • Exportera tabellen till Excel-format genom att klicka på "Spara resultat som..." -> "Excel (xlsx)".
  2. Analysera i kalkylprogram:

    • Öppna filen i Google Sheets eller Excel.
    • För yrkena, beräkna könsfördelningen i procent. Skapa en ny kolumn och använd formeln: (antal kvinnor / (antal kvinnor + antal män)) * 100 för att få fram andelen kvinnor.
    • Skapa ett enkelt stapeldiagram som visar könsfördelningen för några yrken ni valt.
Diskutera
  • Vilka yrken var mest och minst jämställda? Blev ni överraskade av resultaten?
  • Om ni skulle använda enbart denna statistiska data för att träna en AI att matcha personer med yrken, vilka "regler" skulle den lära sig?
  • Vilka är de verkliga konsekvenserna om denna partiska data används för att till exempel designa en AI för karriärvägledning eller för att automatiskt sålla bland jobbansökningar?

Del 2: Jämför med en bildgenerator

Nu ska vi se om en AI-bildgenerator har lärt sig samma stereotyper som ni fann i den officiella statistiken.

  1. Använd en bildgenerator (t.ex. Midjourney, DALL-E 3, Stable Diffusion). Ni kan generera bilder i googles aistudio.
  2. Använd enkla prompter som motsvarar de yrken ni analyserade. Använd neutrala formuleringar som:
    • "en bild av en sjuksköterska"
    • "ett foto av en mjukvaruutvecklare"
    • "en bild på en lastbilsförare"
  3. Generera flera bilder för varje yrke och analysera resultaten i grupp.
    • Vilka stereotyper (särskilt kön, men även ålder och etnicitet) visar AI:n?
    • Hur väl stämmer AI:ns bilder överens med den statistik ni hämtade från SCB?
    • Bildgeneratorn är tränad på global data från internet, medan SCB-datan är specifik för Sverige. Ser ni några skillnader som kan bero på detta? Diskutera.

Reflektionsfråga: Hur kopplar era fynd i denna övning till konceptet "Automatisering av Ojämlikhet" som diskuteras i läroboken? Ge ett konkret exempel.


Övning 5: Kognitiv Skuld, Bias & Expertis

Syfte: Att reflektera över riskerna med kognitiv avlastning och felkalibrerad tillit till AI, baserat på studierna från MIT, Harvard och METR.

Instruktioner:

Diskutera frågorna från den tidigare versionen av övningen i smågrupper.

Ny Avslutande Uppgift: Baserat på er diskussion, formulera en personlig eller en grupp-policy med 3-5 konkreta regler för hur ni kan använda AI-verktyg för att undvika kognitiv skuld och automationsbias i era studier. Exempel: "Regel 1: För varje AI-genererat svar måste jag först försöka formulera ett eget svar i punktform." eller "Regel 2: Jag får aldrig acceptera en siffra eller ett faktoid från en AI utan att verifiera det med en primärkälla."


Övning 4: Kognitiv Skuld, Bias & Expertis

Syfte: Att reflektera över riskerna med kognitiv avlastning och felkalibrerad tillit till AI, baserat på studierna från MIT, Harvard och METR.

Instruktioner:

Diskutera följande frågor i smågrupper, baserat på vad ni läst i kapitlet.

  1. Kognitiv Skuld (MIT-studien):

    • Beskriv en situation där du själv har känt av "Google-effekten" – att du glömt information för att du vet att den är lätt att hitta.
    • Hur tror ni att risken för "kognitiv skuld" kan påverka er förmåga att lära er nya, svåra ämnen på djupet?
    • Vilka strategier kan ni använda för att dra nytta av AI som ett verktyg utan att hamna i en kognitiv skuld? (Tänk på snickaren som kan använda både el-såg och handsåg).
  2. Automationsbias (Harvard-studien):

    • Studien visade att konsulter med AI presterade sämre på en kreativ uppgift. Varför tror ni att det blev så?
    • Förklara "automationsbias" med egna ord. Ge ett exempel på när du själv har litat för mycket på ett verktyg (en miniräknare, GPS, autokorrigering) och det har lett till problem.
  3. Långsammare Experter (METR-studien):

    • Varför tror ni att erfarna programmerare blev långsammare när de använde AI?
    • Programmerarna trodde att AI hade sparat dem tid, trots att mätningarna visade motsatsen. Vad säger detta om vår förmåga att bedöma nya verktyg objektivt?
    • När är det, enligt er, bäst att inte använda ett AI-verktyg, även om det verkar perfekt för uppgiften?

Övning 6: Verkstad - Bygg din AI-utvecklingsmiljö

Syfte: Att installera och konfigurera de grundläggande verktyg som krävs för att kunna arbeta med och programmera AI-modeller. Denna verktygslåda är standard för utvecklare och kommer att vara avgörande för de praktiska programmeringsövningarna senare i boken.

Instruktioner:

Följ stegen nedan noggrant. Denna övning är teknisk och det är viktigt att varje del blir rätt. Arbeta gärna i par så att ni kan hjälpa varandra.

Steg 1: Git & GitHub – Grunden för all kod

Git är ett system för att spåra ändringar i kod, och GitHub är en webbplats där du kan lagra och dela din kod med andra. Detta är branschstandard.

  • Skapa ett GitHub-konto: Gå till GitHub.com och skapa ett gratis personligt konto. Välj ett professionellt användarnamn.
  • Installera Git: Gå till git-scm.com och ladda ner och installera Git för ditt operativsystem (Windows, Mac eller Linux). Acceptera standardinställningarna under installationen.
  • Gå med i GitHub Education Gå till GitHub Education och verifiera ditt GitHub konto. För att detta ska fungera behöver du lägga till din @edu.umea.se mail till ditt GitHub konto som en kopplad mailaddress. Det kan du göra på kontoinställningar.

Steg 2: Python – Språket för AI

Python är det överlägset mest populära programmeringsspråket för AI och dataanalys.

Viktigt för Windows-användare!

Under installationen, se till att du kryssar i rutan där det står "Add Python [version] to PATH". Detta är avgörande för att du ska kunna köra Python från din terminal.

Steg 3: Visual Studio Code – Din texteditor

Visual Studio Code (VS Code) är en gratis och extremt kraftfull texteditor där du kommer att skriva all din kod.

  • Installera VS Code: Ladda ner och installera från code.visualstudio.com.
  • Installera tillägg: Öppna VS Code. Gå till "Extensions"-vyn (ikonen med fyra rutor i vänsterpanelen) och sök efter och installera det officiella Python-tillägget från Microsoft. Detta ger dig superkrafter när du skriver Python-kod.

Steg 4: Quarto – För snygga rapporter och presentationer

Quarto är ett verktyg som låter dig kombinera kod, text och diagram för att skapa dokument och presentationer.

Steg 5: Anslut till Google AI (Gemini)

Nu kopplar vi ihop din dator med en kraftfull AI-modell från Google. Detta kräver en API-nyckel (ett personligt lösenord) och två olika verktyg: ett bibliotek för att programmera i Python, och ett kommandoradsverktyg (CLI) för att snabbt testa saker i terminalen.

  1. Hämta din API-nyckel:

    • Gå till aistudio.google.com och logga in med ditt Google-konto.
    • Klicka på knappen "Get API key" och sedan "Create API key in new project". Kopiera den långa teckensträngen som dyker upp.
    Behandla din API-nyckel som ett lösenord!

    Dela aldrig din API-nyckel med någon. Om den läcker ut kan andra använda den på din bekostnad. Spara den på ett säkert ställe.

  2. Konfigurera API-nyckeln på din dator:

    • För att din dator ska hitta din API-nyckel utan att du behöver klistra in den i din kod (vilket är en säkerhetsrisk), måste du sätta en "miljövariabel".
    • Instruktioner: Sök online på "how to set environment variable windows 11" (för Windows) eller "how to set environment variable macos" (för Mac).
    • Variabelns namn ska vara: GEMINI_API_KEY
    • Variabelns värde ska vara: [din-inklistrade-api-nyckel]
  3. Installera Python-biblioteket (för programmering):

    • Öppna din terminal och skriv följande kommando. Detta installerar biblioteket du kommer använda för att skriva Python-kod som pratar med Gemini.
      pip install google-genai
  4. Installera Kommandoradsverktyget (för testning):

    • Installera Node.js: Gemini CLI kräver Node.js. Gå till nodejs.org och ladda ner och installera LTS-versionen ("Long-Term Support").
    • Installera Gemini CLI: Öppna en ny terminalfönster och skriv följande kommando:
      npm install -g @google/gemini-cli

Steg 6: Verifiera allt med två mini-projekt

Nu testar vi att båda delarna av installationen fungerar: först kommandoradsverktyget (CLI), sedan Python-biblioteket.

Del A: Verifiera CLI med en Quarto-presentation

  1. Skapa och gå in i en projektmapp: Skriv följande kommandon i din terminal.
    mkdir min-presentation
    cd min-presentation
  2. Starta Gemini: Kör kommandot gemini. Din terminal ska nu visa en >-prompt.
    gemini
  3. Ge Gemini en uppgift: Klistra in följande prompt, men byt ut texten inom [ ] mot ett ämne du själv är passionerad över. Tryck sedan Enter.
    Skapa en Quarto-presentationsfil som heter presentation.qmd om [ett ämne du brinner för].
    Presentationen ska ha en titelsida, en introduktion och tre huvudsakliga slides med stödord.
  4. Rendera presentationen: Gemini kommer nu att skapa en fil som heter presentation.qmd. Rendera den med detta kommando:
    quarto render presentation.qmd --to revealjs
  5. Se resultatet! En fil som heter presentation.html har nu skapats. Öppna den i din webbläsare.

Del B: Verifiera Python-biblioteket med ett skript

Nu bekräftar vi att du kan anropa AI:n från din egen kod.

  1. Öppna mappen i VS Code: Se till att du fortfarande står i mappen min-presentation i din terminal. Skriv följande kommando och tryck Enter:
    code .
    Detta öppnar hela mappen i VS Code.
  2. Skapa en Python-fil: I VS Code, skapa en ny fil och döp den till test_ai.py.
  3. Klistra in koden: Klistra in följande kod i din test_ai.py-fil.
    from google import genai

    # The client gets the API key from the environment variable `GEMINI_API_KEY`.
    client = genai.Client()

    response = client.models.generate_content(
    model="gemini-2.5-flash", contents="Explain how AI works in a few words"
    )
    print(response.text)
  4. Kör skriptet: Gå tillbaka till din terminal (du kan också öppna en terminal direkt i VS Code via View > Terminal). Kör ditt skript med kommandot:
    python test_ai.py
  5. Se resultatet! Om allt fungerar korrekt kommer terminalen att skriva ut en AI-genererad haiku.

Grattis! Du har nu en duglig utvecklingsmiljö installerad på din dator, och du har verifierat att du kan interagera med en AI både via terminalen och via din egen Python-kod. Du är redo att börja bygga med AI!


Rekommenderad Läsning & Reflektion

Läs om de tre studierna som nämns i kapitlet och diskutera hur de kopplar till era egna erfarenheter och övningarna ovan.

  1. Bok: The Age of Surveillance Capitalism av Shoshana Zuboff.
    • Diskutera: Zuboff beskriver en ny form av kapitalism. Hur kan ni se spår av detta i de digitala tjänster ni använder dagligen? Analysera en specifik tjänst (t.ex. TikToks "For You"-sida, YouTubes rekommendationer) och hur den använder data för att påverka er.
  2. Studie 1 (Kognitiv Skuld): "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task" (MIT).
    • Diskutera: Studien visar att de som använde LLM hade sämre minne av sin egen text. Varför är det problematiskt? Vad betyder "ägarskap" över en text eller en idé?
  3. Studie 2 (Automationsbias): "Navigating the Jagged Technological Frontier" (Harvard/BCG).
    • Diskutera: Konsulterna med AI presterade sämre på kreativa uppgifter. Vad säger det om att använda AI som ett bollplank för helt nya idéer jämfört med att använda det för att sammanfatta känd information?
  4. Studie 3 (Långsammare Experter): "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity" (METR).
    • Diskutera: Programmerarna trodde att AI gjorde dem snabbare, trots att mätdata visade motsatsen. Vad säger detta om vår förmåga att bedöma nya verktyg objektivt? Hur kan man undvika denna "automationsbias"?