AI bevidsthed

Sløver AI vores bevidsthed?

Der er risiko for, at AI sløver vores bevidsthed og dermed udvikling, for det gør vores liv for bekvemt. Vi risikerer at glemme at udfordre os selv, så vore kognitive evner risikerer at forfalde.

AI byder på enorme muligheder, …

AI bringer enorme muligheder for at øge vores effektivitet og produktivitet, fordi det bl.a. kan overtage de repetitive eller uinspirerende opgaver i vores hverdag og arbejdsliv. Dermed kan det frigøre tid og energi hos os til f.eks. innovation. Og derfor benytter vi AI stadig mere.

Men det narrativ er ikke nødvendigvis så enkelt i praksis. Der er risiko for, at AI gør vores liv så bekvemme, at vi over-bruger det, så vi gradvist mister vores bevidsthed og evne til kritisk tænkning. Hjernen er en muskel, der skal udfordres for at forblive stærk.

… men kommer med risiko for tab af vores bevidsthed, …

Fænomenet er dybt i os og har været kendt længe. Allerede i antikken kritiserede Sokrates f.eks. skriftens udbredelse i dialogen “Faidros”. Han mente, at sproget ville svække menneskets hukommelse og indre visdom. Det var dog først i slutningen af 1980erne, at man inden for kognitionspsykologi begyndte systematisk at undersøge ekstern hukommelse og brugen af teknologi. I løbet af 2000erne førte det til etablering af begrebet Cognitive Offloading.

I 2020 konkluderede et studie, at vaneforbrug af GPS nedsætter vores generelle bevidsthed om, hvor vi er henne. Vores spatiale hukommelse og bevidsthed fordufter. Problemet forværres af, at vi ikke bemærker, at vores evne forsvinder. Vi tror tværtimod, at vi forbliver bevidste.

… der er forudsætningen for kritisk tænkning og dermed udvikling

Jo mere AI således forbedrer vores effektivitet og kreativitet, jo mere risikerer vores hjerne og kognitive evner at forfalde, uden at vi vil erkende det. En hjerne er en muskel, der bliver svagere, jo mindre den belastes og således udvikles. Patologisk kan man ligefrem se strukturelle og funktionelle vævs- og celleforandringer i hjernen. Den bagerste hippocampus bliver mindre, ligesom man ser det hos patienter med  Alzheimers.

Jo mere vi således bruger AI til at overtage de trivielle og repetitive opgaver i vores hverdag og arbejde, jo mere stiger risikoen for Cognitive Offloading. Vi forlader os alt for nemt på ukritisk brug af AI. Det gør vi, selvom vi ved, at svar fra AI produkter som LLMere indimellem er forkerte eller misvisende.

Sprogmodellerne er især en risiko, …

En undersøgelse fra BBC i februar i år viste f.eks., at halvdelen af svarene fra ChatGPT, Gemini osv. indeholdt “significant issues of some form”

Problemet bliver ofte særlig stort, når man indgår i en længere dialogtråd med en LLM. Her kan der nemt opstå et “model collapse”, der betyder, at modellens grundlag for svar bliver for tyndt. Samtalens udfaldsrum indsnævres så meget, at modellen begynder at hallucinere fakta, som den syntetiserer til svar. AI LLMere er konstrueret, så de (næsten) aldrig medgiver, hvis der er noget, som de ikke har tilpas empirisk grundlag til at svare retvisende på.

I udlandet har det bl.a. ført til eksempler på forkerte arrestationer og domme fordi Politi og lokale domstole i flere tilfælde har forladt sig ukritisk på brugen af software til ansigtsgenkendelser, for at øge deres egen effektivitet. Vi er dog uskyldige, indtil det modsatte er bevist.

… fordi de er så bekvemme at benytte

AIs styrke er bl.a., at det er velformuleret og hyperpersonaliseret. Over de sidste 30 år har vi set det blive opbygget via predictive algorithms i søgemaskiner og webshops. AI vil forstærke den udvikling stadig hurtigere. Det ser vi i dag bl.a. illustreret ved Algorithmic complacency. Vi accepterer ofte at se de videoer, som YouTube eller andre sociale medier foreslår at vise os. Det gør vi i stedet for aktivt at tage stilling til, hvad vi ønsker at se. Vores initiativ til videns- og underholdssøgning forsvinder således, fordi det er det mest bekvemmelige for os.

Vores brug af AI stiger stadig mere. For eksempel viste en undersøgelse I The Guardian I år, at 92% after studerende har taget AI til sig i et så eksplosivt tempo, at eksaminatorer bør “stress-teste” eksamenssvar. Tilsvarende udtalte Satya Nadella for nylig, at mellem 20% og 30% af Microsofts koder allerede i dag er skrevet af AI. Microsoft forventer at det tal vil være 95% inden 2030.

Det giver risiko for tab af fakta og virkelighedsforståelse. I hvert fald nogle steder

Problemerne kan forværres selvforstærkende. En undersøgelse af Amazon Web Services fra i år anslog f.eks., at op mod 57% af ny information på internettet er skabt af AI selv. Dermed er der risiko for en forvitringsspiral, fordi internettets fakta basis forsvinder. Der kan opstå selvforstærkende hallucinerede synteser samtidig med at vi mister evnen til kritisk tænkning.

Det er dog vigtigt at huske, at både internettet og AI er kommet for at blive. Distribueret viden har siden oplysningstiden i slutningen af 1700-tallet været en meget væsentlig årsag til vores innovations- og velfærdsboom. Men ukritisk brug af AI kan føre til selvdestruktive feedback loops.

AI er ikke vidensbanker, de er statistiske modeller for vidensbanker.

Relaterede indlæg

Kan AI forudsige os, og kan det manipulere os?

Hvis AI kan lære os så godt at kende, at det kan hyperpersonalisere sin kommunikation,...

Står geotermisk energi over for et gennembrud

Geotermisk energi har for nylig set store gennembrud, der mangedobler dets rolle i fremtidig klimavenlig...

Udfordrer AI den grundlæggende tillid?

“Udfordrer AI den grundlæggende tillid?” var titlen for min artikel til Finans/Invest 3/2025. Resumé teksten...

De amerikanske politikere er uenige om stablecoins

De amerikanske politikere er uenige om stablecoins, fordi det kan blive værktøjet til deregulering af...

De amerikanske storbanker satser på stablecoins

De amerikanske storbanker satser markant på stablecoins, der kan give en teknologisk effektiv infrastruktur. Den...

Er USAs handelskrige på vej til landbrugsprodukter? – del 2

USAs handelskrige fokuserer foreløbig på lande. Her er forhandlingspositionerne uklare, fordi der typisk er mange...