AI learning from AI

Lærer AI fra data, som AI selv har skabt?

Hvis AI lærer fra data, som AI selv har skabt, kan der opstå risiko for spiraler af selvforstærkende misinformation. Det er således relevant at overveje, om vi kan sikre den demokratiske diskurs i en AI tidsalder. For stadig flere mennesker får deres nyhedsfeeds via sociale medier på nettet. Det påvirker deres virkelighedsfortolkning. Stadig flere brugere på sociale medier er syntetiske AI bots. Deres mål er ofte kommercielt til at markedsføre bestemte produkter eller at sikre, at brugerne på sociale medier forbliver engagerede. Men AI bots har også et enormt politiske potentiale.

Dette er andet indlæg i trilogien om, hvordan AI kan påvirke vore virkelighedsopfattelser. Indlægget handler om, at AI ofte lærer fra data, som AI selv har skabt. Det første indlæg handlede om, at hvis AI kan lære os så godt at kende, at det kan hyperpersonalisere sin kommunikation, kan det så også forudsige os og dermed manipulere os? Det sidste indlæg handler om det grundlæggende dilemma om, hvad der overhovedet er virkeligt. Har mennesker f.eks. fri vilje, eller er virkeligheden grundlæggende deterministisk?

Økonomisk vækst bygger på demokratiseret viden

Siden oplysningstiden i 1700-tallet har mennesker øget vores innovation ved at demokratisere og distribuere vor viden. Det har muliggjort den specialisering og samarbejde, der i dag regnes som den væsentligste årsag til vores økonomiske vækst og velstandsniveau.

AI vil på mange måder vende dén decentralisering af viden i løbet af en ultrakort årrække. For mens en Google søgning f.eks. viser flere tusinde relevante links til et spørgsmål, sammenfatter LLMere som ChatGPT indholdet af alle disse links til ét svar. Det er bekvemt for brugeren. Men det giver også risiko for, at enkelheden får brugeren til at opfatte svaret som sandheden. Brugeren risikerer således langsomt at suspendere dele af sin kritiske tænkning. Kritisk tænkning er en generel forudsætning for udvikling, herunder kognitiv udvikling.


AI kan vende dén forudsætning på hovedet, dels fordi det bliver sandhedsfilter, …

LLMere skaber deres svar ved at anvende chain-of-thought reasoning på store datagrundlag. Og deres ræsonnementsmønstre er samtidig udledt fra træning på store datagrundlag. Derfor er det afgørende, hvilke data (virkelighed) de får stillet til rådighed. AI bliver kun så redeligt, som den virkelighed vi lader det lære fra. Ligesom hos mennesker.

Ind til 2024 var AI udbyderne forpligtede til kildevalidering, at vægte efterprøvede kilder højere samt at indføre audit mekanismer for AI. Desuden skulle de sikre, at der var (en vis) transparens for, hvordan AI modellerne justerede for bias og traf beslutninger.

… og dels fordi AI trænes på stadigt ringere datakvalitet

Men effektiviteten af AI algoritmer stiger generelt jo større datamængder, som de lærer fra. Hér mener AI udbyderne, at man har nået grænsen for, hvor mange data der er efterprøvede, fuldstændige eller afbalancerede. Siden starten af 2025 vil de store hyperscalers og LLM udbydere derfor bruge alle deres brugerdata som træningsgrundlag for deres AI modeller. 

I praksis betyder det, at Meta f.eks. træner deres AI på data fra Instagram, Facebook og WhatsApp, og at Amazon træner på cloud data fra Amazon Web Services. Disse data er i bedste fald udtryk for befolkningernes gennemsnitlige fortolkninger af fakta. De repræsenterer ikke egentlige fakta eller nødvendigvis dét, som er efterstræbelsesværdigt.

Derfor er det bl.a. relevant at overveje kvaliteten af disse data og herunder, hvem der har skabt disse. For mange af disse data er skabt eller fremhævet af AI selv.

Men desuden føder AI måske sig selv med data

Én af de personer, der længe har interesseret sig mest for, hvordan data på nettet opstår, er professor i Informatik ved Indiana University, Filippo Menczer. Menczers forskning har især fokuseret på, hvordan vi kan beskytte grundlaget for demokratiet, den demokratiske diskurs. Der er to centrale områder for Menczers forskning:

AI risikerer således at lære fra AI bots, der kan være politisk motiverede

For nogle år siden opstod en hypotese kendt som “dead internet”. Hypotesen har fået meget opmærksomhed og påstår, at næsten alle samtaler på nettet er AI genererede fra chatbots. Hypotesen er udokumenteret og bør derfor tolkes varsomt. Men ifølge Fil Menczer er det underliggende budskab dog meget seriøst: Der er en reel risiko for, at det kan blive virkelighed, medmindre Big Tech selskaberne aktivt forebygger det. Fil Menczer er derfor “very worried”.

Risikoen stiger, fordi AI er centralt for bl.a. USAs strategi

Dén opgave er dog ikke ligetil for AI udbyderne. Blandt andet giver amerikansk lovgivning samme rettigheder til juridiske enheder, f.eks. selskaber, som det giver til fysiske personer. Det betyder, at en AI agent i princippet har samme rettigheder, herunder ytringsfrihed, som en stemmeberettiget vælger. Juridisk er det således kompliceret at forebygge “dead internet”.

Men vigtigere endnu er AI centralt for USAs ambition om, at (gen)skabe sin globalt centrale førerrolle, dets geopolitiske krumtap. Ved dette års AI Action Summit I februar udtalte JD Vance således: “The AI race is not going to be won by hand wringing about safety”. Dén udtalelse blev fulgt i juli måned, da USA udgav sin AI Action Plan (AAP).

USA er klar over risikoen, men vægter AI kapløbet meget højt

AAP skal bl.a. sikre en øget AI udvikling ved at afskaffe (næsten) alle regler, der kan bremse AI udviklingen herunder sikkerhedshensyn. Det hvide hus er dog klar over risikoen, og nævner i indledningen specifikt, at “our AI systems must be free from ideological bias and be designed to pursue objective truth rather than social engineering agendas when users seek factual information or analysis. AI systems are becoming essential tools, profoundly shaping how Americans consume information, but these tools must also be trustworthy.”

Det Hvide Hus er således klar over, at det står med et tveægget sværd, hvor balancegangen i praksis nemt kan blive selvmodsigende. Hvad vægter de højest?

Derfor er det stadig vigtigere, at tilgå AL information med skepsis og kritik

AI kommer således til at definere vores beskrivelse af nutiden og af fortiden. I romanen “1984” skrev George Orwell i 1949 bl.a.: “Who controls the past controls the future. Who controls the present controls the past”.

Fremover bliver det således ekstra vigtigt, at vi forholder os kritisk til svar fra LLMere. AI er ikke vidensbanker, de er statistiske modeller for vidensbanker.

Relaterede indlæg

Kan AI forudsige os, og kan det manipulere os?

Hvis AI kan lære os så godt at kende, at det kan hyperpersonalisere sin kommunikation,...

Står geotermisk energi over for et gennembrud

Geotermisk energi har for nylig set store gennembrud, der mangedobler dets rolle i fremtidig klimavenlig...

Udfordrer AI den grundlæggende tillid?

“Udfordrer AI den grundlæggende tillid?” var titlen for min artikel til Finans/Invest 3/2025. Resumé teksten...

De amerikanske politikere er uenige om stablecoins

De amerikanske politikere er uenige om stablecoins, fordi det kan blive værktøjet til deregulering af...

De amerikanske storbanker satser på stablecoins

De amerikanske storbanker satser markant på stablecoins, der kan give en teknologisk effektiv infrastruktur. Den...

Sløver AI vores bevidsthed?

Der er risiko for, at AI sløver vores bevidsthed og dermed udvikling, for det gør...