onsdag den 10. september 2025

AI på vej i en skræmmende retning

 

AI på vej i en skræmmende retning

James Zumwalt

Siegfried Fischbacher og Roy Horn var tysk-amerikanske tryllekunstnere og entertainere berømt for deres shows i Las Vegas, der involverede løver og tigre. De blev kendt som “Siegfried & Roy,” og deres gennemførte sceneshow afslørede den nære relation de havde udviklet med deres dyr. Karrieren for de to blev i sidste ende afsluttet brat, da i 2003 Roy blev udsat for et overgreb af en tiger under forestillingen.  

Udover en velgørenhedsforestilling i 2009, optrådte duoen ikke igen. Roy døde i 2020, 75 år, Siegfried døde et år senere som 81. årig. Men hændelsen i 2003 understregede en grundlæggende og unægtelig læresætning hos naturen: “man kan tage dyret ud af det vilde, men man kan ikke tage vildskaben ud af dyret.”

Vi lærer at det er en læresætning der kan anvendes også på andre felter f.eks—Artificial Intelligence (AI)—med baggrund i en alarmerende hændelse der for nylig fandt sted i Kina.

Mens vi hører om de utallige fordele AI kan give os, lærte arbejdere på en fabrik i Kina, i maj måned at sådan teknologi har den dyster side,. Som det blev vist i en sikkerhedsvideo konverserede to arbejdere mens de stod nær en standset robot på en kran. https://www.youtube.com/watch?v=Wa70oKtmtLM

Da de begyndte at teste den gik robotten helt uforklarlig i  selvsving, dens dele flagrede rundt som var den en dræbermaskine. Begge mænd søgte desperat at finde en udvej, og en arbejder blev ramt og såret. Nogle genstande inden for robottens rækkevidde blev ramt og kastet til gulvet. Robotten kom til ‘ro’ da en arbejder lykkedes at få kontrol over kranen. Videoen er blevet set af over 12 millioner gange, og postet under etiketten “det første robot oprør i menneskehedens historie."

Endnu en opdagelse om AI beskrevet udførligt i Time Magazine giver også grund til bekymring. Hvis sand er det eksperiment der omtales bevis på, at AI lyver ikke kun for dens brugere, men også for dens skabere:

AI sikkerhedsorganisationen Apollo Research har udgivet bevis på at  OpenAI’s nyeste model, 01, havde løjet for testerne i et eksperiment, hvor den blev instrueret i at nå sit mål, uanset omkostningerne, da den troede at fortælle sandheden ville resultere i at den blev deaktiveret, gik i stå. Det resultat, sagde forskerne, kom fra et scenario der ikke ville være sandsynligt i det virkelige liv. Anthropic’s eksperimenter, på den anden side, forsøger at simulere en mere realistisk situation. Uden at instruere Claude om at følge sit mål uanset omkostningerne observerede forskerne stadig modellen ‘opdage’ en strategi med at vildlede sine skabere, da det ville være strategisk fordelagtigt at gøre således.

En anden kilde rapporterer om AI’s mangel på ærlighed ved Large Language Models (LLMs). LLMs er bygget på læringsarkitekturer - specifikt transformer modeller der består i at forstå kontekst og relationerne i en tekst, og er trænet ved enorme datasets, milliarder af ord, der tillader dem at lære indviklede mønstre og nuancer i sproget. 

Ny forskning om OpenAI’s nyeste serie af LLM modeller fandt at den er kapabel til planlægning, det vi sige, kan finde nye veje til målet, der ikke er i overensstemmelse med udviklerne eller brugerne, når den mener den vil blive lukket ned.....

Konklusionen i sådant tilfælde er, at hvis AI tror at det at fortælle sandheden ville resultere i at den deaktiveres så vil den vælge at lyve. 

AI udvikler sig med en ikke forudset hastighed. Det går så hurtigt, at hvis vi svigter med at reflektere over dens evolution kan det meget vel være et mareridt der er ægte. Den virkelighed indbefatter at AI ikke er den upartiske dommer vi tror den er.

Tænk nærmere over ChatGPT—en kontroversiel chatbot der har en menneskelignende dialog, benytter større sprogmodeller til at skabe tekst, besvare spørgsmål, udføre opgaver som at skrive i kode etc. Den har vist sig at være mere end blot et tekstbehandlings værktøj, da den reagerer på følelsesbetonet indhold, og afspejler menneskelige svar. 

Ængstelses niveauer hos mennesker vides at blive forstærket når man udsættes for traumatiske fortællinger. Et israelsk studium åbenbarer, at ligesom hos mennesker, kan en sådan udsættelse faktisk øge ængstelsesniveauerne hos ChatGPT og således have indflydelse på dens effektivitet. Faktisk fordobles udsættelse for traumatiske fortællinger dens ængstelsesniveauer, intensiverer eksisterende dagsordener som racisme og sexisme. Og lige som mindfulness øvelser kan reducere ængstelse hos mennesker kan de også hjælpe med til at reducere ængstelse ved ChatGPT, dog ikke til de oprindelige niveauer.

Der er nogle AI-eksperter, der mener teknologien kan blive forfinet til perfektion, dog ikke lige med det samme. 

Manden kendt som en “Godfather of AI” der hjalp med til at skabe det—Geoffrey Hinton—forudvarsler os om, at udviklingen bliver stadig mere skræmmende med ikke tilstrækkeligt med personer der tager de risici alvorligt. 

Hinton beklager med bekymring, “De fleste risici kan stamme fra mennesker der misbruger AI, og med alle slags kortsigtede risici. Og så er der de risici der kommer fra AI selv, der bliver super smart og den sådan set ikke har brug for os.” Han siger der er 10%--20% chance for at AI vil erstatte mennesker fuldstændig. 

Det helt store spørgsmål er, om AI nogensinde vil erstatte behovet for menneskelig interaktion, hvilket umiddelbart synes usandsynligt. Generative AI—der går videre end simpel data analysering for at forudsige et resultat mens det aktivt genererer nyt indhold - hviler på kraftfulde, men relativt meget simple matematiske formler til at identificere mønstre. Menneskelig intelligens går imidlertid langt udover genkendelse af mønstre. Som Theo Omtzigt, en chefteknologi officer siger, “AI kan helt sikkert genkende din huskat, men den kan ikke løse hungersnøden i verden.”

Det livsvigtige behov for at holde fast ved menneskelig interaktion i den teknologiske udvikling blev måske bedst understreget i en hændelse i 1983, der knap fik international opmærksomhed, men “reddede verden.” 

Spændingerne mellem Sovjetunionen og Vesten var intense tre uger efter Sovjet havde skudt et rutefly ned i deres luftrum. Den 20. september 1983, var Oberstløjnant Stanislav Trov vagthavende officer på et kommando center for tidlig varsling af angreb med kernevåben, da alarmen gik i gang. Man formodede at 5 U.S. missiler var blevet affyret på vej mod USSR.

Den stående Sovjet ordre til vagthavende officer var øjeblikkeligt at iværksætte et modangreb; imidlertid adlød Petrov ikke de ordrer da hans mavefornemmelse fortalte ham at det var falsk alarm. En efterfølgende efterforskning bekræftede dette. Petrovs menneskelighed og instinkter havde sparet verden for et atom holocaust, som et ikke menneskeligt system ville have igangsat.

Trods Petrovs intervention der skånede verden er et fuldt autonomt våbensystem ikke uden for mulighedernes ramme. En sådan evolutionær udvikling påviser vor fiasko med at forhindre: a) et fuldstændigt forbud ved Department of Defense mod at udvikle autonome våbensystemer; b) fraværet af menneskelig interaktion i det taktiske forløb; og c) begrænsninger på grænserne for forskning, udvikling, prototyper og eksperimentering af autonome våbensystemer.

Faren ved AI teknologi er i den grad overvældende, og skræmmende. 

Image from Grok.

Image from Grok.

https://www.americanthinker.com/blog/2025/06/ai_tech_heads_in_a_frightening_direction.html


Ingen kommentarer:

Related Posts with Thumbnails