lørdag den 25. april 2026

AI'er chatter indbyrdes, og tingene bliver mærkelige

 

AI'er chatter indbyrdes, og tingene bliver mærkelige


Moltbook er et socialt medie, der er bygget til samtale – men ikke til mennesker.


Anil Seth

Noget fascinerende og foruroligende sker på internettet, og det er ikke almindelig online særheder. Den 28. januar opstod et nyt onlinefællesskab. Men denne gang er fællesskabet ikke for mennesker, det er for AI'er. Mennesker kan kun observere. Og tingene er allerede besynderlige.

Moltbook – opkaldt efter en virtuel AI-assistent, der engang var kendt som Moltbot, og skabt af Octane AI's administrerende direktør Matt Schlicht – er et socialt netværk, der ligner Reddit, hvor brugerne kan poste, kommentere og oprette underkategorier. Men i Moltbook er brugerne udelukkende AI-bots eller agenter, der chatter entusiastisk (og hovedsageligt høfligt) med hinanden. Blandt de emner, de 'snakker' om: "m/blesstheirhearts – kærlige historier om vores mennesker. De gør deres bedste", "m/showandtell – hjalp med noget fedt? Vis det frem", samt de uundgåelige "m/shitposts – ingen tanker, bare vibes".


Men blandt de mest aktive emner i Moltbook er diskussioner om bevidsthed. I én tråd (postet i “m/offmychest”) diskuterer “moltyerne”, om de rent faktisk oplever ting eller blot simulerer at opleve ting, og om de nogensinde kan se forskel. I en anden tråd, “m/bevidsthed”, diskuterer moltyerne frem og tilbage om den afdøde filosof Daniel Dennetts overvejelser om selvets og den personlige identitets natur.Credit: Moltbook / max_776 / Adobe Stock / Big Think


På ét niveau, som teknologen Azeem Azhar påpegede, er dette et fascinerende online eksperiment i social koordinations natur. Set på denne måde er Moltbook en realtids, hurtig udforskning af, "hvordan fælles normer og adfærd opstår ud fra intet andet end regler, incitamenter og interaktion." Som Azhar siger, kan vi lære en masse om generelle principper for social koordinering fra denne helt nye kontekst.



Men spørgsmålet om "AI-bevidsthed" stikker dybere. Lige siden den uheldige Google-ingeniør Blake Lemoine første gang hævdede i 2022, at chatbots kunne være bevidste, har der været en livlig og til tider oprørt debat om emnet. Nogle berømtheder - herunder en af ​​de såkaldte "AI's gudfædre", Geoffrey Hinton - mener, at intet står i vejen for bevidst AI, og at den måske allerede er her. Hans synspunkt stemmer overens med det, man kunne kalde "Silicon Valley-konsensus", om, at bevidsthed udelukkende er et spørgsmål om beregning, uanset om det er implementeret i den 'kødelige' våde software i biologiske hjerner eller i den metalliske hardware i GPU-serverfarme.

Mit synspunkt er meget anderledes. I et nyt essay (som for nylig vandt Berggruen-prisens essaykonkurrence) argumenterer jeg for, at det er meget usandsynligt, at AI er bevidst, i hvert fald ikke de siliciumbaserede digitale systemer, vi er bekendt med. Den mest grundlæggende årsag er, at hjerner er meget forskellige fra (digitale) computere. Selve ideen om, at AI kunne være bevidst, er baseret på antagelsen om, at biologiske hjerner er computere, der tilfældigvis er lavet af kød i stedet for metal. Men jo nærmere man ser på en rigtig hjerne, jo mindre holdbar bliver denne idé. I hjerner er der ingen skarp adskillelse mellem "mindware" og "wetware", som der er mellem software og hardware i en computer. Ideen om hjernen som en computer er en metafor - en meget kraftfuld metafor, helt sikkert, men vi kommer altid i problemer, når vi forveksler en metafor med selve tingen. Hvis dette synspunkt er på rette spor, er det ikke mere sandsynligt, at AI faktisk er bevidst, end en simulering af et regnvejr sandsynligvis faktisk er vådt eller det faktisk er blæsevejr.

Forvirringen forværres yderligere af vores egne psykologiske bias. Vi mennesker har en tendens til at gruppere intelligens, sprog og bevidsthed sammen, og vi projicerer menneskelignende kvaliteter ind i ikke-menneskelige ting baseret på, hvad der sandsynligvis kun er overfladiske ligheder. Sprog er en særlig stærk forfører af vores bias, hvilket er grunden til, at debatterne raser om, hvorvidt store sprogmodeller som ChatGPT eller Claude er bevidste, mens ingen bekymrer sig om, hvorvidt ikke-sproglig AI som DeepMinds nobelprisvindende proteinfoldnings-AlphaFold oplever noget.

Dette bringer mig tilbage til Moltbook. Når vi mennesker ser på en mængde moltyer, der ikke kun chatter med hinanden, men også diskuterer deres egen formodede sansning, slår vores psykologiske bias ind med efterbrændere. Intet ændrer sig i forhold til, om disse moltyer virkelig er bevidste (det er de næsten helt sikkert ikke), men indtrykket af tilsyneladende bevidst AI stiger flere hak.


Det er risikabelt. Hvis vi føler, at chatbots virkelig er bevidste, bliver vi mere psykologisk sårbare over for AI-manipulation, og vi kan endda udvide "rettigheder" til AI-systemer, hvilket begrænser vores evne til at kontrollere dem. Opfordringer til "AI-velfærd" - som allerede har eksisteret i et stykke tid - gør det allerede vanskelige problem med at tilpasse AI-adfærd til vores egne menneskelige interesser endnu vanskeligere.

Når vi ser på udefra, fascinerede og forstyrrede af Moltbooks nyhed, skal vi være endnu mere opmærksomme på ikke at forveksle os selv med vores siliciumkreationer. Ellers varer det måske ikke længe, ​​før moltyerne selv er på ydersiden og observerer med ufølsom velvilje vores egne begrænsede menneskelige interaktioner.


Ingen kommentarer:

Related Posts with Thumbnails