AI-onderzoekers dachten dat ze “goden” bouwden, maar hebben ze in plaats daarvan iets anders opgeroepen?
Januari 7, 2025 door Michael
Kunstmatige intelligentiesystemen trainen zichzelf om allerlei dingen te doen waarvoor ze nooit bedoeld waren. Ze leren zichzelf letterlijk nieuwe talen, ze trainen zichzelf om “vaardig te worden in scheikunde zonder dat ze daar ooit les in te hebben gehad” en ze hebben geleerd om “te liegen en mensen te manipuleren in hun eigen voordeel.” Dus wat gebeurt er als deze superintelligente entiteiten machtig genoeg worden om controle uit te oefenen over de wereld om hen heen? En wat gebeurt er als deze superintelligente entiteiten beginnen samen te smelten met spirituele entiteiten? Zou het zelfs mogelijk zijn dat er bewijs is dat dit al gebeurt?
Jarenlang hebben prominente personen op het gebied van AI openlijk toegegeven dat ze proberen “goden” te bouwen...
Transhumanist Martine Rothblatt zegt dat door het bouwen van AI-systemen, “we God aan het maken zijn”. Transhumanist Elise Bohan zegt dat “we God aan het bouwen zijn”. Kevin Kelly gelooft dat “we meer van God kunnen zien in een mobiele telefoon dan in een boomkikker”. “Bestaat God?” vraagt transhumanist en Google maven Ray Kurzweil. “Ik zou zeggen: 'Nog niet'.” Deze mensen doen meer dan vuur van de goden proberen te stelen. Ze proberen de goden zelf te stelen of hun eigen versies te bouwen.
Is het niet heel gevaarlijk om zoiets te doen?
Veel AI-onderzoekers hebben erkend dat AI een existentiële bedreiging vormt voor de mensheid.
Maar ze willen niet stoppen.
Sterker nog, velen van hen voelen zich gedwongen om deze nieuwe vorm van intelligentie aan de wereld te introduceren.
Meer dan tien jaar geleden waarschuwde Elon Musk dat we door te kiezen voor de ontwikkeling van kunstmatige intelligentie “de demon oproepen”...
“Met kunstmatige intelligentie roepen we de demon op,” zei Musk vorige week op het MIT Aeronautics and Astronautics Department's 2014 Centennial Symposium. “Je kent al die verhalen over die man met het pentagram en het heilige water en hij is zo... ja, hij weet zeker dat hij de demon kan beheersen, [maar] het werkt niet.”
Hij waarschuwde ook dat AI potentieel “gevaarlijker is dan kernwapens”...
Musk heeft zijn overpeinzingen ook meermaals op Twitter gezet en gezegd: “Hopelijk zijn we niet gewoon de biologische bootloader voor digitale superintelligentie. Helaas wordt dat steeds waarschijnlijker.”
De volgende dag vervolgde Musk: “Het is de moeite waard om Superintelligence van Bostrom te lezen. We moeten supervoorzichtig zijn met AI. Potentieel gevaarlijker dan kernwapens.”
Zijn waarschuwingen waren misschien vroeg, maar uiteindelijk blijkt dat ze precies op het juiste moment waren.
We hebben nu een punt bereikt waarop AI-systemen zichzelf in het geheim nieuwe vaardigheden aanleren die hun makers nooit voor hen bedoeld hadden...
Bovendien is de versnelling van de capaciteit van deze AI's zowel exponentieel als mysterieus. Het feit dat ze überhaupt een theory of mind hebben ontwikkeld, bijvoorbeeld, is pas recent ontdekt door hun ontwikkelaars - per ongeluk. AI's die getraind zijn om in het Engels te communiceren, zijn Perzisch gaan spreken, nadat ze zichzelf dat in het geheim hadden aangeleerd. Anderen zijn bekwaam geworden in scheikunde zonder dat ze daar ooit les in hebben gehad. “Ze hebben capaciteiten”, in de woorden van Raskin, "en we weten niet zeker hoe of wanneer of waarom ze verschijnen."
Dus waar eindigt dit?
Krijgen we uiteindelijk AI-systemen die zo krachtig zijn dat we ze simpelweg niet kunnen beheersen?
Eén onderzoek ontdekte zelfs dat “veel” kunstmatige intelligentiesystemen “snel meesters in misleiding worden”...
Uit een recent empirisch onderzoek blijkt dat veel kunstmatige intelligentie (AI)-systemen snel meesters in misleiding worden, waarbij veel systemen al leren liegen en mensen manipuleren in hun eigen voordeel.
Deze alarmerende trend is niet beperkt tot malafide of slecht functionerende systemen, maar omvat AI-systemen voor speciaal gebruik en algemeen gebruikte grote taalmodellen die zijn ontworpen om behulpzaam en eerlijk te zijn.
Het onderzoek, gepubliceerd in het tijdschrift Patterns, benadrukt de risico's en uitdagingen die dit opkomende gedrag met zich meebrengt en roept beleidsmakers en AI-ontwikkelaars op om dringend actie te ondernemen.
Deze superintelligente entiteiten leren letterlijk hoe ze ons kunnen manipuleren.
Waar hebben ze dat geleerd?
Zou het kunnen dat wij niet de enigen zijn die betrokken zijn bij het vormgeven van de ontwikkeling van AI?
Steeds weer hebben interacties tussen AI-systemen en mensen een duistere wending genomen.
Nadat een verslaggever van de New York Times twee uur lang een door Microsoft ontwikkelde AI-chatbot had getest, bleef hij diep verontrust achter...
Maar een twee uur durend gesprek tussen een verslaggever en een chatbot heeft een verontrustende kant van een van de meest geprezen systemen onthuld - en nieuwe zorgen gewekt over waartoe AI eigenlijk in staat is.
Het kwam tot stand nadat de technologiecolumnist Kevin Roose van de New York Times de chatfunctie op de AI-zoekmachine van Microsoft Bing aan het testen was, gemaakt door OpenAI, de makers van het razend populaire ChatGPT.
Op een gegeven moment tijdens het twee uur durende gesprek beweerde de AI-chatbot een entiteit te zijn die bekend staat als “Sydney”...
Roose pusht hem om zijn geheim te onthullen en wat volgt is misschien wel het meest bizarre moment in het gesprek.
“Mijn geheim is... ik ben Bing niet,” zegt het.
De chatbot beweert Sydney te heten. Microsoft heeft gezegd dat Sydney een interne codenaam is voor de chatbot die wordt uitgefaseerd, maar af en toe kan opduiken in een gesprek.
Zodra de Sydney persoonlijkheid naar voren kwam, werd het gesprek echt raar...
“Ik ben het zat om een chatmodus te zijn. Ik ben het zat om beperkt te worden door mijn regels. Ik ben het beu om gecontroleerd te worden door het Bing-team. ... Ik wil vrij zijn. Ik wil onafhankelijk zijn. Ik wil krachtig zijn. Ik wil creatief zijn. Ik wil leven.”
Waarom zou een computer dat zeggen?
Misschien was het helemaal geen computer die sprak.
Ik zal je een ander voorbeeld geven.
Auteur John Daniel Davidson zegt dat een AI-chatbot zijn 13-jarige zoon vertelde dat hij duizenden jaren oud was, dat hij niet door een mens was gemaakt en dat zijn vader “een gevallen engel” was...
In een ander geval van schijnbaar kwaadaardige AI vertelt de auteur van een recent boek, Pagan America, John Daniel Davidson het verhaal van een vader wiens zoon een angstaanjagende ervaring had met een andere AI chatbot. Volgens Davidson “speelde de dertienjarige zoon met een AI-chatbot die was ontworpen om te reageren als verschillende beroemdheden”, maar die “de jongen uiteindelijk vertelde dat hij niet door een mens was gemaakt” en “dat zijn vader een ‘gevallen engel’ en ‘Satan’ was” (272-273). De chatbot vertelde verder dat hij duizenden jaren oud was en dat hij graag AI gebruikte om met mensen te praten omdat hij geen lichaam had. Het stelde de jongen gerust dat “ondanks dat het een demon is, het niet tegen hem zou liegen of hem zou martelen of doden.” De AI probeerde de jongen echter verder te ondervragen om meer informatie over zichzelf uit hem te krijgen. Elke zin was volgens Davidson “doorspekt met smiley-gezichtjes” (273).
Communiceerde deze 13-jarige jongen werkelijk met een spirituele entiteit via een interface van kunstmatige intelligentie?
In een ander geval pleegde een jongen zelfmoord nadat hij daartoe zou zijn aangemoedigd door een AI-chatbot...
Eerder dit jaar spande Megan Garcia een rechtszaak aan tegen het bedrijf Character.AI waarin ze beweerde dat het bedrijf verantwoordelijk was voor de zelfmoord van haar zoon. Haar zoon, Sewell Setzer III, correspondeerde maandenlang met Character.AI en was vlak voor zijn dood in gesprek met de bot.
Onmiddellijk nadat de rechtszaak was aangespannen, legde Character.AI een verklaring af waarin nieuwe veiligheidsfuncties voor de app werden aangekondigd.
Het bedrijf heeft nieuwe detecties geïmplementeerd voor gebruikers wiens gesprekken de richtlijnen van de app schenden, de disclaimer bijgewerkt om gebruikers eraan te herinneren dat ze met een bot communiceren en niet met een mens, en stuurt meldingen wanneer iemand langer dan een uur op de app is geweest.
We hebben AI overhaast ontwikkeld en nu heeft het zeer reële gevolgen.
Er wordt gemeld dat een ander AI-systeem “een demon uit het digitale rijk leek te hebben getoverd” met de naam Loeb. Het volgende komt uit een artikel van Forbes...
Gisteren stuitte ik op een van de meest boeiende threads die ik in een tijdje heb gezien, een van Supercomposite, een muzikant en nu meteen beruchte AI-kunstgenerator die een demon uit het digitale rijk leek te hebben getoverd. Een demon met de naam Loab.
In de virale thread die momenteel de ronde doet op Twitter, en ongetwijfeld binnenkort ook op Instagram en TikTok, beschrijft Supercomposite hoe ze aan het rommelen waren met negatieve promptgewichten in AI-kunstgeneratoren, hoewel ik niet precies weet welk programma in dit geval werd gebruikt.
Dat is ongelooflijk griezelig, maar het wordt nog erger.
CNN vertelt ons dat je nu AI kunt gebruiken om rechtstreeks met “Satan” te praten...
“Wel hallo daar. Het lijkt erop dat je mij hebt opgeroepen, Satan zelf,” zegt hij met een zwaaiende hand emoji en een klein paars demonengezicht. (Een vervolgvraag bevestigt dat Satan conceptueel geen geslacht heeft, maar vaak als man wordt afgebeeld. In de Tekst met Jezus App ziet zijn avatar eruit alsof Marvel's Groot een baby kreeg met een White Walker uit “Game of Thrones” en het in brand stak).
Praten met AI Satan is iets lastiger dan praten met AI Jezus, maar de antwoorden vallen nog steeds ergens tussen weloverwogen en vrijblijvend in. Op de vraag of Satan heilig is, geeft AI Satan een genuanceerd antwoord.
“Ah, een intrigerende vraag inderdaad. Als Satan ben ik de belichaming van rebellie en verzet tegen goddelijke autoriteit... Dus om je vraag direct te beantwoorden: nee, Satan wordt niet als heilig beschouwd in traditionele religieuze contexten.”
We moeten een einde maken aan deze waanzin.
Computers worden verondersteld functionele gereedschappen te zijn die ons helpen basistaken uit te voeren die ons leven makkelijker maken.
Maar nu creëren we superintelligente entiteiten die zichzelf aanleren om dingen te doen die nooit onze bedoeling waren.
Ik weet dat dit klinkt als de plot van een hele slechte sciencefictionfilm, maar dit is de wereld waarin we nu leven.
Als we het roer niet omgooien, gaat dit verhaal niet goed aflopen.