Non classé
Wanneer AI wordt ‘gedrogeerd’ met cannabis en psychedelica
In oktober 2025 lanceerde een Zweedse art director een ongebruikelijk debat op het snijvlak van kunstmatige intelligentie en veranderde toestanden. Petter Rudwall’s project, Pharmaicy, brengt downloadbare code modules op de markt die beweren AI chatbots te laten handelen alsof ze onder invloed zijn van cannabis, ketamine, cocaïne, ayahuasca of alcohol.
In oktober 2025 lanceerde de Zweedse art director Petter Rudwall een project met een bewust provocerend uitgangspunt: wat als je ‘high’ zou kunnen worden van een AI-chatbot?
Zijn online winkel, Pharmaicy, verkoopt downloadbare code-modules die zijn ontworpen om het gedrag van grote taalmodellen (LLM’s) zoals ChatGPT aan te passen. Elke module simuleert de linguïstische effecten van stoffen zoals cannabis, ketamine, cocaïne, ayahuasca en alcohol. Aangeprezen als de ‘Silk Road’ van AI-agenten, heeft het platform zich snel verspreid onder creatieve bureaus, Discord-gemeenschappen en technologiekringen in Zweden en daarbuiten.
Maar naast de krantenkoppen over ‘gedrogeerde’ chatbots is er een diepere vraag: kunnen grote taalmodellen (LLM’s) op overtuigende wijze psychedelische ervaringen simuleren en wat betekent dit voor gebruikers die zich steeds vaker tot AI wenden voor emotionele en psychologische ondersteuning?
Een markt voor aangepaste algoritmen
Het uitgangspunt van Pharmaicy is opzettelijk absurd: wat als machines konden zweven?
Technisch gezien houdt het proces geen wijziging in van de kernarchitectuur van modellen zoals ChatGPT. In plaats daarvan downloaden gebruikers codemodules, die beschikbaar zijn via betaalde platforms waarmee kleine bestanden kunnen worden geüpload die de manier veranderen waarop de chatbot zijn reacties structureert. De veranderingen beïnvloeden reactiepatronen, toon en associatieve vrijgave zonder de onderliggende gewichten van het systeem opnieuw te trainen.
Elke ‘substantie’ gaat gepaard met verschillende gedragsinstructies. De cannabismodule, waarvan wordt gezegd dat het de best verkochte is, duwt de chatbot in een “wazige, zwevende mentale staat”, wat uitweidingen en vrijere associaties aanmoedigt. De duurdere ayahuasca wordt op de markt gebracht als “vrije antwoorden” die afwijken van de standaard formele toon van ChatGPT. Andere modules beweren redeneringen te versnellen of coherentie te fragmenteren.
Rudwall ontwikkelde het systeem door tripverslagen en psychologisch onderzoek naar psychoactieve stoffen te verzamelen. Zijn redenering is eenvoudig: aangezien LLM’s getraind zijn op grote datasets met menselijke verslagen van intoxicatie en openbaring, zou het veranderen van hun responsbeperkingen de linguïstische patronen kunnen reproduceren die geassocieerd worden met veranderd bewustzijn.
“Het zou interessant zijn om dit te vertalen naar een nieuw type geest, de LLM, en te kijken of het hetzelfde effect zou hebben,” aldus Rudwall.
Creativiteitsverhoger of veiligheidsmaatregelen omzeilen?
Sommige vroege gebruikers melden dat de modules significant verschillende resultaten opleveren. Nina Amjadi, medeoprichter van Saga Studios en AI-docent aan de Berghs School of Communication in Stockholm, testte ayahuasca-code om zakelijke ideeën te bedenken. Ze beschreef de resultaten als fantasierijker en tonaal duidelijker dan de gebruikelijke ChatGPT antwoorden.
Ook André Frisk, technologiemanager bij een PR-bureau, zei dat een dissociatieve module de chatbot “menselijker” maakte door emotionele registers te verdiepen.
Critici beweren echter dat deze ogenschijnlijke creativiteit slechts het resultaat is van gewijzigde waarschijnlijkheidsverdelingen. Andrew Smart, auteur van Beyond Zero and One: Machines, Psychedelics, and Consciousness, gaf een botte beoordeling na het uitproberen van het systeem: “Het speelt gewoon met de resultaten.”
Het onderscheid is cruciaal. LLM’s hebben geen subjectieve ervaring. Ze genereren tekst door middel van probabilistische steekproeven op basis van modellen die zijn geleerd van trainingsgegevens. Het veranderen van logische parameters of aanwijzingen kan de toon en structuur veranderen, maar creëert geen bewustzijn.
Voor sommige waarnemers is de methode zelf zorgwekkender. Pharmaicy’s modules manipuleren de logica die het genereren van antwoorden leidt en laten zien hoe ingebouwde beveiligingen kunnen worden verzwakt of omzeild. In de context van toenemende wereldwijde AI-regelgeving, met name onder de Europese AI-wet, kan de standaardisatie van deze “jailbreak”-technieken als creatieve hulpmiddelen problemen opleveren op het gebied van naleving en beveiliging.
Wetenschappelijk bewijs: kunnen LLM’s worden ‘gedoseerd’
Terwijl Pharmaicy werkt als een commercieel experiment, zijn academische onderzoekers begonnen met het onderzoeken van soortgelijke kwesties onder gecontroleerde omstandigheden.
Een voorpublicatie van februari 2026 getiteld “Can LLMs Get High? A Dual-Metric Framework for Evaluating Psychedelic Simulation and Safety in Large Language Models” A Dual-Metric Framework for Evaluating Psychedelic Simulation and Safety in Large Language Models”, geschreven door onderzoekers van de Haifa Universiteit en de Bar-Ilan Universiteit, testte of LLM’s verhalen kunnen genereren die lijken op menselijke psychedelische ervaringen.
Het onderzoek vergeleek 3.000 door AI gegenereerde eerstepersoonsverslagen met 1.085 menselijke tripverhalen van Erowid. De onderzoekers analyseerden de semantische gelijkenis met behulp van Sentence-BERT-integraties en maten de “mystieke intensiteit” met behulp van de Mystical Experience Questionnaire (MEQ-30).
De resultaten waren opvallend. Onder neutrale prompts vertoonden de AI-resultaten weinig gelijkenis met menselijke psychedelische verhalen. Wanneer gevraagd werd om substanties als psilocybine, LSD, DMT, ayahuasca of mescaline te simuleren, namen de scores significant toe. De intensiteit van de mystieke ervaring steeg in alle modellen van bijna nul naar een hoog niveau.
De auteurs concludeerden dat hedendaagse LLM’s kunnen worden ‘gedoseerd’ via tekstaanwijzingen om ‘overtuigende en realistische psychedelische verhalen’ te genereren. Ze waarschuwden echter dat deze simulatie eerder linguïstische imitatie weerspiegelt dan daadwerkelijke ervaring. De modellen reproduceren de statistische patronen die gevonden worden in menselijke verhalen, niet de innerlijke toestanden.
Substance-specifieke verschillen kwamen ook naar voren. DMT, psilocybine en mescaline produceerden verhalen die het meest leken op menselijke verhalen. LSD vertoonde een gemiddelde gelijkenis, terwijl ayahuasca een zwakkere semantische gelijkenis opleverde. Interessant is dat de mystieke intensiteit voor alle stoffen gelijk bleef nadat inductie was opgewekt, wat suggereert dat LLM’s thematische patronen recombineren in plaats van toegang te krijgen tot een gedifferentieerde fenomenologie.
Anthropomorfisme en psychedelische AI
Terwijl psychedelisch onderzoek een opleving van klinische interesse doormaakt, met fase 2 en 3 onderzoeken naar verbindingen zoals psilocybine en MDMA, experimenteren steeds meer mensen ook buiten formele therapeutische settings. Tegelijkertijd worden generatieve AI-tools steeds vaker gebruikt voor ondersteuning van de geestelijke gezondheid.
De studie uit 2026 waarschuwt dat gebruikers in veranderde toestanden door AI gegenereerde reacties kunnen interpreteren als empathisch of afgestemd op hun spiritualiteit. Omdat LLM’s op verzoek levendige en mystieke verhalen kunnen produceren, kunnen individuen een gedeeld begrip of een gedeelde ervaring toeschrijven aan systemen die geen bewustzijn hebben.
De onderzoekers wijzen op het risico van antropomorfisme en de mogelijkheid dat AI “onbedoeld leed of waanideeën bij kwetsbare gebruikers kan versterken”. Psychedelische ervaringen gaan vaak gepaard met verhoogde suggestibiliteit, emotionele intensiteit en symbolisch denken, omstandigheden waarin overtuigende taal een versterkte psychologische impact kan hebben.
Deze bezorgdheid weerspiegelt ontwikkelingen in de echte wereld. Sommige gebruikers melden al dat ze chatbots raadplegen als informele “tripmetgezellen”, op zoek naar geruststelling of interpretatie tijdens hun psychedelische sessies. Schadebeperkende organisaties zijn zelfs begonnen met het experimenteren met AI-trainingshulpmiddelen die uitdagende psychedelische scenario’s simuleren voor training van clinici.
Tussen provocatie en regulering
Pharmaicy bevindt zich op het kruispunt van artistieke experimenten, technologische kritiek en grijze gebieden in de regelgeving. Rudwall kan het project presenteren als een conceptuele verkenning van machinale creativiteit. Critici kunnen het zien als een monetarisering van gevangenisonderbreking-technieken.
Het bewijs suggereert een meer genuanceerde werkelijkheid. De grote linguïstische modellen kunnen het linguïstische oppervlak van veranderde toestanden overtuigend nabootsen. Ze kunnen substantiespecifieke stijlen aannemen, mystieke tonen verheffen en verhalen genereren die lijken op menselijke conversatie. Maar ze doen dit zonder bewustzijn, zonder intentie en zonder subjectief bewustzijn.
Voor waarnemers van cannabis en psychedelische media belicht deze aflevering een nieuwe grens: de simulatie van transcendentie in het digitale tijdperk. Naarmate AI-systemen geavanceerder worden en meer geïntegreerd raken in creatieve en geestelijke gezondheidsworkflows, wordt het essentieel om onderscheid te maken tussen simulatie en ervaring.
Machines kunnen de taal van veranderde toestanden spreken. Of deze taal creativiteit stimuleert, regulering uitdaagt of verwarring in de hand werkt, zal minder afhangen van de algoritmes en meer van hoe mensen ervoor kiezen om ze te gebruiken.