Deskundigen waarschuwen dat angstaanjagende ‘spookrobots’ van de doden de nabestaanden ‘digitaal kunnen achtervolgen’ van achter het graf.

Griezelige chatbots voor de doden kunnen een nabestaandenfamilie een ‘ongewenste digitale achtervolging’ bezorgen met ernstige psychologische gevolgen, waarschuwen experts.

Hoe heet Amnesty InternationalSpookrobots“Ze kunnen hun dierbaren digitaal volgen tot voorbij het graf.

1

Experts vrezen dat mensen gemanipuleerd kunnen worden via kunstmatige intelligentie-chatbotsKrediet: Alamy

Onlineplatforms waarmee mensen vermiste familieleden virtueel kunnen belichamen, zijn de afgelopen jaren in opkomst.

Deze vreemde technologie is in staat de taalpatronen en persoonlijkheidskenmerken van een overleden persoon na te bootsen met behulp van de digitale vingerafdruk die zij hebben achtergelaten.

Een persoon kan een AI-simulatie achterlaten als afscheidscadeau voor dierbaren die hun verdriet niet op deze manier willen verwerken

Dr. Katarzyna Nowacek-BasinskaCambridge Universiteit

Maar onderzoekers in Cambridge De universiteit zegt dat AI-chatbots nieuwe veiligheidsmaatregelen nodig hebben om psychologische schade te voorkomen.

Ze vrezen dat sommige gebruikers ook ‘sterke emotionele banden’ met de simulatie zullen ontwikkelen, waardoor ze bijzonder kwetsbaar zullen zijn voor manipulatie.

“Het is belangrijk dat digitale diensten voor het hiernamaals niet alleen rekening houden met de rechten en toestemming van degenen die ze opnieuw creëren, maar ook van degenen die met de simulaties te maken krijgen”, zegt dr. Thomas Holanek, co-auteur van het onderzoek.

“Deze diensten lopen het risico mensen aanzienlijk lijden te bezorgen als ze worden blootgesteld aan ongewenste digitale stalking door zorgwekkend nauwkeurige AI-reproducties van degenen die ze zijn kwijtgeraakt.

“De potentiële psychologische impact, vooral in een toch al moeilijke tijd, kan verwoestend zijn.”

Uit het onderzoek, uitgevoerd door het Leverhulme Centre for the Future of Intelligence in Cambridge, blijkt dat het gebied een ‘hoog risico’ kent.

Ze vrezen dat bedrijven ook dode bots kunnen gebruiken om schaamteloos reclame te maken voor producten bij gebruikers op de manier van een overleden dierbare, of om kinderen te storen door erop te staan ​​dat een overleden ouder nog steeds ‘bij je’ is.

Wanneer de levenden fysiek worden herschapen nadat ze zijn gestorven, kunnen bedrijven hun chatbot gebruiken om overlevende familieleden en vrienden te spammen met ongevraagde meldingen, herinneringen en updates over de diensten die ze leveren – vergelijkbaar met ‘digitaal gestalkt worden door ‘De doden’. ” – schrijven ze in het tijdschrift Philosophy and Technology.

Een simpele vraag die AI-transcripties in verwarring zou brengen

Mensen die aanvankelijk getroost worden door een dodelijke robot, kunnen zo uitgeput raken door alledaagse interacties dat ze een ‘overweldigend emotioneel gewicht’ worden.

Levende familieleden kunnen de service mogelijk niet loskoppelen als hun overleden geliefde een lang contract heeft getekend met een digitale dienst na het hiernamaals.

“De snelle vooruitgang op het gebied van kunstmatige intelligentie betekent dat bijna iedereen met toegang tot internet en enige basiskennis een overleden dierbare kan doen herleven”, zegt coauteur dr. Katarzyna Nowacek-Basinska.

“Dit gebied van kunstmatige intelligentie is een ethisch mijnenveld.

“Het is belangrijk om prioriteit te geven aan de waardigheid van de overledene, en ervoor te zorgen dat deze niet wordt aangetast door bijvoorbeeld financiële motieven voor digitale diensten na het leven.

“Ondertussen kan iemand de AI-simulatie achterlaten als afscheidscadeau voor dierbaren die niet bereid zijn hun verdriet op deze manier te verwerken.

“De rechten van zowel datadonoren als degenen die in het hiernamaals met AI-diensten communiceren, moeten in gelijke mate worden beschermd.”

Dr. Holanek voegde eraan toe dat er manieren moeten zijn om “robots op een waardige manier te doden, waarvoor mogelijk een vorm van digitale begrafenis nodig is.”

De onderzoekers raden aan om leeftijdsbeperkingen op te leggen aan deadbots, en roepen op tot ‘zinvolle transparantie’ om ervoor te zorgen dat gebruikers zich er voortdurend van bewust zijn dat ze interactie hebben met kunstmatige intelligentie.

“We moeten nu gaan nadenken over hoe we de sociale en psychologische risico’s van digitale onsterfelijkheid kunnen beperken, omdat de technologie al bestaat,” zei Dr. Nowacek-Basinska.

Lees meer over kunstmatige intelligentie

Alles wat je wilt weten over de laatste ontwikkelingen op het gebied van kunstmatige intelligentie