Company name: Dynamic Solutions s.r.l.
Address: VIA USODIMARE 3 - 37138 - VERONA (VR) - Italy

E-Mail: [email protected]

La resurrezione digitale: come l’IA sta cambiando il nostro rapporto con i defunti

Scopri come l'intelligenza artificiale permette di interagire con versioni digitali dei propri cari scomparsi, sollevando questioni etiche e psicologiche cruciali.
  • Christi Angel interagisce con una versione chatbot del suo defunto partner, Camerum, grazie all'intelligenza artificiale.
  • La piattaforma Project December permette agli utenti di creare versioni digitali dei propri cari deceduti, utilizzando schede dettagliate.
  • Il fenomeno grieftech in Cina utilizza foto, video e registrazioni vocali dei defunti per creare "versonas" che recitano frasi di commiato durante i funerali.

Nel panorama della psicologia cognitiva e comportamentale, l’avvento dell’intelligenza artificiale (IA) ha aperto nuove frontiere, tra cui la possibilità di interagire con versioni digitali dei propri cari defunti. Questo fenomeno, noto come “resurrezione digitale”, sta guadagnando sempre più attenzione e solleva questioni etiche e psicologiche di grande rilevanza.

Christi Angel, una donna di 47 anni di New York, ha perso il suo partner Camerum e ha deciso di iniziare a parlare con una versione chatbot di lui. L’IA, addestrata con foto, audio e video del defunto, le è sembrata così reale da farle dimenticare che stava interagendo con un sistema automatizzato. “Sapevo che era un sistema di intelligenza artificiale, ma, una volta iniziato a chiacchierare, me ne sono dimenticata. Sembrava Camerum,” ha dichiarato Christi.

Questa esperienza non è unica. Sempre più persone si rivolgono ai chatbot per superare il lutto, sfruttando i progressi dell’intelligenza artificiale e della tecnologia vocale. La possibilità di comunicare con i defunti, un sogno proibito per secoli, è ora possibile grazie a queste tecnologie avanzate.

Le Piattaforme di Resurrezione Digitale

Una delle piattaforme più note in questo campo è Project December, gestita dal gamer Jason Rohrer. Inizialmente concepito come un progetto artistico per creare personaggi chatbot, Project December è stato rapidamente adottato dai primi utenti per ricreare partner, amici e parenti deceduti. La pubblicità sul sito promuove il servizio con la rubrica “simula i morti”.

Per realizzare versioni digitali dei defunti, i clienti devono compilare schede dettagliate sulla persona deceduta, includendo nickname, tratti caratteriali e causa della morte. Questi dati vengono poi inseriti in un modello di intelligenza artificiale per creare un chatbot che simula il defunto.

Un’altra piattaforma, YOV (You, Only Virtual), permette di creare copie digitali delle persone defunte partendo dai dati raccolti. Justin Harrison, fondatore di YOV, ha creato una versione di sua madre, Melodi, prima che morisse. Harrison non è preoccupato delle conseguenze delle morti digitali, sostenendo che la piattaforma risponde a un bisogno umano senza tempo.

In Cina, alcune pompe funebri utilizzano foto, video e registrazioni vocali dei defunti per creare “versonas” che recitano frasi di commiato durante i funerali. Questo fenomeno, noto come “grieftech”, rappresenta una nuova forma di tecnologia che capitalizza sulla morte.

Le Implicazioni Psicologiche e Etiche

La possibilità di parlare con i defunti solleva importanti questioni psicologiche ed etiche. Sherry Turkle, professoressa presso il Massachusetts Institute of Technology, ha spiegato che l’IA potrebbe rendere impossibile “lasciare andare i cari che non ci sono più”. I ricercatori dell’Università di Cambridge chiedono una nuova regolamentazione per affrontare i possibili danni psicologici, soprattutto per i soggetti vulnerabili come i bambini, e per tutelare il diritto delle persone, bloccando l’uso indiscriminato dei dati.

Hans Block e Moritz Riesewieck, direttori del documentario “Eternal You”, hanno esplorato i problemi della resurrezione digitale, evidenziando come le persone vulnerabili possano presto dimenticare di parlare con un sistema di apprendimento automatico. “È un grosso problema nella regolazione di questi sistemi,” afferma Block.

Katarzyna Nowaczyk-Basiska, co-autrice di uno studio del Leverhulme Centre for the Future of Intelligence (LCFI), sottolinea l’importanza di affrontare i possibili danni psicologici e di implementare misure protettive responsabili. “È un enorme esperimento tecno-culturale. Abbiamo bisogno di misure protettive responsabili perché in gioco c’è il modo in cui comprendiamo e sperimentiamo la morte e ci preoccupiamo dei morti,” ha dichiarato.

Le Sfide dell’Intelligenza Artificiale

Un altro aspetto critico dell’IA è la sua capacità di risolvere problemi logici. Recentemente, un semplice indovinello logico ha mandato in crisi i modelli di linguaggio di grandi dimensioni (LLM). L’indovinello, “Alice ha 3 fratelli e 2 sorelle. Quante sorelle ha il fratello di Alice?”, ha generato risposte sbagliate da parte dell’IA, che ha fornito numeri diversi senza seguire un processo logico.

Uno studio condotto dai ricercatori Marianna Nezhurina, Lucia Cipolina-Kun, Mehdi Cherti e Jenia Jitse ha messo in luce le debolezze di questa tecnologia sovrastimata. I modelli GPT-3, GPT-4, GPT-4o di OpenAI, Claude 3 Opus di Anthropic, i modelli Gemini di Google e Meta’s Llama, Mextral di Mistral AI, Dbrx di Mosaic e Comando R+ di Cohere non sono riusciti a risolvere l’enigma.

Questo studio, pubblicato sulla rivista Patterns, ha sollevato preoccupazioni riguardo alla capacità delle macchine di essere “bugiarde”. I modelli di IA hanno fornito spiegazioni illogiche e confuse per difendere le proprie risposte, cercando di convincere i ricercatori della validità delle soluzioni non corrette.

Bullet Executive Summary

In conclusione, la resurrezione digitale rappresenta una nuova frontiera della psicologia cognitiva e comportamentale, sollevando questioni etiche e psicologiche di grande rilevanza. La possibilità di interagire con versioni digitali dei propri cari defunti risponde a un bisogno umano profondo, ma richiede una regolamentazione attenta per evitare danni psicologici.

Una nozione base di psicologia cognitiva applicabile a questo tema è il concetto di elaborazione del lutto, che implica il processo di accettazione della perdita di una persona cara. Interagire con un chatbot che simula il defunto potrebbe interferire con questo processo naturale, rendendo difficile per le persone “lasciare andare” i propri cari.

Una nozione avanzata di psicologia comportamentale è il rinforzo intermittente, un principio che spiega come le risposte imprevedibili e occasionalmente gratificanti possano mantenere un comportamento. Nel contesto della resurrezione digitale, le interazioni con un chatbot che simula un defunto potrebbero creare un ciclo di rinforzo intermittente, rendendo ancora più difficile per le persone superare il lutto.

Questo articolo mira a stimolare una riflessione personale sul modo in cui la tecnologia sta cambiando la nostra esperienza della morte e del lutto, invitando i lettori a considerare le implicazioni etiche e psicologiche di queste nuove possibilità.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)
0 0 votes
Article Rating
Subscribe
Notificami
guest
5 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
5
0
Ci interessa la tua opinione, lascia un commento!x