Nei giorni scorsi, un gruppo di “amatori” (?!) della pedopornografia e della zooerastia è stato arrestato (fonte). Un aspetto nuovo, oltre agli abusi reali su bambini molto piccoli, è la produzione e la condivisione di materiale generato dall’intelligenza artificiale.
Astraendo da questa notizia e proiettandoci nel prossimo futuro, cosa accadrà quando la distinzione, almeno sul piano estetico, tra robot umanoidi e persone non sarà più chiara, anzi potrà creare confusione?
L’abuso su una bambola gonfiabile non è un crimine, mentre quello su una donna incosciente lo è. E se avessimo un robot capace di pensare e parlare (magari con un tono persino più “umano” di ChatGPT), costruito imitando quasi alla perfezione le sembianze e l’intimità di una giovane ragazza, come giudicheremmo un eventuale abuso?
Probabilmente, per rispondere, occorrerebbe più di qualche secondo. Se da un lato bambole e robot restano oggetti, dall’altro più la distinzione esteriore tra il robot e la persona si confonde, più l’abuso reale e quello simulato tendono a sovrapporsi. La questione diventerebbe ancora più inquietante se il robot riproducesse le fattezze e la voce di una bambina.
Compiere azioni di violenza è di per sé violenza, a prescindere dal destinatario?
Temo di sì. E la ragione non è meramente teorica, ma si radica in studi concreti sul comportamento umano. Un esempio eloquente è l’esperimento dello psicologo Albert Bandura con la “bambola Bobo” (1961, Stanford University, California). In quell’occasione, i bambini che avevano visto un adulto aggredire la bambola (un semplice oggetto) manifestavano poi un'incidenza maggiore di comportamenti aggressivi sia verso persone sia verso oggetti. È una dimostrazione di come l’imitazione di un atto aggressivo possa scattare a prescindere dal fatto che il bersaglio sia o meno un essere vivente.
Questo suggerisce che, più che il destinatario, conti l’azione stessa: agendo con violenza si rischia di interiorizzare, normalizzare e perfino potenziare quegli stessi impulsi. Da qui l’interrogativo cruciale: se perseveriamo in comportamenti aggressivi (anche “fittizi”, verso oggetti o robot), quanto è probabile che la soglia morale verso la violenza reale si abbassi?
In definitiva, pur riconoscendo che un robot non è un essere umano, dovremmo comunque considerare le conseguenze che gli atti violenti – persino simulati – producono in chi li compie e in chi li vede. Si può infatti alimentare un clima interiore di assuefazione o legittimazione, in cui il passaggio all’abuso su persone reali diventa più plausibile. Non conta solo chi subisce la violenza, ma il fatto stesso di esercitarla: è l’azione che trasforma, influenza e, nel peggiore dei casi, prepara il terreno alla violenza vera.
(3 marzo 2025)