I trasformatori generativi pre-addestrati (GPT) sono una classe di modelli linguistici di grandi dimensioni (LLM) che utilizzano reti neurali artificiali per produrre contenuti simili a quelli umani. Il primo di questi, ChatGPT, è stato sviluppato da OpenAI. Questi modelli hanno creato notevoli controversie. Ad esempio, Timothy Shoup del Copenhagen Institute for Futures Studies ha affermato che “nello scenario in cui GPT-3 ‘si libera’, Internet diverrebbe completamente irriconoscibile” (fonte). Ha previsto che in uno scenario del genere, il 99%-99,9% dei contenuti online potrebbe essere generato dall'intelligenza artificiale entro il 2025-2030.
Nel 2024, Google ha riferito che i suoi risultati di ricerca sono stati inondati da siti web che “sembrano creati per i motori di ricerca invece che per le persone” (fonte). In una corrispondenza con Gizmodo, un portavoce di Google ha riconosciuto il ruolo dell'intelligenza artificiale generativa nella rapida proliferazione di tali contenuti, che potrebbero sostituire alternative più valide create dall'uomo (fonte).
Fino a quando non osserviamo direttamente un fatto con i nostri occhi e non lo udiamo con le nostre orecchie, dobbiamo ammettere la possibilità che possa non essere autentico. Nessun elemento visivo, nessun suono ci garantisce l'assoluta veridicità di ciò che percepiamo. È imperativo adottare un approccio molto più prudente e scrupoloso.
Sui social media, tutto ciò che vediamo potrebbe essere falsificato. La distinzione tra verità e menzogna è già sfumata, e presto potremmo trovarci in uno stato di perenne incertezza, incapaci di discernere il falso dal vero. La problematica delle immagini e dei video ingannevoli è che, pur sapendo della loro falsità, non possiamo evitarne la visione. Vale la pena di ricordare quante immagini e filmati di videogiochi sono stati trasmessi nei notiziari ufficiali italiani, di importanti emittenti nazionali, scambiandoli per immagini di guerra in Ucraina. Addirittura su queste immagini false sono state condotte e argomentate intere trasmissioni televisive, praticamente basate sul nulla.
Il vero problema risiede nella nostra impossibilità nel riconoscere l'inganno visivo o uditivo: la nostra comprensione della verità ne è compromessa, così come la credibilità dei nostri leader politici. Un tempo, se un politico veniva catturato in video mentre affermava o faceva qualcosa, non poteva negarlo. Oggi invece la situazione è cambiata radicalmente. Chiunque, anche un bambino, può prendere la foto di una persona e ricrearne un'altra realistica che ne mostri atteggiamenti inappropriati, criminali o denudarla. Oppure possiamo registrare tre secondi della voce di una persona per clonarla e farle dire tutto ciò che vogliamo. Si tratta di una minaccia tangibile e immediata. Ed è solo l'inizio.
Ad esempio, prendiamo queste due fotografie realistiche ma false (cioè realizzate tramite intelligenza artificiale), che hanno fatto il giro del web. La prima riguarda Gaza, e la seconda l'Ucraina:
A tal proposito, riporto l'articolo di Jeff Hoffman del 24 aprile 2024, pubblicato sul sito della Casa del Sole TV:
Il vicolo cieco della rete internet?
La rete internet è invasa da contenuti generati dall’intelligenza artificiale. L’allarme è stato lanciato da Toby Walsh, professore di intelligenza artificiale all’Università del Nuovo Galles del Sud che, in poche parole, ha parlato del 2024 come dell’anno della svolta artificiale della rete internet.
“Gli utenti di Internet del futuro guarderanno al 2024 come all’anno in cui la rete smetterà di essere umana e sarà dominata da contenuti sintetici generati dall’intelligenza artificiale”, ha precisato Welsh.
Gli ha fatto eco Filippo Menczer, professore di informatica e direttore del Social Network Observatory dell’Università dell’Indiana, che ha in qualche modo richiesto un immediato intervento regolatore da parte della politica.
Mentre i grandi manovratori del big tech si mostrano impegnati a controllare gli sviluppi dell’intelligenza artificiale, tuttavia, l’uso dei sempre più sofisticati bot la fa da padrone sui social networks che, lontano dallo sguardo umano, gonfiano artificialmente il numero di iscritti a certi profili e generano immagini e notizie infestando la rete di false notizie e di interazioni robotiche piuttosto che umane.
Va aggiunto che i robot non sono coinvolti solo nella creazione di contenuti spazzatura, ma anche nel loro consumo. Le pubblicazioni effettuate dai bot richiedono, a loro volta, la partecipazione di altri account e siti artificiali in un circolo vizioso senza fine.
“Il 90% e più degli utenti di una piattaforma potrebbe essere composta da robot”, denuncia il professor Welsh esprimendo nostalgia per le prime versioni di piattaforme come Twitter.
“Chiaramente esse non fanno un buon lavoro nel penalizzare i contenuti dell’intelligenza artificiale, altrimenti non avremmo bot farm e altri dispositivi per manipolare la nostra attenzione”, ha aggiunto il docente.
A complicare il quadro è intervenuta una cosiddetta “teoria del complotto” che parla della morte di internet, spiegano molti esperti negando, come da manuale, l’esistenza di una regia occulta sulla disumanizzazione della rete.
Ciò che è certo, e che la stessa società Google ha certificato, è che più il motore di ricerca è sofisticato e adattato al profilo dell’utente e più i navigatori della rete si impigriscono e instupidiscono.
“Cerchiamo di ridurre al minimo la quantità di tecnologia che i nostri figli possono usare”, dichiarò infatti Steve Jobs in tempi non sospetti.
E la guerra contro l’intelligenza umana continua.