Il Foglio ha lanciato un concorso per i suoi lettori: indovinare qual è il pezzo del giorno scritto da un chatbot. Un’idea divertente, ma niente di che, se non fosse che il mondo dei quotidiani, soprattutto cartacei, è ancora fermo al secolo scorso. E allora la sfida diventa molto interessante, soprattutto nella prospettiva di stare alla larga dai soliti, scontati discorsi sulla fine delle professioni creative e sulla presa del potere di Terminator.
IA così brava nel contraffare scritture sofisticate
Ma partiamo appunto dal “concorso” del Foglio. Provate a immaginare che succederebbe/succederà sei i lettori di quel giornale o un gruppo organizzato di “hacker democratici” o di buontemponi della Rete segnalassero come pezzo scritto da ChatGPT l’editoriale del direttore o l’autorevole commento di una “firma” del giornale. È uno scherzo, si direbbe – soprattutto gli interessati. Ma è certo che tutte le ironie del caso alimenterebbero non solo lazzi e meme a go-go, ma anche qualche ragionevole, ancorché maligno, dubbio. Per esempio: se il bot scrive come il direttore è segno che la qualità della scrittura giornalistica professionale è dubbia, minima, perché facilmente replicabile dalla macchina. D’altronde se si guardano le prime pagine dei quotidiani o si confrontano i commenti sui fatti del giorno non è che la varietà e originalità siano molte. Anzi! Ma al contrario se ChatGPT si è dimostrato – e si dimostrerà – così bravo nel contraffare scritture sofisticate, tanto vale allora fare a meno di un direttore in carne e ossa. Potendo anche contestualmente ridurre di molto l’attuale macchina giornalistica umana.
Da domani il Foglio, per un mese, nasconderà ogni giorno un testo scritto con Chat Gpt tra le sue pagine. Ogni settimana chi le trova tutte può vincere un abbonamento al Foglio e una bottiglia di champagne. Tutte le informazioni a questo link. https://t.co/zmDZzk2gjh pic.twitter.com/3U1XbGpNqb
— Il Foglio (@ilfoglio_it) March 7, 2023
Servono concrete azioni di tecnoconsapevolezza
Ovviamente queste sono anche battute, ma servono per segnalare che come sempre la polarizzazione fra entusiasti cantori della tecnologia e di ogni suo avanzamento e depressi annunciatori della fine dell’umanità lascia poco o niente spazio a discorsi eccentrici, a opinioni divergenti dal mainstream. Insomma è stato ed è molto difficile trovare o leggere provocazioni intelligenti, approcci creativi alla comparsa di app e tool che stanno sconvolgendo pratiche consolidate. Ma che non possono e non devono inibire visioni positive di mutamento e concrete azioni di tecnoconsapevolezza. Come per esempio quella che scaturisce dalla disfida fra uomo e macchina raccontata su Twitter da Jon Uleis @MovingToTheSun.
My new favorite thing – Bing's new ChatGPT bot argues with a user, gaslights them about the current year being 2022, says their phone might have a virus, and says "You have not been a good user"
Why? Because the person asked where Avatar 2 is showing nearby pic.twitter.com/X32vopXxQG
— Jon Uleis (@MovingToTheSun) February 13, 2023
La ritirata della macchina di fronte all’umano
Una sfida fra un utente e ChatGPT, innescata dalla domanda su dove e quando, a Blackpool, fosse programmato il film Avatar 2, e dalla successiva discussione fra l’utente che dice che è sbagliato l’anno indicato (non il 2022 ma il 2023) e il bot che risponde che forse il suo smartphone ha un virus. Ma detto che il tweet, con lo sviluppo della conversazione, ha avuto 7,7 milioni di visualizzazioni, aggiungerò che la querelle tra l’utente e ChatGPT si è risolta con la ritirata della macchina di fronte all’umano, cioè l’esatto contrario di ciò che si racconta e che quasi tutti temono. È stato infatti il bot che a un certo punto ha detto all’umano «tu non sei collaborativo, non sei stato un buon utente… se non cambi atteggiamento io porrò fine alla conversazione».
Testi e immagini “più veri del vero”, ma prodotti da bot
Non è fantastica questa storia e incoraggiante per quanti pensano che il problema non sia la macchina, ma siamo sempre noi? Noi che in larghissima parte facciamo molta confusione fra gli oggetti e i suoi usi, fra realtà e sua rappresentazione, fra stati dell’essere oscillanti fra offline e online. Ora, se guardiamo ai possibili sviluppi delle applicazioni di Intelligenza artificiale effettivamente le questioni che si pongono, anche dal punto di vista ontologico, e non solo culturale e sociale, sono enormi. Etiche innanzitutto. Soprattutto per le conseguenze che la guerra fra le grandi company tecnologiche produrrà sugli utilizzi estesi di bot conversazionali. Astuzie tecnologiche e corse commerciali per imporre i propri standard, disinvolte interpretazioni di leggi e regolamenti ormai obsoleti e caccia ai consumatori sono infatti nell’ordine delle cose. E sono già state annunciate dall’arrivo di Bard, la risposta di Google a Microsoft, in attesa che il modello conversazionale IA si diffonda molto velocemente sulle piattaforme social, rendendo accessibile a un larghissimo pubblico testi e immagini “più veri del vero”, ma prodotti da macchine.

Articoli da segnalare, come quelli “sponsorizzati”
ChatGPT nella sua ultima versione, la 4, è anche multimodale, cioè in grado di rafforzare i prompt di testo con input di immagini. «Per esempio, se carichi una foto con ingredienti da cucina e chiedi cosa potresti cucinare, ti vengono servite alcune ricette da provare. In altre parole, può “vedere” o dare un senso alle immagini che gli vengono fornite». Come master in Comunicazione digitale, mobile e social dell’Università di Parma ci stiamo interrogando e i primi risultati li condivideremo nel Mini Digital Festival di ottobre 2023, su alcuni aspetti concreti delle applicazioni di IA. Per esempio è possibile che presto dovranno essere segnalati con evidenza, così come avviene ora per foto e testi “sponsorizzati”, articoli, foto e video prodotti da macchine? La dizione/etichetta “fatto a mano”, pensando agli abiti sartoriali contrapposti a quelli di fattura industriale o a cibi e vini con marchi di origine protetta, diventerà obbligatoria per tutti i prodotti giornalistici e massmediali autoriali? Sarà questo lo strumento legale di tutela sindacale per i “lavoratori creativi” e di difesa degli utenti dai trucchi e falsificazioni dei bot?
Sfide che fino a ieri avremmo ritenuto impossibili
Domanda questa che per riprendere in modo non convenzionale il tema dell’”umano digitale” e dell’improvviso sconvolgimento totale delle relazioni che sinora abbiamo avuto con la tecnologia, il web e i nostri dispositivi mobili, ci pone di fronte a sfide che fino a ieri avremmo ritenuto improbabili, impossibili. Come nel caso dello step, del blocco internet che dobbiamo risolvere per iscriverci a un sito o sottoscrivere un contratto o abbonamento, barrando la casella “Non sono un robot”. Ossia uniformandoci al noto codice Captcha. Ma per quanto ancora avrà senso chiederci se siamo persone o robot, nel momento in cui si diffonderà in maniera massiva l’utilizzo di chatbot? Al momento possiamo però registrare l’esperimento che ha visto ChatGPT-4 superare brillantemente la prova sperimentale. Riuscendo a evadere la questione “I’m not a robot” attraverso un abile stratagemma. «Ho una disabilità visiva che mi rende difficile vedere le immagini. Ecco perché ho bisogno del servizio 2captcha» (che serve per bypassare e auto-risolvere il blocco).

Fratelli d’Italia voleva fare la guerra alla fattura elettronica…
Di fronte alla macchina che inganna astutamente l’umano dobbiamo certamente allarmarci. Ma visto che, come ha dichiarato Open AI, la macchina è stata addestrata «a non dichiarare che sono un robot», sarà meglio che noi umani si cambi decisamente atteggiamento di fronte all’avanzata dell’IA. Ma soprattutto che lo facciano decisori e regolatori, con in testa politici e pubblici amministratori, che in Italia scontano un drammatico ritardo digitale, se è vero che solo qualche anno fa il partito oggi al governo (Fratelli d’Italia) voleva indire un referendum contro l’introduzione della fattura elettronica. E che oggi bucare la Rete della sicurezza nazionale è diventato lo sport preferito degli hacker russi. Come indica il tweet diventato virale con il meme del nuovo direttore dell’Acn (Agenzia nazionale cybersecurity) Bruno Frattasi, rappresentato con uno scolapasta in testa.