Una domanda che leggo sempre più spesso sulle IA...
mi ha portato a fare una piccola verifica e trarne delle conseguenze.
Dopo il naufragio di Cutro sono successe cose strane. Strane almeno per me, magari per altri, del tutto normali.
Partiamo dalle informazioni note: note in corsivo perché anche su questa cosa della certezza delle segnalazioni c’è così poca sicurezza che è stata aperta un’indagine per capire come siano andate davvero le cose.
Alle ore 9:30 del 2 maggio 2021, Frontex comunica alla Guardia Costiera la presenza di una nave in difficoltà nelle acque di Cutro.
Alle ore 9:45, la Guardia Costiera avvia le operazioni di soccorso inviando una nave e un elicottero sul luogo dell’incidente.
Alle ore 10:15, la Guardia di Finanza viene informata della situazione e si unisce alle operazioni di soccorso.
Alle ore 11:30, la Guardia Costiera segnala a Frontex la presenza di circa 90 migranti sulla nave in difficoltà.
Alle ore 12:00, la Guardia Costiera comunica l’avvio delle operazioni di sbarco dei migranti soccorsi presso il porto di Crotone.
Alle ore 13:00, la Guardia di Finanza comunica a Frontex l’avvenuto sbarco dei migranti e l’apertura di un’indagine per individuare i responsabili dell’incidente.
Già leggendo questo veloce elenco generato da informazioni prese dalla rete, si capisce che da qualche parte le cose non hanno funzionato.
Ora: io non ho accesso ai dati esatti sul come devono funzionare le cose quando chiunque segnali un natante in difficoltà, ma di certo, se questo elenco rappresenta il normale iter operativo, qualcosa non funziona!
Al punto cinque viene riportato che alle 12:30 la Guardia costiera comunica l’avvio delle operazioni di sbarco dei migranti soccorsi presso il porto di Crotone.
Sfortunatamente, le cose non sono andate così, ma in questo modo: Dopo aver soccorso i migranti, la Guardia Costiera li ha trasferiti su altre navi e li ha portati a terraferma per le opportune verifiche sanitarie. Non ci sono state vere e proprie operazioni di sbarco in quanto il natante si era spezzato in due e affondato.
Ed anche questo non è del tutto corretto, anzi!
Già da qui si può capire come, una informazione inesatta possa dare, a chi cerca informazioni sull’accaduto, percezioni sull’accaduto totalmente errate ed imprecise.
Quindi come si fa a farsi un’idea precisa di fatti già occorsi se le prime risposte che ci torna un motore di ricerca, sono totalmente inesatte? Di chi è la responsabilità delle pubblicazioni di notizie errate, o quanto meno grossolane ed imprecise?
È questo il tipo di informazione che dovremo abituarci ad avere man mano il tempo passa e la tecnologia dell’ prende piede?
Perché si: l’elenco riportato sopra, è stato generato da una IA1: non la tanto nominata ChatGPT, ma una delle tante che stanno fiorendo, come margherite ai primi tepori, in giro per la rete.
A dire il vero ho chiesto quell’elenco, all’inizio, proprio a ChatGPT, ma se non altro ha avuto l’intelligenza (ok questa passatemela! :) di rispondere in modo corretto, invece di inventarsi l’elenco, ossia:
Il mio knowledge cutoff si ferma a settembre 2021 quindi non ho informazioni più recenti. Purtroppo non ho accesso a informazioni dettagliate riguardo alle comunicazioni specifiche tra Frontex, la Guardia Costiera e la Guardia di Finanza in merito allo schianto della nave di migranti sulle coste di Cutro.
Altre, come appunto riportato, hanno sparato le peggio cose —chiaramente— inventate. Con altre mi riferisco alle IA di Bing, Notion e varie altre di cui sono venuto a conoscenza, da quando è esploso la questione ChatGPT.
Ho letto in questi ultimi giorni di redazioni di alcune testate giornalistiche che stanno progettando di licenziare alcuni articolisti, per sostituirli con altri BOT2 di IA generati dallo stesso software; essendo il software di ChatGPT open source, chiunque può prenderlo, modificarlo a suo discernimento, ed usarlo come meglio crede.
Quello che mi domando, però, è come ne risentiranno le testate, se pubblicheranno senza nemmeno fare un minimo di verifiche su ciò che scrive, visto che si vogliono appoggiare ad un BOT di IA.
Insomma: io stesso ho sperimentato la comodità nell’usare ChaGPT nel correggere, o migliore, software creato per usi personali: in effetti in quel settore se la cava decisamente bene; ho trovato efficiente la rivisitazione di pezzi di testo, per una presentazione migliore, ma dal correggere, o suggerire miglioramenti, di uno scorcio di software, o al miglioramento stilistico di uno scritto, allo scrivere un articolo giornalistico corretto, ma soprattutto preciso ce ne passa!
E l’elenco scritto sopra ne è una dimostrazione lapalissiana direi. Quindi la domanda che sento sempre più spesso porre dalla gente comune dal vivo, e nei social, ossia ‘‘ChaGPT e simili ci porteranno via il lavoro?’’ la trovo decisamente poco sensata.
Se un titolare di una testata giornalistica pensa davvero di sostituire uno, o più, articolisti, con dei BOT di IA, lo definirei poco lungimirante e con un futuro, inteso come settore di lavoro, poco roseo.
Se invece vorrà aggiungere uno strato, aggiuntivo, di verifica sintattica e grammaticale, sfruttando le IA, allora potrei definirlo più lungimirante: sfruttare le capacità di correttore di bozze di una IA ha, almeno dal mio punto di vista, decisamente più senso.
Quindi la risposta alla domanda che gira sempre più spesso, a mio avviso e un secco no! Se qualcuno si prenderà la briga di sostituire dei proprio giornalisti con un BOT di IA, le possibilità saranno due prevalentemente;
in poco tempo capirà l’errore fatto e tornerà sui suoi passi prima che il danno generato dalla propria scelta, diventi ingestibile;
insisterà sul percorso deciso, ma con il rischio molto serio di vedere l’apprezzamento della propria testata scendere vertiginosamente in tempi molto brevi.
L’utente medio non è stupido: ci metterebbe molto poco a capire che gli errori continui, nel riportare i fatti, sono un fatto diventato endemico in quella redazione, e non solo occasionali errori umani.
Le responsabilità delle pubblicazioni di notizie errate, o imprecise, sono principalmente dei media che le diffondono. Questi dovrebbero svolgere un ruolo fondamentale nel verificare le fonti delle informazioni ed assicurarsi che siano accurate prima di pubblicarle.
Tuttavia, non è sempre facile, poiché le informazioni sono spesso frammentarie e contraddittorie. Inoltre, i media spesso sono guidati da obiettivi di traffico e di guadagno e, quindi, possono essere portati a pubblicare notizie in modo tempestivo, senza averle verificate a sufficienza.
Per quanto riguarda l'utilizzo delle IA nelle testate giornalistiche, è vero che possono essere utilizzate per generare notizie in modo più efficiente e veloce. Tuttavia, è importante che queste IA siano programmate per verificare le fonti e garantire l'accuratezza delle notizie che generano. Inoltre, è importante che ci sia una supervisione umana su queste IA, in modo che eventuali errori possano essere corretti.
In sintesi: l'utilizzo delle IA può essere utile, ma deve essere fatto con cautela e con la supervisione umana necessaria per garantire l'accuratezza delle notizie generate.
Concludendo…
Non approfittare delle migliorie che una tecnologia può portare al nostro lavoro sarebbe da sciocchi! Cercare di fare soldi, perché sempre di questo si tratta alla fine, usando una tecnologia, che almeno al momento non può sostituire l’essere umano, sarebbe ancora più da sciocchi. Questo almeno dal mio punto di vista!
JC
Intelligenza Artificiale.
Il BOT (abbreviazione di robot) in terminologia informatica in generale è un programma che accede alla rete attraverso lo stesso tipo di canali utilizzati dagli utenti