L'IA così come è definita al momento è molto potente per alcuni compiti, ma rimane un software che replica i pattern che osserva, riesce ad avere una buona comprensione del linguaggio ma non ha capacità di astrazione.
Di conseguenza commette errori con relativa facilità e non è in grado di capire perché ha sbagliato, generando le famose "allucinazioni". È estremamente efficace su compiti specifici come appunto la programmazione, ma se non controlli quello che produce fai a tuo rischio e pericolo.
Ho vari colleghi più giovani che usano molto chatgpt e più di una volta sono usciti svarioni colossali.
I limiti di questi modelli sono abbastanza intrinseci nella loro struttura, che si fonda appunto sul creare associazioni in base a ciò che trovano nei dataset di addestramento, senza avere una reale consapevolezza ad esempio dei legami causali che esistono nel mondo reale. È un tipo di apprendimento diverso da quello della mente umana.
Per questi motivi queste tecnologie sono molto più efficaci come strumenti di supporto per rendere più efficiente il lavoro umano (e considerato l'andamento stagnante della produttività del lavoro degli ultimi decenni ne abbiamo bisogno) che per sostituirlo. Considerato il consumo di risorse non trascurabile saranno comunque adottate in maniera graduale e solo per le funzioni in cui sono più efficaci.
Mi sembra molto più alto il rischio di essere inondati da testi e contenuti multimediali di scarsa qualità se non deliberatamente falsi e ingannevoli, per la produzione di fake news o operazioni di propaganda questi modelli potrebbero essere altamente efficienti. Dove non serve qualità o accuratezza ma solo quantità l'intelligenza artificiale ha un vantaggio enorme. Anche a livello scientifico e nell'istruzione potrebbero esserci rischi non indifferenti in una alluvione di contenuti generati da AI difficilmente verificabili, non so quali contromisure potrebbero essere prese e con quali costi.
Personalmente anche se il mio lavoro è prevalentemente analizzare grandi dataset non saprei bene cosa farmene dell'IA, se non come supporto di programmazione (ma per avere un impatto reale dovrebbe essere integrata direttamente nei sistemi del datore di lavoro, visto che le informazioni che usiamo non sono quasi mai pubbliche). Peraltro quando il problema principale è la qualità dei dati e l'assenza di training set adeguati questi strumenti servono a poco.
Dove potrebbero dare un contributo importante è automatizzare processi abbastanza standardizzati, in maniera non molto diversa dalle precedenti ondate di automazione.
Nel neretto condensi quel che ho voluto dire anch'io: è una potente calcolatrice, non un essere umano.
Poi sugli errori ci sarebbe da aprire un enorme filone che sui media viene taciuto, come ho detto su YouTube ho visto il video di un professore di astrofisica di un'università americana che ha sottoposto ChatGpt ad un test per i suoi studenti e in 5 su 15 ha sbagliato (la media di errori che fa un essere umano, ma alcune delle risposte sbagliate erano strafalcioni - per dire, ad una avevo risposto bene anch'io che non sono di certo uno studente di astrofisica).
I modelli fanno e disfanno. I santoni del web cianciano.
*
Always looking at the sky
*
https://themarketjourney.substack.com :
economia, modelli, mercato, finanza
Il bombo ha una superficie alare di 0,7 cm² ed un peso di 1,2 grammi. Secondo i vigenti principi dell'aerodinamica è impossibile volare con tali caratteristiche. Ma il bombo non lo sa e quindi continua semplicemente a volare!
Segnalibri