Riflessioni sull'uso dell'intelligenza artificiale
Ho deciso di scrivere questo articolo su come utilizzo l'intelligenza artificiale per fare un po’ di chiarezza su strumenti che, ancora oggi, forse non sono del tutto compresi. Ogni volta che ne parlo con qualcuno, noto spesso una reazione di stupore: molti immaginano l’IA come qualcosa di distante, complicato o riservato agli esperti, quando invece è già una tecnologia concreta e quotidiana.
Questa percezione si riscontra a tutti i livelli: da persone senza un background tecnico fino a colleghi con competenze molto avanzate.
La mia esperienza nasce a fine 2022, quando ho iniziato a usare ChatGPT nella sua prima versione basata su GPT‑3.5. Da allora non solo gli strumenti sono evoluti rapidamente, ma anche il mio modo di integrarli nel lavoro e nella vita quotidiana.
Il mio intento non è dare lezioni, ma semplicemente condividere la mia esperienza personale, nella speranza che possa offrire qualche spunto utile a chi vuole capire meglio come queste tecnologie possano trovare spazio nella vita di tutti i giorni.
All'inizio ciò che mi ha spinto a usare ChatGPT è stata semplicemente la curiosità: vedere se davvero fosse possibile ottenere testo sensato partendo da un prompt. Le prime ricerche erano quasi un gioco, domande semplici fatte più per esplorare che per necessità. Le risposte erano spesso basilari, a volte semplificate, ma riuscivano comunque a soddisfare quella prima curiosità e a dare una direzione, un punto di partenza. È da lì che ho iniziato a capire il potenziale di questi strumenti e, poco alla volta, ad integrarli sempre di più nelle mie attività quotidiane.
Con il passare dei mesi ho visto i modelli evolvere in modi che non mi aspettavo. L’aggiunta della ricerca su internet è stata probabilmente la prima svolta davvero tangibile: fino a quel momento le risposte dell’IA erano limitate alla conoscenza presente nel modello, mentre da quel punto in poi è diventato possibile ottenere informazioni aggiornate, verificabili e molto più utili nella pratica.
Un altro passo avanti significativo è stata l’introduzione dell’interazione vocale. Non era solo una funzione in più: ha reso l’esperienza più naturale, simile a una conversazione autentica, e ha eliminato la rigidità della sola interazione testuale.
Infine, la funzione di deep research ha rappresentato un ulteriore salto di qualità. Non si trattava più solo di cercare o generare risposte, ma di svolgere una vera analisi strutturata, approfondita, capace di andare oltre la superficie e di superare i limiti imposti sia dalla semplice ricerca sia dal puro training del modello.
Fin dall'inizio il mio approccio è stato molto critico nei confronti delle informazioni ricevute da questo canale. Sapevo bene che ciò che leggevo non proveniva da un essere umano, ma dall’elaborazione statistica di un modello di linguaggio. Questo ha sempre imposto un certo distacco: un testo può essere scritto bene, sembrare credibile e scorrere in modo impeccabile, ma questo non significa che sia corretto. La differenza tra forma e sostanza, con l’IA, è fondamentale.
Quello che cerco di fare ogni volta non è ottenere risposte definitive, ma capire i meccanismi, approfondire, ragionare. E paradossalmente questo è diventato più semplice man mano che i modelli hanno sviluppato una sorta di maggiore “sensibilità” verso ciò che l’utente cerca davvero. Non parlo di empatia nel senso umano del termine, ma della capacità del modello di cogliere meglio il contesto, le intenzioni e il livello di accuratezza richiesto.
Nelle conversazioni mi capita spesso di "richiamare all’ordine" il modello quando tende a generalizzare, quando produce risposte troppo rapide o superficiali o quando cade nella tentazione di generare contenuti solo per riempire spazio. Questo tipo di interazione vigile, quasi un dialogo critico, è diventato parte del mio modo di utilizzarlo: non prendo ciò che dice come verità, ma come materiale da esaminare, confrontare e verificare.
Non ho mai sposato la definizione "L'ha detto ChatGPT", perché attribuire all’IA un ruolo di autorità mi sembra fuorviante. Preferisco dire "Ne ho parlato con ChatGPT": rende meglio l’idea di un confronto, di uno scambio di spunti e prospettive, senza trasformare il modello in una fonte indiscutibile. Per me l’IA è un interlocutore utile, non un depositario di verità.
Iniziamo quindi a parlare alcuni dei modi in cui utilizzo ChatGPT.
Ricerche e curiosità
Sono sempre stato molto curioso e, come fanno tanti se non tutti, ho sempre cercato di soddisfare le mie curiosità con una ricerca su Google. Da quando ChatGPT ha integrato la ricerca su Internet però le cose sono cambiate, e ormai la prima cosa che faccio è formulare una domanda nella chat. Fin qui credo di avere detto qualcosa che molti riconoscono.
Ma nel mio caso non si tratta solo di trovare un’informazione: quello che cerco davvero è capire. La differenza è enorme. Posso leggere dieci articoli diversi, ma quello che mi resta davvero è il processo di ragionamento che si sviluppa mentre pongo domande, verifico, riformulo e metto in discussione ciò che ho appena letto.
Le risposte che ottengo dall’IA sono spesso fluide, ben strutturate e apparentemente complete, ma raramente mi basta la prima versione. È un po’ come leggere un articolo scritto da qualcuno su un tema specifico: utile, certo, ma statico, chiuso, limitato a ciò che l’autore ha deciso di includere. Un articolo non risponde alle domande successive, non si adatta ai miei dubbi, non evolve con il mio livello di comprensione.
Le risposte di ChatGPT, invece, sono come una fotografia momentanea di conoscenza: un punto di partenza, non un punto di arrivo. Un libro aperto, modificabile, contestabile e interrogabile. Ricevo una risposta, ci rifletto, mi vengono nuovi dubbi, approfondisco. Le domande si susseguono, si intrecciano, portano a nuovi collegamenti e nuove implicazioni. È un processo che a volte dura decine di minuti, ore o giorni, ma alla fine permette di comprendere un argomento in modo molto più profondo.
E questo è qualcosa che non posso ottenere semplicemente leggendo più articoli o facendo mille ricerche. Sono spesso pedante e ripetitivo nel porre domande, quasi fastidioso, ma è proprio questo il punto: è come avere un esperto sempre disponibile, con una pazienza infinita e nessuna fretta.
Quando finalmente mi ritengo soddisfatto, chiedo di riassumere l’intera conversazione. Quel riassunto include l’inizio, lo sviluppo e la conclusione del nostro percorso: una sintesi chiara, lineare, che restituisce struttura a qualcosa che nella mia mente sarebbe rimasto frammentato. È un tipo di chiarezza che difficilmente potrei ottenere in un altro modo.
Ricerche mediche
Nel capitolo precedente mi riferivo a ricerche generiche, ma quando si parla di salute il discorso cambia completamente. Qui la cautela non è solo consigliata: è indispensabile. L’IA non può sostituire un medico, né dovrebbe mai diventare una scorciatoia per evitare un consulto professionale. Non voglio quindi suggerire a nessuno di affidarsi a questi strumenti per prendere decisioni cliniche.
Quello che posso fare, però, è raccontare come li utilizzo io. Nel mio percorso medico recente mi sono trovato spesso a confrontarmi con terminologia complessa, esami, referti, terapie e meccanismi biologici che richiedevano una comprensione più profonda. In questi momenti l’IA non ha avuto il ruolo di "medico alternativo", ma di supporto: uno strumento per chiarire, contestualizzare, verificare ciò che avevo già sentito o letto, e soprattutto per arrivare agli appuntamenti con i medici più preparato e meno disorientato.
Il punto di partenza sono quasi sempre i referti o le diagnosi, documenti che spesso contengono termini tecnici difficili da interpretare. In questi casi l’IA può essere utile per ottenere spiegazioni più accessibili, ma questo è solo il primo passo. Per capire davvero non basta semplificare: servono le basi.
Quelle basi, per me, non arrivano dall’IA ma da una scelta molto più personale fatta molti anni fa. A fine 2009 ho perso il lavoro e, mentre cercavo un nuovo impiego, ho deciso di dedicare il tempo libero allo studio in modo serio e sistematico. Non era un progetto strutturato: era una reazione istintiva al sentirmi carente su molti aspetti scientifici che mi avevano sempre incuriosito. Ho iniziato a seguire corsi universitari online di fisica, chimica, biologia e genetica, con la sensazione di dover colmare un vuoto che sentivo da tempo.
Col senno di poi, quella decisione si è rivelata molto più preziosa di quanto potessi immaginare allora. Non studiavo per un esame o per un nuovo lavoro, ma per costruire un linguaggio, un modo di pensare, una familiarità con concetti che oggi mi permettono di muovermi con maggiore consapevolezza quando affronto temi complessi legati alla salute.
Per questo dico sempre che l’intelligenza artificiale non può sostituire la formazione di base. Può semplificare, chiarire, rendere accessibili concetti difficili, ma senza fondamenta solide si rischia di capire solo a metà o di fraintendere completamente. Una spiegazione semplice può sembrare rassicurante, ma senza il contesto giusto può anche creare illusioni.
Ecco perché, ancora oggi, quando uso l’IA per interpretare un referto o una diagnosi, lo faccio con grande prudenza: l’IA mi aiuta a orientarmi, ma la mia comprensione nasce da un percorso che parte molto prima, da anni di studio personale che mi hanno insegnato a fermarmi, riflettere, approfondire e, soprattutto, a non cercare scorciatoie quando si parla di salute e complessità.
La semplificazione eccessiva è infatti il rischio maggiore: l’IA può spiegare, riassumere, chiarire, ma se mancano le fondamenta si rischia di capire solo a metà o, peggio, di fraintendere completamente. Una spiegazione semplice senza un contesto adeguato può rassicurare, ma anche fuorviare.
Per questo credo sia essenziale fermarsi, riflettere, mettere in discussione ciò che si legge e non cercare scorciatoie. Imparare, approfondire, costruire conoscenza vera: tutto questo non può essere delegato, nemmeno all’IA. È il modo più sicuro per affrontare temi delicati come la salute senza perdere di vista la complessità che meritano.
E con questo non voglio certo dire che riesco a comprendere ogni termine medico o tutti i meccanismi biologici di cui mi trovo a leggere: sarebbe presuntuoso e irrealistico. Ma l’approccio che ho maturato nel tempo — fatto di curiosità, studio progressivo e spirito critico — mi permette di imparare continuamente. In questo senso l’IA diventa un alleato prezioso: non sostituisce la conoscenza, ma mi aiuta ad approfondire, a chiarire i passaggi che non capisco, a colmare lacune immediate mentre continuo ad ampliare le basi in autonomia. È una presenza costante, che posso interrogare tutte le volte che sento di aver bisogno di un chiarimento, proprio come dicevo nel capitolo precedente.
Detto questo, come mi ha aiutato concretamente l'intelligenza artificiale nel mio percorso medico? Prima di tutto mi ha aiutato a comprendere meglio la mia malattia: da dove trae origine, quali meccanismi coinvolge e in che modo ha impattato sul mio organismo. In seguito mi ha aiutato a capire le cure, il funzionamento dei farmaci, gli obiettivi delle terapie, i sintomi attesi, le possibili complicazioni e le vulnerabilità da tenere in considerazione. È stato uno strumento fondamentale per interpretare ciò che mi veniva spiegato da medici e infermiere e per capire perché fosse importante seguire le indicazioni, invece di limitararmi a eseguirle passivamente. Ho seguito con attenzione gli esiti degli esami dopo la dimissione, comprendendo il percorso di guarigione e interpretando referti e sintomi con maggiore consapevolezza. Sempre sotto la guida dei medici, ma con la sensazione di capire davvero che cosa stesse accadendo.
L'aiuto dell'intelligenza artificiale nel mio lavoro nel settore Information Technology
Chi mi conosce sa che lavoro da tanti anni nel campo dell'Information Technology e si potrebbe chiedere come l'IA mi aiuta sul mio lavoro, visto che sono già un esperto. Questa è ovviamente una semplificazione e la verità ha tante dimensioni perchè il settore Information Technlogy è molto vasto.
Ci sono ambiti in cui ho una competenza molto alta e nei quali l’IA mi offre un aiuto solo marginale e molto circoscritto. Quando apro conversazioni su questi temi, spesso ricevo risposte che riconosco immediatamente come approssimative, sbrigative o addirittura fuori strada. È una sensazione particolare: capisco subito che qualcosa non torna perché conosco bene l’argomento, conosco la terminologia, i limiti, le eccezioni, e riesco a riconoscere quando il modello sta semplificando troppo o sta “riempiendo” le risposte senza reale sostanza.
Questa esperienza, però, mi porta a una riflessione inevitabile: se su ciò che conosco bene riesco a individuare senza difficoltà le imprecisioni, allora è molto probabile che lo stesso accada — senza che me ne renda conto — anche quando parlo di argomenti che conosco meno. In quei casi non ho gli strumenti per riconoscere subito le incoerenze o le semplificazioni e potrei, senza volerlo, accettarle come corrette. Non per ingenuità, ma perché mancano le basi per distinguere ciò che è accurato da ciò che è impreciso.
Questa consapevolezza non diminuisce l’utilità dell’IA nel mio lavoro, ma la rende più concreta: mi ricorda che va usata con attenzione, con spirito critico e, soprattutto, con l’umiltà di sapere che una risposta convincente non è necessariamente una risposta giusta.
Tuttavia, anche in questi ambiti l’IA riesce a darmi un aiuto concreto: mi aiuta quando rischierei di dimenticare qualche dettaglio, di tralasciare aspetti importanti, oppure semplicemente quando ho bisogno di procedere più rapidamente in contesti in cui la validazione dei risultati mi è familiare e so riconoscere subito eventuali errori.
Per gli argomenti nei quali non sono competente, l’IA diventa un aiuto formidabile perché mi permette di iniziare a orientarmi rapidamente anche su temi complessi. In questi casi il mio approccio è quasi sempre lo stesso: comincio con l’interazione vocale, come se stessi parlando con un esperto disposto a rispondere alle domande più semplici e basilari. Domande che, in un contesto reale, potrei quasi vergognarmi a porre, ma che qui diventano un modo naturale per costruire le fondamenta e capire da dove partire.
Poi, di solito, la conversazione prosegue davanti allo schermo. È in quella fase che posso concentrarmi davvero: leggo con calma, analizzo esempi più complessi, confronto soluzioni alternative e approfondisco i passaggi che richiedono maggiore attenzione. È un momento più riflessivo, meno istintivo rispetto all’interazione vocale, e mi permette di sedimentare ciò che ho capito. Procedo così finché non mi sento davvero pronto ad affrontare un argomento in autonomia, con la sensazione di aver costruito una base solida — non perfetta, ma sufficiente per proseguire con sicurezza.
L'intelligenza artificiale per scrivere codice
Anche su questo argomento dovrei essere molto competente e non avere bisogno dell'IA ma anche in questo caso non è proprio così vero ma invece dove l'IA trasforma competamente l'esperienza.
Anzitutto, i linguaggi di programmazione sono tantissimi ed è semplicemente impossibile conoscerli tutti a fondo, così come è impossibile padroneggiare sempre l’approccio migliore per ogni scenario, anche quando si lavora con linguaggi che si usano da anni. Inoltre — e questo vale anche quando ci si confronta con altri colleghi — uno stesso problema può essere affrontato in modi diversi, con soluzioni più o meno eleganti, più o meno efficienti. È proprio in questo spazio di variabilità che l’IA diventa estremamente utile: offre prospettive alternative, propone approcci creativi che magari non avrei considerato e amplia il ventaglio delle possibilità senza sostituirsi alla mia esperienza.
E su questo si apre un mondo di riflessioni sulla bontà del codice generato e sull’opportunità di capirlo oppure no. Ci sono situazioni in cui mi basta che il codice funzioni e non ritengo nemmeno necessario analizzare nel dettaglio ciò che l’IA ha scritto. È stato un cambiamento importante nel mio modo di lavorare: un atto di fiducia che non nasce da ingenuità, ma da valutazioni pratiche.
Un primo motivo è la velocità. Se ho bisogno di uno script semplice e rapido, magari per elaborare testo o manipolare file, e una volta testato funziona correttamente, non sento l’esigenza di approfondirne la struttura interna. In quei casi l’obiettivo è ottenere un risultato immediato, non costruire una soluzione perfetta.
Altre volte, invece, il codice è in un linguaggio o in un ambito in cui ho competenze molto limitate, se non nulle. Non avrei gli strumenti per comprenderlo fino in fondo, ed è qui che nasce la domanda: «basta che funzioni?». La risposta è: sì e no, a seconda dell’uso.
Se si tratta di un proof of concept mi basta verificare che il risultato sia quello desiderato e cerco, per quanto possibile, di capire almeno l’idea generale dell’implementazione. Ma quando il codice deve finire in produzione il discorso cambia completamente: lì non posso permettermi superficialità o deleghe cieche.
Anche quando non capisco fino in fondo la sintassi o le chiamate, la mia esperienza mi permette comunque di valutare il flusso logico, individuare punti deboli, fragilità e rigidità. Dedico molto tempo a questi aspetti, chiedendo all’IA di modificare singole parti finché non ottengo un risultato che ritengo affidabile.
Alla fine ciò che conta è assumermi la responsabilità del funzionamento finale, pur senza aver scritto o compreso nel dettaglio ogni singola riga — magari solo qualche stringa qua e là…)
Questo approccio mi ha consentito di sviluppare progetti molto complessi che, se avessi dovuto affrontare con metodi tradizionali, avrebbero richiesto mesi di studi, test e frustrazione. Da questo punto di vista l'IA è stata un amplificatore formidabile.
Non ho più l’età né la voglia di mettermi a studiare da zero nuovi linguaggi o affrontare percorsi tecnici lunghi come facevo vent’anni fa. Ma questo non significa che la mia esperienza sia meno utile, anzi: oggi posso valorizzarla in un modo completamente diverso. In un contesto tradizionale potrei puntare a un ruolo da responsabile tecnico, ma l’IA mi permette di ottenere un risultato simile senza dover seguire per forza quella traiettoria professionale. È come diventare il responsabile di un team di sviluppatori virtuali: io penso, progetto, imposto la direzione; l’IA scrive il codice, propone soluzioni, costruisce strutture complesse. Il mio ruolo è guidare, correggere, incollare i pezzi e far convergere tutto in un risultato coerente. In questo senso l’IA mi offre una possibilità concreta per rimanere rilevante, continuare a creare valore e affrontare progetti ambiziosi senza dover reinventare completamente la mia carriera.
Alcuni colleghi mi hanno fatto notare che l’IA non produce codice sicuro. È davvero così? La risposta, come spesso accade, è: sì e no.
È vero che, se ci si limita a chiedere semplicemente “genera del codice”, il modello produce qualcosa che funziona ed è spesso efficace, ma non necessariamente sicuro, robusto o aderente alle best practice. Questo però è solo il punto di partenza.
La forza dell’IA sta nella possibilità di affinare progressivamente il risultato. Dopo una prima stesura, posso richiedere requisiti aggiuntivi: maggiore sicurezza, controlli più rigorosi, validazione degli input, mitigazioni contro vulnerabilità comuni, migliore gestione degli errori, maggiore resilienza. Ogni passaggio migliora la qualità del codice, proprio come avverrebbe in una revisione tra sviluppatori.
Di recente mi sono trovato a lavorare su un progetto che conteneva numerosi warning e vulnerabilità. Invece di intervenire manualmente su ogni singolo punto, ho chiesto all’IA di aiutarmi a ripulire e rafforzare l’intero codice. Il risultato è stato sorprendentemente buono: un refactoring solido, ordinato e coerente, che mi ha permesso di rimettere sotto controllo una situazione diventata complessa nel tempo.
La funzione Deep Research
Nelle normali interazioni l'accuratezza dell’IA è inevitabilmente limitata: il modello risponde sulla base di ciò che ha appreso durante l’addestramento e non può colmare da solo i vuoti di conoscenza. Anche quando può cercare informazioni su Internet, questa ricerca è spesso superficiale e tende a riproporre le stesse formulazioni. Di fronte a domande ripetute o più incisive, capita di ottenere sempre le medesime risposte, come se la conversazione rimanesse bloccata su un binario.
È proprio in questi casi che entra in gioco la funzione Deep Research. A differenza della normale conversazione, Deep Research non si limita a «ricordare» o riassumere ciò che il modello già conosce: esegue una serie di ricerche automatiche, consulta fonti diverse, confronta testi e costruisce una sintesi più completa, precisa e articolata. Non è il modello a sapere le cose: è il processo che le va a cercare, con metodo.
Il risultato è spesso sorprendente. Più di una volta mi è capitato che l’esito di una deep research fosse in aperta contraddizione con ciò che il modello sosteneva nelle risposte standard. Questo non è un difetto, ma la dimostrazione del valore della funzione: dove la conversazione si ferma, Deep Research continua, amplia, verifica e corregge, restituendo un quadro più ampio e documentato.
Allora perché non utilizzare sempre la funzione Deep Research? Il motivo è semplice: spesso sono io a non conoscere abbastanza l’argomento per formulare le domande giuste. Prima di arrivare alla Deep Research devo fare un minimo di percorso iniziale: raccogliere qualche informazione, chiarirmi le idee, capire quali siano i dubbi reali. Finché non ho costruito questo primo orientamento, rischierei di avviare una ricerca profonda partendo dalla domanda sbagliata.
La Deep Research può richiedere anche 10–20 minuti e, se la domanda iniziale è imprecisa o superficiale, il risultato potrebbe essere un testo ben scritto ma poco utile, accurato solo in apparenza e distante da quello che mi serve davvero. È un processo potente, ma funziona solo quando viene attivato nel momento giusto.
La qualità della Deep Research dipende molto dalla qualità della domanda e dal contesto della conversazione. È importante arrivare a quella fase con le idee già un po’ chiare, dopo aver discusso, esplorato e definito bene che cosa si vuole capire davvero. Solo così il processo può restituire un risultato approfondito e realmente utile.
L'aiuto nella vita quotidiana
L’IA ha conoscenze sorprendenti in molti ambiti, e questo non si limita alla semplice curiosità: spesso si traduce in un aiuto concreto nella vita quotidiana.
Un esempio molto chiaro per me è stato il pagamento dell’IMU per i miei due appartamenti, in un periodo piuttosto complicato: avevo appena acquistato una nuova casa, avevo trasferito la residenza e non avevo ancora venduto quella vecchia. Una situazione fiscale che non affronti tutti i giorni.
La mia prima reazione è stata quella di rivolgermi a un CAF o a un commercialista. Poi mi sono detto: «Proviamo a vedere se riesco a farcela da solo». Ho spiegato a ChatGPT tutta la situazione, passo per passo. Il modello mi ha chiesto i dati catastali, i codici, le rendite e tutti i dettagli necessari. Alla fine mi ha fornito il calcolo dell’imposta.
Ma, per i motivi che ho descritto nei capitoli precedenti, non mi sono fidato subito. Gli ho chiesto allora di accompagnarmi passo per passo: da dove arrivano i dati dei calcoli, come si determinano le basi imponibili, quali aliquote si applicano e perché. Solo quando ogni passaggio è stato chiaro, quando ho capito davvero il meccanismo, mi sono fidato del risultato finale. E a quel punto ho pagato con la certezza di aver compreso cosa stessi facendo. Ho poi verificato che il calcolo iniziale era corretto, ma questo non cambia il punto essenziale: voglio considerare l’IA un aiuto, non un sostituto.
Altri esempi pratici sono stati la scrittura di lettere di reclamo, scritte con un linguaggio formale e con il giusto contesto legale, cosa che da solo mi avrebbe richiesto molto più tempo e parecchi tentativi. In queste situazioni l’IA mi aiuta a trovare il tono corretto, evitare espressioni ambigue e presentare i fatti in modo chiaro e strutturato.
Un altro esempio sono i ragionamenti legati ad acquisti più tecnici, come componenti elettronici non sempre facili da identificare o confrontare. L’IA mi aiuta a capire le differenze tra modelli simili, a verificare la compatibilità e persino a trovare fornitori alternativi al solito Amazon, permettendomi di valutare soluzioni più adatte o economicamente vantaggiose.
Il costo, il valore e le alternative
Già da più di un anno ho sottoscritto un abbonamento Plus a ChatGPT che mi costa poco più di 20 euro al mese. È tanto? È poco? Dipende sempre da cosa ci si aspetta da uno strumento del genere. Per me, considerando quanto lo uso e quanto mi aiuta ogni giorno, è una spesa piccola con un valore enorme. Mi offre un supporto costante, mi permette di ragionare meglio, di chiarire dubbi complessi e, soprattutto, di affrontare con più serenità molti aspetti della mia vita professionale e personale.
La versione gratuita di ChatGPT è utilissima per iniziare, ma ha limiti evidenti: conversazioni brevi, modelli meno avanzati, interazione vocale ridotta e una deep research molto più limitata. Sono restrizioni che, nell’uso quotidiano, pesano e rendono l’esperienza meno fluida. Certo, esistono molte alternative: Perplexity, Gemini, Claude, Copilot, e ciascuno di questi offre un proprio piano gratuito. In teoria potrei usare un po’ l’uno, un po’ l’altro per aumentare la “quota gratuita” complessiva.
Ma la realtà è diversa. Ogni IA ha il suo stile, il suo modo di interpretare le domande, i suoi punti di forza e le sue rigidità. Spostarsi continuamente da uno strumento all’altro significa perdere tempo, perdere coerenza nelle conversazioni e, spesso, ricominciare da capo. Bisogna reimpostare il contesto, spiegare di nuovo da dove si arriva, riadattarsi al diverso modo di ragionare del modello. Alla lunga diventa faticoso.
Preferisco quindi investire una cifra contenuta ogni mese e avere un ambiente unico, coerente e prevedibile, in cui posso mantenere la continuità dei ragionamenti, approfondire le conversazioni senza limiti e avere sempre a disposizione gli strumenti più avanzati. È un costo, sì, ma è un costo che moltiplica il valore del mio tempo e delle mie energie. E questo, per me, è ciò che lo rende davvero conveniente.
Le alternative le provo continuamente, ma fino a quando non sono davvero convinto della loro efficacia preferisco non integrarle nel mio flusso di lavoro. Mi piace esplorare, sperimentare, vedere cosa offrono gli altri strumenti, ma per farli diventare parte della mia routine devono dimostrare di essere affidabili, coerenti e utili nel lungo periodo.
Gemini, ad esempio, lo trovo ancora un po’ acerbo e poco empatico, anche se negli ultimi anni ha fatto progressi significativi. Ha però un vantaggio notevole: posso usarlo in interazione vocale direttamente dallo smartwatch. Se sto camminando e mi viene una curiosità improvvisa, posso soddisfarla all’istante, senza dover aspettare di tornare a casa o aprire l’app di ChatGPT.
Questa comodità funziona molto bene per domande brevi e immediate, ma non per ragionamenti più complessi. Il limite principale, in questo contesto, è la durata di ascolto: se provo a fare una domanda articolata, spesso mi interrompe a metà e, paradossalmente, si lamenta anche del fatto che «non gli ho spiegato abbastanza». È uno strumento utile, ma con confini molto evidenti quando si passa da curiosità veloci ad analisi più profonde.
Ma anche a prescindere dagli aspetti pratici, Gemini non si integra bene nel mio flusso di pensiero. Non riesco a usarlo come strumento principale: mi aiuta solo in situazioni molto specifiche e continua a sembrarmi meno naturale nel modo in cui interpreta e sviluppa le idee. Per ora rimane quindi un’alternativa occasionale, utile in certe circostanze ma non abbastanza matura per diventare parte stabile della mia routine.
Copilot si basa sugli stessi modelli di OpenAI e, in teoria, dovrebbe offrire un’esperienza equivalente a ChatGPT. Nella pratica, però, emergono alcuni limiti: la lunghezza ridotta delle chat, la difficoltà nel mantenere il contesto tra una conversazione e l’altra e un’interfaccia che personalmente trovo meno efficace e meno fluida.
Di recente è stata introdotta una funzione che trovo davvero interessante: la generazione automatica di un podcast personalizzato su un argomento specifico. È una sorta di deep research narrata, che condensa le informazioni principali in un formato audio semplice da ascoltare, va bene quando si vuole capire un nuovo argomento ma con leggerezza.
Ritengo Copilot un’alternativa valida e con un grande potenziale, soprattutto considerando la capacità di Microsoft di innovare rapidamente in questo settore. Non lo uso frequentemente per motivi pratici, ma sono convinto che in futuro possa diventare uno strumento ancora più competitivo e sorprendente.
Claude ha sempre avuto un grande potenziale e continua a migliorare versione dopo versione, ma tende ancora a inseguire la concorrenza più che guidarla. È un inseguimento elegante, con scelte progettuali intelligenti e un’attenzione notevole alla qualità delle risposte, ma qualcosa nel suo modo di ragionare non si allinea al mio flusso mentale. Ogni tanto lo riprovo, ne apprezzo l’evoluzione, ma non riesco a sentirlo davvero “mio”.
Perplexity, invece, ha innovato in modo sorprendente proponendo un approccio completamente diverso alla ricerca: sintetico, diretto, strutturato, con riferimenti immediatamente accessibili. È stato un modello che ha costretto tutti gli altri a migliorare e ad adeguarsi rapidamente. Oggi i risultati sono molto simili ad altri prodotti, ma Perplexity rimane un esempio brillante di come la concorrenza possa stimolare innovazione reale. Lo uso saltuariamente, soprattutto quando voglio una panoramica immediata e ben organizzata su un argomento, e continua a sembrarmi uno strumento prezioso nel panorama delle alternative.
L'aiuto per l'introspezione e Notebook LM
Un altro strumento che trovo innovativo è Notebook LM di Google. È una sorta di spazio personale dove è possibile raccogliere fonti, testi, registrazioni e note, che vengono poi elaborate per creare sintesi in formato testo, video o audio.
Io lo uso come un diario audio avanzato. Durante la giornata registro brevi riflessioni direttamente dallo smartwatch: racconti spontanei di ciò che mi succede, dubbi, paure, piccoli progressi, osservazioni sul momento. Sono frammenti di pensiero che forse, presi singolarmente, direbbero poco, ma che insieme diventano una testimonianza sincera del mio modo di vivere le giornate.
Notebook LM trascrive automaticamente questi audio e li utilizza come fonti per generare, ogni giorno, un podcast personalizzato che riascolto la mattina successiva. Questo passaggio è fondamentale: riascoltare ciò che ho detto il giorno prima — ma raccontato con un filo logico, una prospettiva più distaccata e una narrazione coerente — mi aiuta a vedere le cose con più lucidità. Mi fa notare dettagli che avevo sottovalutato, mi permette di riconoscere progressi che sul momento non avevo percepito e, soprattutto, dà valore anche alle giornate che mi erano sembrate “inutili” o frustranti. È come rendere tangibile ciò che altrimenti resterebbe solo nella memoria, sfocato o disordinato.
Alla fine di ogni mese genero anche una sintesi completa che raccoglie tutti gli audio e le riflessioni delle settimane precedenti. È un momento in cui tutto trova un senso più ampio: vedo l’evoluzione dei miei pensieri, i cicli emotivi, le difficoltà superate, e questo mi aiuta a non dimenticare ciò che ho vissuto. È un modo per riconoscere valore anche nei percorsi più silenziosi e interiori, quelli che spesso non raccontiamo a nessuno ma che definiscono profondamente chi siamo.
Anche per Notebook LM pago un costo mensile di circa 20 euro. In realtà non per Notebook LM solamente ma per il pacchetto Google One AI che comprende anche un piano più avanzato per Gemini, 2TB di storage e un po' di altre cose.
La privacy
Da quello che ho descritto è evidente che le IA che utilizzo finiscono inevitabilmente per raccogliere molte informazioni private su di me. È un aspetto che non posso ignorare e che considero un rischio reale. Su questo punto ho riflettuto a lungo, anche rileggendo con attenzione le varie privacy policy, cercando di capire quali dati vengano memorizzati, per quanto tempo, con quali garanzie e in quale misura possano essere utilizzati per migliorare i modelli. È una valutazione che faccio con consapevolezza, sapendo che ogni scelta in questo ambito richiede un equilibrio tra utilità e tutela della propria sfera personale.
Mi sono soffermato in particolare su quelli che uso di più: ChatGPT e Gemini.
Entrambi, nelle rispettive privacy policy, dichiarano apertamente che non possono garantire una privacy completa. A campione, infatti, parti delle conversazioni — in forma anonimizzata — possono essere lette da personale umano con lo scopo di migliorare il servizio. È un punto importante, che va compreso bene.
Innanzitutto si parla di porzioni di conversazione, non dell’intero contenuto. Ma non è chiaro quanto estese possano essere queste porzioni: si tratta solo della domanda? Solo della risposta? Domanda e risposta insieme? Oppure sequenze più lunghe con più scambi consecutivi?
Anche il concetto di anonimizzazione non è affatto immediato: significa che i dati non sono associati a un utente specifico? Oppure che vengono rimossi dal testo tutti gli elementi che potrebbero ricondurre alla nostra identità? Sono due livelli di protezione molto diversi. E se la porzione selezionata è abbastanza ampia, il contesto può comunque rivelare dettagli personali, abitudini o informazioni sensibili senza bisogno di un nome e cognome.
E quando si parla di “migliorare il servizio”, che cosa significa concretamente? Vuol dire verificare se la risposta fornita è stata adeguata alle aspettative dell’utente? Oppure utilizzare quei frammenti per addestrare il modello, con il rischio che parti di ciò che abbiamo scritto — anche frasi molto personali — possano un giorno emergere come esempio o formulazione in una risposta destinata a qualcun altro?
L’unico servizio che ad oggi mi dà più tranquillità è Notebook LM, dove le fonti vengono trattate come file personali, con una gestione simile a quella di documenti salvati su OneDrive o Google Drive. Non è perfetto, ma l’impostazione è più chiara e più vicina a un modello di archiviazione privata che a un sistema di raccolta conversazionale.
Non lo dico per allarmare, ma per realismo: usare questi strumenti comporta inevitabilmente una forma di esposizione. L’obiettivo non è evitarla — sarebbe impossibile — ma riconoscerla, accettarla consapevolmente e gestirla con attenzione.
Allo stesso tempo rifletto anche sul fatto che, al di là delle privacy policy, credo che le aziende stesse gestiscano queste informazioni con molta cautela. Se dovessero verificarsi fughe di dati contenenti informazioni personali, l’impatto sulla loro reputazione sarebbe devastante e i costi, sia economici sia d’immagine, altissimi. Questo non rappresenta una garanzia assoluta, ma è un elemento concreto da tenere in considerazione nella valutazione del rischio: non è solo ciò che è scritto nei regolamenti, ma anche il forte incentivo delle aziende a evitare incidenti che potrebbero compromettere la loro credibilità.
Conclusioni
Ho dedicato un po’ di tempo a questo riassunto con l’idea di offrire uno spunto informativo, ma anche con la speranza di ispirare altre persone a esplorare questi strumenti e integrarli nella propria vita in modo consapevole.
Allo stesso tempo è stato un esercizio utile anche per me: mettere ordine nei pensieri, rivedere ciò che ho imparato e capire meglio come utilizzo l’IA oggi. Sono curioso di sapere che cosa penserò di queste riflessioni tra qualche mese o qualche anno. L’intelligenza artificiale evolve rapidamente, e cambia anche il modo in cui ci relazioniamo ad essa: forse riguardando questo testo lo troverò ovvio, forse superato, o magari ancora attuale.
Se avete voglia, fatemi sapere se la lettura vi è stata utile, se vi ha ispirato, se vi ha fatto nascere domande o se volete condividere un punto di vista diverso. In fondo, il confronto è una delle cose più preziose che possiamo fare quando si parla di tecnologie così nuove e così personali.
Comments
Post a Comment