Proprio pochi giorni fa è arrivata anche in Italia la funzione AI Overview, la nuova funzionalità di Google basata sull’intelligenza artificiale, che permette di ricevere risposte più articolate e aderenti alle richieste. Si tratta dell’ultimo capitolo di una battaglia in corso nel cuore di internet: con OpenAI, Microsoft, Perplexity, Anthropic e Google che vorrebbero rivoluzionare il settore della ricerca online attraverso l’AI. E, come spesso accade nel mondo tech, il motore di questa rivoluzione è principalmente di natura economica. Il mercato delle ricerche online, dominato da Google con una quota dell’85% e un valore di circa 230 miliardi di dollari, è una torta troppo golosa per essere ignorata.
Per le aziende che sviluppano sistemi di AI, gravate da spese enormi e alla disperata ricerca di un modello di business sostenibile (si pensi alle stimate perdite miliardarie di OpenAI e Antropic), l’idea di conquistare anche solo una fetta di questo mercato si prospetta come un’opportunità di risanamento finanziario. Al contrario, per gli utenti si aprono scenari più complessi, costellati di potenziali rischi. Cosa succede quando un motore di ricerca si trasforma in una “macchina delle risposte”, in un oracolo che può essere plasmato a piacimento? È innegabile che l’utilizzo di modelli linguistici di grandi dimensioni (LLM) come motori di ricerca offra vantaggi significativi per gli utenti. Immaginate la comodità di ottenere una risposta chiara e immediata alle vostre domande, senza dover setacciare una miriade di link e pagine web. ChatGPT o Gemini, con la loro capacità di esplorare il web in tempo reale, possono creare itinerari di viaggio dettagliati con tanto di budget, o risolvere dubbi linguistici che Google fatica a gestire.
La possibilità di ricevere rassegne stampa personalizzate è un altro esempio del potenziale rivoluzionario di questa tecnologia. Tuttavia, dietro questa facciata di efficienza si celano insidie non trascurabili. Fino a oggi, l’attenzione si è concentrata principalmente su due aspetti critici: in primis, le allucinazioni dell’IA, ovvero la tendenza a presentare informazioni inventate come fossero fatti reali. L’episodio del politico australiano Brian Hood, falsamente accusato da ChatGPT di aver ricevuto tangenti, è un segnale dei danni che tali errori possono causare, minando la fiducia degli utenti nonostante i disclaimer aziendali. È la nostra crescente dipendenza dall’AI in ambiti sconosciuti a renderci meno capaci di identificarne gli errori. Un secondo nodo cruciale riguarda la cannibalizzazione dei contenuti web. I sistemi di intelligenza artificiale generativa attingono e rielaborano il materiale online per fornire risposte, ma a differenza dei motori di ricerca tradizionali, non reindirizzano il traffico verso le fonti originali. Una ricerca a “zero clic” priva i creatori di contenuti, come testate e siti web, della loro principale fonte di sostentamento: il traffico web. Questo scenario potrebbe innescare un circolo vizioso, con una progressiva riduzione degli incentivi a produrre contenuti di qualità.
L’utilizzo massiccio di contenuti generati dall’IA per addestrare nuovi modelli linguistici rischia di portare a un progressivo degrado della qualità dei risultati, con sistemi che potrebbero finire per produrre informazioni incoerenti e inutilizzabili. Infine, non si può ignorare l’enorme potere che la trasformazione dei motori di ricerca in “macchine delle risposte” conferisce ai colossi della Silicon Valley. La possibilità di parzialità e manipolazione dell’informazione è un rischio concreto. Un pericolo che è stato sintetizzato con una bellissima battuta su Bluesky riportata dal podcaster Andrea Daniele Signorelli. Elon Musk chiede a Grok (il chatbot integrato su X): “Perché ci sono gli incendi in California?”. Grok risponde (dopo aver consumato enormi quantità di energia): “Per colpa del politicamente corretto”. Per quanto assurda, questa battuta sintetizza bene i pericoli a cui rischiamo di andare incontro.