Qualunque cosa faccia, Elon Musk sembra avere un unico obiettivo: distinguersi. Ama provocare, smarcarsi e presentarsi come il paladino della libertà senza censure.
E pazienza se poi sul suo social X, l’ex Twitter, poi modifichi l’algoritmo per dare maggiore visibilità ai suoi contenuti e a quelli dei suoi amici, come Trump. Nelle ultime 36 ore, oltre 15 milioni di post su X sono stati dedicati a Grok, l’intelligenza artificiale promossa da Musk e ora disponibile per (quasi) tutti gli utenti della piattaforma. L’obiettivo dichiarato è usarla per divertire e provocare, ma quello implicito è che fermi la migrazione degli utenti verso altre piattaforme. Come spiegato da X: «Grazie a un nuovo modello, nome in codice Aurora, ora Grok eccelle nel creare foto realistiche e nel seguire con precisione le istruzioni di testo». Va detto: Aurora/Grok funziona molto bene. Così bene che è sorprendentemente facile creare immagini false e persino offensive. Musk infatti ha scelto di non applicare al sistema alcuna forma di censura. Questo ha portato in queste ore alla diffusione su X di contenuti controversi, come immagini che ritraggono lo stesso Musk nei panni di Hitler o con un cartello che recita «I’m pedo» (sono un pedofilo) o video imbarazzanti con protagonista Donald Trump. Sebbene qualcuno possa trovare questi contenuti ironici, la facilità con cui Grok permette di generare falsi verosimili solleva serie preoccupazioni. In un mondo già in difficoltà nel distinguere la realtà dalla finzione (come sottolineato anche dall’Ocse), strumenti come Grok rischiano di fare danni. Potrebbero non solo alimentare la disinformazione, ma anche portare le persone a credere che, siccome tutto è falsificabile così bene, di fatto niente sia più (completamente) vero. C’è un aspetto in cui Grok (nella sua parte testuale) risulta meno efficace: rispondere a domande su giornali e notizie. Spesso non riesce a fornire contenuti, il che fa sorgere il dubbio che questa carenza non sia casuale, considerando il noto disprezzo di Musk per i media tradizionali. Per chi cerca contenuti giornalistici di maggiore qualità sui social, è da poco disponibile Sill, una piattaforma che promette «le notizie più importanti condivise dalle persone di cui ti fidi». Nel frattempo, altre importanti novità arrivano dal mondo dell’IA. Google ha appena presentato il modello sperimentale Gemini 2.0, insieme a Project Mariner e Deep Research. Rappresentano un passo avanti nel campo dell’intelligenza artificiale. Project Mariner, ad esempio, è il primo agente AI di Google: un sistema capace di navigare per noi autonomamente sul web, cliccare su link e pulsanti, compilare moduli, prenotare viaggi o persino fare la spesa. Deep Research, invece, è progettato per affrontare ricerche complesse, sfruttando capacità di ragionamento avanzate per produrre report dettagliati. Questo sistema può confrontare diverse fonti, incluse quelle giornalistiche, restituendo una sintesi accurata delle informazioni. Questi strumenti, per quanto utili, potrebbero avere effetti significativi sul panorama mediatico. Diversi analisti prevedono infatti che finiranno per rendere obsoleti molti siti web, inclusi quelli di informazione. Inoltre, si pone una questione critica: sarà una macchina a decidere quali contenuti siano validi e quali no, senza possibilità di appello. In Italia, le novità di Google arriveranno nel 2025. Solo il tempo e l’esperienza diretta potranno svelarci il loro reale impatto sul nostro modo di vivere e di informarci.
© riproduzione riservata
© Riproduzione riservata
ARGOMENTI: