Una nuova enciclopedia AI
Annunciata da Musk a settembre 2025, Grokipedia viene proposta come alternativa a Wikipedia, ritenuta troppo ideologizzata e “di sinistra”. L’obiettivo di Grokipedia? “La verità, tutta la verità e nient’altro che la verità” ha affermato Musk (fonte: AP). Non sono noti i nomi ufficiali dietro al progetto. Il sito è online dal 27 ottobre ed è partito con un database di circa 800.000 articoli consultabili.
Quello che sappiamo è che invece di utilizzare l’attività di volontari che scrivono e controllano le fonti, il lavoro di creazione dei contenuti è svolto completamente da Grok, il chatbot usato anche su X. Se per Wikipedia il problema dell’attendibilità delle fonti era imputabile agli autori, con Grokipedia il problema rimane comunque aperto, ma si sposta su un altro piano: quello dell’intelligenza artificiale.
Come funziona Grokipedia?
Una volta atterrati su www.grokipedia.com, salta subito all’occhio il design caratteristico di tutta la produzione Musk-Style. L’interfaccia è molto minimal, si digita l’oggetto nella barra della ricerca, si clicca sul bottone e i vari risultati appaiono scritti in caratteri bianchi su sfondo nero. Una volta scelta la pagina, appare il testo con riferimenti cliccabili. Sulla sinistra è presente un menù per la selezione dei vari capitoli. Alla fine è presente anche la sezione “References”.
Per testare Grokipedia abbiamo fatto una ricerca per il termine “Tesla”. La pagina creata presentava 8 capitoli ed un totale di 254 fonti. Abbiamo fatto la stessa ricerca su Wikipedia. I capitoli presenti sono 11 e i riferimenti 605. Grok 0 - Wikipedia 1, se giochiamo nel campo del numero delle fonti. Però come sappiamo non è solo una questione di quantità, ma di qualità. E qui entra in campo l’AI.
Secondo le fonti disponibili sul web, le pagine di Grokipedia vengono generate da Grok, il large language model (LLM) simile al noto ChatGPT e sviluppato da xAI, la società fondata da Elon Musk. Grok è un’intelligenza artificiale avanzata e particolarmente prestante. La sua caratteristica principale è che combina l’accesso ai dati e alle informazioni in tempo reale, in particolare sulla piattaforma X. Il meccanismo di correzione dell’AI poi è molto peculiare: funziona sulla base del principio pavloviano. In pratica l’AI viene addestrata e se lavora bene riceve un rinforzo positivo. Entrare più nello specifico del funzionamento di Grok è impossibile perché mancano chiare informazioni. Ci limitiamo a riportare che allo stato attuale - forse mai? - non è chiaro il processo di selezione delle fonti. Basandosi sul sistema di Grok, le informazioni dovrebbero derivare dai social e da fonti open-source, come ad esempio quelle di Wikipedia, il suo diretto competitor. Ancora meno chiaro è il meccanismo di “co-generazione”, ovvero la modifica delle pagine create dall’AI. È stata ipotizzata la possibilità di correzione umana. Per ora non ci sono informazioni al riguardo. Vedremo.
Quali sono i potenziali punti di forza e quali le debolezze?
Sicuramente l’idea di utilizzare un’intelligenza artificiale per creare pagine di un’enciclopedia è interessante perché permette teoricamente di mantenere aggiornata la pagina mediante la selezione delle fonti anche più recenti e con un algoritmo che le seleziona senza i nostri bias cognitivi. In questo senso, Grokipedia potrebbe essere notevolmente più accurata rispetto a Wikipedia in termini di selezione delle evidenze e creazione di testi privi di influenze emozionali o bias. Alcuni utenti su X hanno evidenziato che alcune pagine di Grokipedia sono meno “schierate” rispetto a quelle di Wikipedia. Il punto rimane uno ed è molto importante: il confronto non deve essere fatto con Wikipedia. Il gold standard per un confronto rimane un’enciclopedia on-line riconosciuta, come per esempio Britannica o, in Italia, Treccani. Già nel 2005 Nature valutò come accurate le fonti di Wikipedia confrontate con Britannica. Ma i limiti ci sono e sono noti.
Intanto è un’enciclopedia online che nasce dalle “tastiere” di volontari senza un filtraggio iniziale delle informazioni inserite. Il controllo avviene attraverso un processo di revisione della community che risulta essere lento e non sempre efficace perché dipende da chi effettivamente revisiona, se revisiona. Grokipedia, in questo senso, potrebbe superare l’ostacolo, dato che sostituisce il lavoro lento e talvolta inaccurato dei revisori. Ma c’è un fatto: anche l’AI può avere dei bias, che derivano dalle fonti utilizzate e dal tipo di algoritmo. Dobbiamo ricordare che stiamo parlando di un LLM - Grok - che quindi è stato programmato per creare la risposta più probabile in base alla domanda fatta.
E com’è noto valgono le leggi generali dell’AI ovvero che possono generarsi delle allucinazioni, in pratica informazioni sbagliate. Questo può derivare da diversi fattori come errori di codice, errori di output, errori logici. Ma, anche in un LLM perfetto, l’errore può presentarsi e derivare banalmente dai dati che il sistema utilizza: se partiamo da informazioni sbagliate - come disinformazione, trolling, etc. - come può essere precisa l’informazione finale? E questo potrebbe essere un problema più che reale, dato che vengono utilizzate anche fonti social e quindi potenziale disinformazione e fake news. La piattaforma è nella sua versione iniziale 0.1 e sarà interessante vedere come evolverà.
In questo momento rimane comunque più prudente continuare a fare riferimento a fonti verificate (enciclopedie riconosciute, testate giornalistiche, riviste accademiche, ecc.) ed eseguire sempre il controllo incrociato delle informazioni consultando fonti diverse. ChatGPT esclusa…