Per oltre vent'anni, Aranzulla.it è stato un punto di riferimento per milioni di utenti italiani alla ricerca di guide informatiche semplici, rapide e affidabili. L'impero digitale costruito da Salvatore Aranzulla ha dominato i motori di ricerca con articoli ottimizzati, titoli perfetti e un'enciclopedia sterminata di soluzioni ai problemi più comuni. Ma nell'ultimo anno qualcosa è cambiato, e in modo significativo.

Secondo i dati stimati dal portale di analisi del traffico online SE Ranking, Aranzulla.it avrebbe perso circa il 40% delle visite organiche mensili nell'arco di soli dodici mesi. Un calo che, tradotto in numeri, significa un passaggio da circa 10.400.000 visite al mese a circa 6.400.000. Si tratta di un crollo che ha colpito molti osservatori, soprattutto perché il sito era considerato una ''roccaforte'' SEO quasi inattaccabile.
Ma perché sta succedendo tutto questo? Il principale sospettato è l'Intelligenza Artificiale, in particolare l'ascesa dei chatbot, dei motori di ricerca potenziati dall'AI e degli assistenti digitali che rispondono direttamente alle domande degli utenti, riducendo la necessità di cliccare sui risultati tradizionali.
Questa notizia ha suscitato grande curiosità, ma anche scetticismo: come fanno siti esterni a conoscere con precisione il traffico di un sito come Aranzulla.it, che non rende pubblici i suoi dati interni? Prima di accettare questi numeri come oro colato, è necessario capire come funzionano realmente gli strumenti di analisi del traffico, quali sono i loro limiti e perché, pur non essendo infallibili, possono offrire indicazioni preziose soprattutto nelle comparazioni nel tempo.
Come funzionano i siti che stimano il traffico web
I portali che forniscono stime del traffico, come SE Ranking, Similarweb, Semrush, Ahrefs e altri, si basano su una combinazione complessa di tecniche statistiche, dati aggregati, pannelli di utenti e crawling dei motori di ricerca. Non avendo accesso ai dati reali dei server o di Google Analytics di un sito, devono ricorrere a sistemi alternativi per ricostruire un quadro il più possibile realistico.
In generale, questi strumenti combinano tre fonti principali:
- Dati provenienti da estensioni browser installate dagli utenti
- Dati di panel anonimizzati (ossia gruppi di utenti che acconsentono a condividere le proprie abitudini di navigazione)
- Analisi delle SERP (pagine dei risultati dei motori di ricerca) e posizionamenti organici per stimare i click potenziali.
Questo mix permette loro di creare modelli predittivi che stimano quante persone visitano un determinato sito in un periodo di tempo. Non si tratta di numeri esatti, ma di stime statistiche più o meno affidabili a seconda della dimensione e della popolarità del sito analizzato.
Dati da estensioni e pannelli: la base empirica
Molti utenti installano, spesso senza accorgersene, estensioni browser che tracciano il comportamento online in forma aggregata e anonima. Queste estensioni raccolgono informazioni su quali siti vengono visitati, con quale frequenza e da dove provengono gli utenti. I dati vengono poi venduti o condivisi con società di analisi. Allo stesso modo, alcune aziende creano veri e propri ''panel'' di utenti, ovvero campioni rappresentativi della popolazione online, che accettano di condividere i propri dati di navigazione in cambio di vantaggi, accessi o ricompense.
Questi dati sono estremamente preziosi, perché offrono un punto di partenza reale. Tuttavia, non coprono l'intera popolazione: nessun panel è perfettamente rappresentativo e la distribuzione degli utenti può variare moltissimo da paese a paese, da fascia d'età a fascia d'età.
Analisi delle SERP e posizionamenti
Un altro pilastro dei sistemi di stima è l'analisi delle SERP di Google. Se uno strumento riesce a capire quali parole chiave portano traffico a un sito e in quale posizione si trova per ognuna di esse, può stimare quante persone cliccano effettivamente su quei risultati.
Ad esempio, se Aranzulla.it è primo su ''come scaricare Windows 11'' e quella keyword ha 100.000 ricerche mensili, lo strumento può stimare un certo numero di click in base al CTR medio per la posizione 1. Sommando centinaia di migliaia di keyword, è possibile ottenere una stima complessiva abbastanza realistica del traffico organico.
Modelli statistici predittivi
Infine, i dati grezzi raccolti dai pannelli e dall'analisi delle SERP vengono elaborati tramite modelli statistici e machine learning. Questi modelli cercano di colmare i ''buchi'' dei dati e fornire stime coerenti. Ad esempio, se per un sito mancano dati diretti per alcune keyword, il modello può interpolare i valori in base a siti simili o a comportamenti precedenti.
Il risultato finale è una stima mensile del traffico, che non coincide necessariamente con la realtà ma fornisce una base utile per confronti e analisi di tendenza.
I limiti delle stime: perché i numeri possono non essere precisi
Nonostante la loro sofisticazione, questi strumenti non sono perfetti. Ci sono diversi motivi per cui le stime possono essere distorte, a volte anche in maniera significativa. Comprendere questi limiti è fondamentale per evitare di trarre conclusioni sbagliate dai numeri grezzi.
Tra i principali problemi troviamo:
- Campioni non rappresentativi
- Differenze geografiche
- Keyword non intercettate
- Cambiamenti nei comportamenti di ricerca non immediatamente rilevati
- Dati ''rumorosi'' o mancanti per siti di nicchia
Campioni non rappresentativi
Il primo limite riguarda la composizione dei panel e delle estensioni. Se, per esempio, un grande numero di utenti in Italia non utilizza estensioni monitorate o non fa parte dei panel, i dati raccolti potrebbero non riflettere la realtà nazionale. Allo stesso modo, se la maggior parte dei panelisti proviene da certe regioni o naviga principalmente da mobile, si possono creare distorsioni rispetto al traffico desktop o proveniente da altre zone geografiche.
Keyword non intercettate
Un'altra fonte di errore riguarda la copertura delle parole chiave. Nessun strumento riesce a monitorare il 100% delle keyword per le quali un sito è posizionato. Se un sito ottiene una buona fetta del suo traffico da keyword lunghe e specifiche (le cosiddette long tail), ma lo strumento non le rileva, la stima complessiva risulterà più bassa del traffico reale.
Variazioni improvvise difficili da cogliere
I motori di ricerca cambiano continuamente. Aggiornamenti di algoritmo, modifiche alle SERP, nuovi formati di risposta o funzionalità AI possono alterare radicalmente i click verso i siti in poche settimane. Gli strumenti di stima, basandosi su dati passati e keyword monitorate, possono impiegare del tempo per aggiornarsi e riflettere correttamente queste variazioni, producendo discrepanze temporanee.
Perché, nonostante tutto, le percentuali di variazione nel tempo sono utili
Eppure, anche se i numeri assoluti non sono perfetti, le variazioni percentuali nel tempo — soprattutto su periodi lunghi come dodici mesi — tendono ad essere abbastanza affidabili. Questo avviene perché gli strumenti utilizzano metodologie costanti: se un sito viene misurato oggi e tra un anno con lo stesso sistema, eventuali errori sistematici si applicano in entrambe le misurazioni.
In altre parole, anche se lo strumento sottostima o sovrastima il traffico reale, il confronto tra due periodi mantiene la stessa ''scala di errore'', e quindi la percentuale di crescita o calo risulta significativa.
Stesso metro, risultati coerenti
Il principio è semplice: se uno strumento sopravvaluta del 20% il traffico di un sito ogni mese, continuerà a farlo anche l'anno successivo. Di conseguenza, se la stima passa da 10 milioni a 6 milioni di visite mensili, il calo del 40% è reale nelle proporzioni, anche se i numeri assoluti non corrispondono ai dati interni del sito.
Questo è uno dei motivi per cui analisti SEO, investitori e addetti ai lavori usano questi strumenti per monitorare le tendenze, più che i valori assoluti. I numeri grezzi servono come indicatori, non come dati contabili.
L'importanza della scala temporale
Osservare variazioni a breve termine (settimane o pochi mesi) può essere fuorviante, perché i dati fluttuano naturalmente. Tuttavia, analizzare l'andamento annuale riduce l'effetto del ''rumore'' e mette in evidenza i trend strutturali. Nel caso di Aranzulla.it, la perdita stimata del 40% in dodici mesi rappresenta un trend solido, difficilmente spiegabile solo con errori di stima.
Il ruolo dell'Intelligenza Artificiale nel calo di traffico
Uno dei fattori più citati per spiegare il calo di Aranzulla.it è l'Intelligenza Artificiale. Negli ultimi anni, e in particolare nell'ultimo, i motori di ricerca hanno iniziato a integrare risposte generate dall'AI direttamente nelle pagine dei risultati. Google ha lanciato i suoi esperimenti con la Search Generative Experience, mentre altri assistenti virtuali e chatbot come ChatGPT hanno iniziato a rispondere a domande tecniche senza rimandare a fonti esterne.
Il pubblico di Aranzulla.it è composto principalmente da utenti che cercano risposte rapide a problemi pratici: ''Come fare lo screenshot su PC'', ''Come cancellare un account Instagram'', ''Come scaricare WhatsApp su tablet''. Queste domande sono esattamente quelle per cui i chatbot offrono risposte immediate, spesso senza che l'utente debba cliccare su alcun link.
La disintermediazione dell'informazione
Fino a pochi anni fa, chi aveva un problema informatico doveva digitare la domanda su Google, cliccare su uno dei primi risultati e leggere la guida. Oggi, molte di queste domande ottengono risposta direttamente nella SERP, tramite snippet, box ''People Also Ask'' e, sempre più, con risposte generate da AI. Questo fenomeno si chiama disintermediazione: il motore di ricerca, invece di fare da intermediario tra utente e sito, diventa esso stesso fornitore dell'informazione.
Per siti basati su volumi elevati di traffico organico informativo, come Aranzulla.it, l'impatto può essere devastante. Anche una riduzione di pochi punti percentuali nel CTR (Click Through Rate) può tradursi in milioni di visite in meno su base annua.
Nuove abitudini degli utenti
In parallelo, gli utenti stanno cambiando abitudini: sempre più persone chiedono direttamente a un chatbot ''Come installare Windows'' o ''Come cancellare la cronologia Chrome'' senza passare da Google. Questo spostamento del comportamento informativo è ancora agli inizi, ma i dati mostrano già effetti tangibili sul traffico dei siti editoriali tradizionali.
Strategie possibili per rispondere alla crisi
Un calo del 40% in un anno non è solo un numero: è un segnale profondo di cambiamento del panorama digitale. Per siti come Aranzulla.it, che hanno costruito la loro fortuna su Google, la sfida è ripensare la propria strategia per rimanere rilevanti in un contesto dominato dall'AI.
Alcune possibili direzioni includono:
- Diversificare le fonti di traffico (newsletter, social, community)
- Puntare su contenuti originali e approfonditi, meno ''replicabili'' dall'AI
- Creare strumenti interattivi o app che offrano valore aggiunto rispetto alla semplice risposta testuale
- Rafforzare il branding per diventare un punto di riferimento anche al di fuori della ricerca organica
Contenuti ''non rispondibili'' dall'AI
Le AI sono eccellenti nel rispondere a domande standard, ma meno efficaci su contenuti che richiedono esperienza personale, test comparativi, opinioni qualificate o spiegazioni passo-passo con contesto locale. Creare contenuti che vadano oltre la semplice ''guida rapida'' può essere una strategia vincente per distinguersi.
Diversificazione dei canali
Dipendere quasi esclusivamente da Google è rischioso. Newsletter, community, canali social e collaborazioni possono creare un ecosistema di traffico più resiliente. Alcuni grandi siti internazionali hanno già avviato questa transizione, costruendo un rapporto diretto con il pubblico anziché contare solo sul ranking SEO.
Conclusioni: un cambiamento epocale più che una crisi isolata
La perdita stimata del 40% di traffico per Aranzulla.it non è necessariamente un ''crollo personale'' del sito, quanto piuttosto un segnale chiaro di un cambiamento epocale nel modo in cui le persone cercano e consumano informazioni online. Gli strumenti di stima del traffico non sono infallibili, ma le loro comparazioni nel tempo offrono una bussola affidabile per capire la direzione dei trend.
L'Intelligenza Artificiale sta disintermediando la ricerca informativa, e i siti che basano il loro successo su keyword informative generiche sono i primi a subirne l'impatto. Chi saprà adattarsi, innovare e costruire nuove modalità di relazione con il pubblico potrà continuare a prosperare; chi resterà ancorato ai vecchi schemi rischia invece di vedere erodersi rapidamente la propria base di utenti.
Aranzulla.it rappresenta il caso più emblematico in Italia, ma è probabile che nei prossimi mesi vedremo dinamiche simili anche in molti altri settori. La rivoluzione è appena iniziata.
Fonti
SE Ranking
|