A denunciarlo è una recente inchiesta portata avanti dalla BBC, che mostrerebbe come l’ultimo aggiornamento all’algoritmo di Google stia concretamente mettendo a rischio l’affidabilità dei risultati delle ricerche degli utenti sul web.


Molti gestori di siti web negli ultimi mesi, nei settori più disparati che vanno dall’esitoria fino ai siti di e-commerce, avranno notato un calo drammatico delle visite degli utenti e delle sessioni sul proprio portale.

Di fronte a dati così allarmanti tutti si saranno chiesti: cosa ho fatto di sbagliato? Perché Google mi ha penalizzato? Quali infrazioni avrò commesso? Come faccio a risollevare il mio sito nelle query di ricerca?

Domande ovviamente più che legittime per tutti i soggetti che lavorano (e vivono degli introiti) con il proprio sito web. Ma la cosa paradossale è che, a quanto pare, non esiste una risposta univoca alle domande sopra citate, a nessuna di esse.

Il motivo? L’algoritmo di Google, con il classico aggiornamento degli ultimi mesi, sembra avere stravolto il proprio metro di giudizio sui contenuti in Rete. In parole povere la nuova IA di Google, che ha il compito di scansionare in maniera approfondita e di classificare i contenuti in base alla “qualità” starebbe danneggiando i risultati di ricerca degli utenti. A lanciare l’allarme è stato un approfondito dossier curato ed elaborato dalla BBC, il più grande e autorevole editore radiotelevisivo del Regno Unito, con sede alla Broadcasting House di Westminster, Londra, e la più antica emittente nazionale del mondo.

L’algoritmo di Google sta condannando a morte le ricerche sul web?

Il misfatto comunque parte da lontano e non sarebbe un fenomeno circoscritto agli ultimi aggiornamenti dell’algoritmo (che hanno comunque sconvolto del tutto i criteri di ricerca).

Secondo la BBC, infatti, già negli ultimi due anni una serie di aggiornamenti alla Ricerca Google hanno rappresentato un drammatico sconvolgimento per lo strumento più potente di Internet. E adesso l’implementazione completa di una funzionalità IA senza precedenti, arrivata a pieno compimento con l’ultimo aggiornamento dell’algoritmo avvenuto a marzo 2024, starebbe ancor di più influenzando i meccanismi di ricerca. La settimana scorsa, il CEO di Google Sundar Pichai si è presentato di fronte a una folla alla conferenza annuale degli sviluppatori dell’azienda e ha annunciato una delle mosse più significative nella storia del motore di ricerca.

La Ricerca di Google d’ora in poi fornirà le proprie risposte generate dall’intelligenza artificiale a molte delle domande degli utenti, una funzionalità chiamata “Panoramiche AI” che è già stata distribuita agli utenti negli Stati Uniti. “Il risultato è un prodotto che fa il lavoro per te“, ha detto Pichai. “La Ricerca Google è un’intelligenza artificiale generativa sulla scala della curiosità umana.” Il lavoro di Google sta pertando per avere un profondo impatto su ciò che molti di noi vedono quando vanno online

I nostri recenti aggiornamenti mirano a mettere in contatto le persone con contenuti utili, soddisfacenti e originali, da una vasta gamma di siti sul Web“, ha detto inoltre alla BBC un portavoce di Google. “Mentre lavoriamo per migliorare la Ricerca, continuiamo a concentrarci sull’invio di traffico prezioso ai siti e sul supporto di un Web sano e aperto“.

Google resta quindi fermo nella sua posizione secondo cui i cambiamenti saranno un vantaggio per il web e le modifiche all’algoritmo di ricerca sono solo l’inizio. Ma non è esattamente così.

Il caso di studio critico evidenziato dalla BBC

L’emittente britannica ha evidenziato il caso specifico di un sito dedicato ai purificatori d’aria che è passato letteralmente “dalle stelle alle stalle”. Un caso da manuale in cui editori indipendenti ha prodotto esattamente il tipo di contenuti originali che Google afferma di voler promuovere. Subito dopo il lancio del sito web, il colosso della tecnologia ha iniziato a mostrare il sito, di conseguenza, in cima ai risultati di ricerca, che è diventato una fiorente attività con dipendenti a tempo pieno.

Questo fino al 2023: Google ha apportato uno di una serie di importanti aggiornamenti all’algoritmo che gestisce il suo motore di ricerca. E a questo punto i termini di ricerca che portavano al sito indirizzavano le persone a siti differenti che non avevano fatto questo grande lavoro di qualità sui contenuti. Il secondo aggiornamento dell’algoritmo di Google arrivato a marzo è stato ancora più punitivo, portando le migliaia di visitatori giornalieri precendeti a sole centinaia. Una situazione che, come denuncia il proprietario del sito, praticamente rischia di condannare a morte la sua attività commerciale.

L’impatto delle modifiche attuali di Google: la fuga di documenti

Le panoramiche AI ​​sono solo uno dei numerosi cambiamenti radicali che Google ha apportato al suo prodotto principale negli ultimi due anni. E ad evidenziare quali sono stati i cambiamenti più importanti nelle politiche di ricerca è una fuga di documenti proprio dalla sede centrale del gigante del web.

Due giorni fa, l’esperto SEO Rand Fishkin, come riportato dal quotidiano Wired, ha rivelato che una fonte anonima ha condiviso con lui documenti di circa 2500 pagine provenienti dal Content API Warehouse. Questi dati danno un’indicazione chiara sui dettagli delle dinamiche che governano l’algoritmo Google: il tipo di dati raccolti da pagine e siti web, le modalità di gestione dei siti di piccole dimensioni, le motivazioni per cui l’algoritmo decide di far salire nel ranking dei risultati alcune pagine specifiche. E ad influenzare questo posizionamento ci sono un’ampia gamma di metriche, spesso aggregate nelle analisi dall’algoritmo attraverso i dati degli utenti acquisiti dal browser Google Chrome.

Fishkin avrebbe dunque sottolineato che da questo report vengono smentite alcune dichiarazioni di Google come “la negazione del fatto che i sottodomini vengano considerati separatamente nei risultati, la negazione dell’esistenza di una sandbox (un effetto secondo cui i siti web più nuovi sono penalizzati sulle key altamente competitive, nota del redattore di Wired) per i siti web più recenti, la negazione del fatto che l’età di un dominio venga raccolta o presa in considerazione, e altro ancora”.

Chi ha perso dal cambio di algoritmo e chi ci ha guadagnato?

Questa è solo la punta dell’iceberg, ovviamente. Per il colosso di Mountain View si tratta ovviamente di modifiche fatte a fin di bene: ma i critici sostengono che potrebbe essere vero il contrario.

Mentre Google riorganizza i suoi algoritmi e utilizza l’intelligenza artificiale per passare da un motore di ricerca a un motore di ricerca e risposta, alcuni temono che il risultato potrebbe essere niente meno che un evento a livello di estinzione per le aziende che producono gran parte dei contenuti preferiti allostato attuale dagli utenti. E a confermare questo scenario apocalittico ci pensano gli ultimi dati forniti da Semrush, una piattaforma spesso utilizzata per avere una panoramica completa sulla ricerca di parole chiave e dati di ranking online.

E i dati che ha elaborato la BBC su questi dati aggregati forniti da Semrush sono emblematici. Ad esempio il sito web del New York Magazine ha perso il 32% del traffico di ricerca di Google negli ultimi sei mesi, mentre GQ.com si è ridotto del 26%. I dati indicano che Urban Dictionary, un dizionario crowdsourcing molto popolare dello slang della lingua inglese, ha perso circa 18 milioni di visualizzazioni di pagina, pari a più della metà del suo traffico di ricerca. OprahDaily.com è sceso di quasi il 58%.

Chi ci ha guadagnato invece? Piattaforme che non sono, diciamo, dei veri e propri siti informativi ma aggregatori di contenuti che si basano più su un meccanismo di domanda e risposta. Ad esempio troviamo una piattaforma molto nota di questo tipo: Reddit. Secondo Semrush, Reddit ha registrato un aumento pari a una crescita del 126% nel traffico proveniente da Ricerca Google. L’azienda ne sente già i benefici: le sue entrate ammontano a 243 milioni di dollari, in aumento del 48% rispetto all’anno precedente. Ma anche altri siti generati dagli utenti come Quora e Instagram hanno registrato aumenti altrettanto astronomici, e ci sono stati picchi impressionanti anche su LinkedIn e Wikipedia.

I grafici della BBC

Qui di seguito vi mostriamo i grafici forniti dalla BBC per avere le idee più chiare sulla situazione attuale.

blank

blank

Cosa non funziona nella SEO allo stato attuale?

Da un certo punto di vista tuttavia, emergono comunque spunti critici che avrebbero in un certo qual modo spinto Google a una soluzione così radicale.

La battaglia più grande del gigante del web è infatti contro chi abusa della SEO (search engine optimization), vale a dire tutti quegli accorgimenti volti all’ottimizzazione per i motori di ricerca per migliorare la scansione, l’indicizzazione ed il posizionamento di un’informazione o contenuto. E a volte è possibile guadagnare di più creando contenuti progettati per soddisfare gli algoritmi di Google, piuttosto che gli esseri umani per cui è apparentemente progettato.

Spesso, i risultati dei termini di ricerca più popolari sono dunque affollati di siti Web che contengono pochissime informazioni utili, ma tonnellate di annunci e collegamenti a rivenditori che fanno guadagnare agli editori una quota dei profitti. La guerra di Google contro i risultati di ricerca contenenti spam è aumentata e nel 2022 la società ha rilasciato aggiornamento al suo algoritmo inteso a eliminare i contenuti creati esclusivamente allo scopo di posizionarsi più in alto nella Ricerca. Google ha rilasciato un successivo aggiornamento nel settembre 2023 e una terza modifica dell’algoritmo nel marzo di quest’anno. Google afferma che il risultato è “il 45% in meno di contenuti di bassa qualità e non originali nei risultati di ricerca“.

Gli strumenti IA di Google sono davvero affidabili?

Ma d’altro canto è Google stesso a riconoscere che gli strumenti di intelligenza artificiale possono fornire informazioni imprecise, ma afferma che lavora costantemente per migliorare i risultati. Un portavoce di Google afferma sempre alla BBC che le panoramiche AI ​​sono generalmente tratte da più pagine Web, non da singole fonti, e le risposte sono progettate per evidenziare collegamenti pertinenti. Il portavoce afferma che gli editori possono utilizzare un tag speciale sulle loro pagine Web per controllare se AI Overviews include o meno un collegamento ai loro siti. Tuttavia, una volta che un modello di intelligenza artificiale analizza i contenuti, potrebbe essere impossibile rimuovere tali dati.

A cosa può portare questo?

Dopo aver analizzato in maniera molto approfondita tutti i dati forniti nell’indagine della BBC adesso cerchiamo di trarre in autonomia tutte le conclusioni del caso.

La recente evoluzione dell’algoritmo di Google e l’introduzione delle “Panoramiche AI” sollevano questioni cruciali riguardanti il futuro di Internet e la sopravvivenza dei siti web. Mentre Google continua a perseguire l’obiettivo di migliorare l’esperienza dell’utente e fornire risposte più immediate e pertinenti, le conseguenze di tali cambiamenti sono molto più profonde e complesse.

Da un lato, le iniziative di Google potrebbero portare a una maggiore efficienza nella ricerca online, consentendo agli utenti di trovare risposte alle loro domande in modo rapido e accurato. Questo potrebbe migliorare l’usabilità del Web e soddisfare meglio le esigenze degli utenti.

Tuttavia, dall’altro lato, c’è il rischio che tali cambiamenti favoriscano i giganti del Web a discapito dei siti web più piccoli e indipendenti. Questo potrebbe portare a una diminuzione della diversità online e alla perdita di voci uniche e innovative. Inoltre, i risultati generati dall’IA potrebbero non essere sempre accurati, mettendo a rischio la credibilità delle informazioni disponibili online.

A rischio la sopravvivenza di tante realtà, editoriali e commerciali

Le implicazioni di queste modifiche vanno oltre il mondo virtuale. Per molti proprietari di siti web, la loro attività è la fonte principale di reddito, e una diminuzione del traffico potrebbe avere gravi conseguenze finanziarie. Inoltre, l’accesso a informazioni affidabili e di alta qualità potrebbe essere compromesso se i siti web indipendenti non riescono a competere con i giganti del settore.

Inoltre, la crescente centralizzazione del controllo su Internet da parte di pochi grandi attori come Google solleva preoccupazioni riguardo alla diversità delle voci e alla libertà di espressione online. Se i siti web indipendenti continuano a essere soffocati da algoritmi dominanti, potremmo assistere a una progressiva omogeneizzazione del Web, con conseguenze negative per la società nel suo complesso.

Cosa occorre fare per il futuro?

Per affrontare queste sfide, è necessaria una riflessione approfondita e un coinvolgimento attivo di tutte le parti interessate. I governi, le aziende e la società civile devono collaborare per sviluppare politiche e normative che proteggano la diversità e la libertà di Internet, garantendo al contempo la qualità e l’affidabilità delle informazioni disponibili online.

Inoltre, è importante che Google e altre grandi piattaforme tecnologiche assumano la responsabilità sociale e si impegnino a garantire che i loro algoritmi favoriscano l’equità e la diversità online. Questo potrebbe includere l’implementazione di meccanismi di feedback e trasparenza per consentire agli utenti e agli editori di comprendere meglio come funzionano gli algoritmi e come possono influenzare i risultati di ricerca.

In definitiva, il futuro di Internet dipende dalla capacità di bilanciare l’innovazione tecnologica con la tutela dei valori fondamentali della diversità, dell’equità e della libertà. Le modifiche di Google rappresentano una svolta cruciale in questa evoluzione, e la loro implementazione richiede un’attenzione e una considerazione attente per garantire che Internet rimanga un bene comune accessibile a tutti.


Fonte: articolo di redazione lentepubblica.it