Company name: Dynamic Solutions s.r.l.
Address: VIA USODIMARE 3 - 37138 - VERONA (VR) - Italy

E-Mail: [email protected]

5 rivelazioni sul funzionamento dell’algoritmo di ricerca Google che devi conoscere

Una fuga di documenti interni di Google solleva dubbi sulla trasparenza dell'azienda riguardo al funzionamento del suo algoritmo di ricerca. Scopri le verità nascoste.
  • Una presunta fuga di 2.500 pagine di documenti interni di Google solleva dubbi sulla trasparenza dell'azienda.
  • I documenti descrivono 14.014 attributi del Content API Warehouse, offrendo uno sguardo senza precedenti sull'algoritmo di ricerca di Google.
  • Nonostante Google abbia sempre negato, i documenti indicano che i dati di Google Chrome potrebbero influenzare i risultati di ricerca.
  • I rappresentanti di Google hanno affermato che l'EEAT (esperienza, competenza, autorevolezza e affidabilità) non è un fattore di ranking, ma i documenti suggeriscono il contrario.

L’algoritmo di ricerca di Google è il sistema più influente su Internet, decidendo quali siti vengono mostrati e quali no, condizionando la visibilità dei contenuti online. Il modo esatto in cui Google classifica i siti web è rimasto un mistero, ricostruito da giornalisti, ricercatori ed esperti di SEO (ottimizzazione per motori di ricerca). Lo scorso marzo, l’azienda di Mountain View ha annunciato l’ultimo aggiornamento del suo algoritmo con l’obiettivo di mostrare agli utenti contenuti più autentici e “utili”, aggiornando i sistemi di classificazione per determinare se una pagina è “creata più per i motori di ricerca che per le persone”.

Una presunta fuga di 2.500 pagine di documentazione interna, contenenti 14.014 attributi (funzionalità API) dal “Content API Warehouse”, offre uno sguardo “senza precedenti” e “contrastanti” sul funzionamento dell’algoritmo di ricerca e classificazione, suggerendo che Google, probabilmente, non è stata sincera per anni. I documenti, resi pubblici da Rand Fishkin, un esperto SEO, sono stati inizialmente pubblicati su GitHub, probabilmente per errore, alla fine di marzo e ritirati il 7 maggio. Tuttavia, sono stati indicizzati da Hexdocs, un servizio di terze parti, e una copia è rimasta disponibile dopo la rimozione, trovata e diffusa da altre fonti.

Molti collegamenti nella documentazione puntano a repository GitHub privati e pagine interne sul sito aziendale di Google che richiedono accessi specifici con credenziali Google. Secondo Fishkin, questi documenti descrivono l’API di ricerca di Google e analizzano le informazioni a disposizione dei dipendenti. La documentazione non mostra il peso di particolari elementi nell’algoritmo di classificazione della ricerca, né dimostra quali elementi sono utilizzati nei sistemi di classificazione, ma mostra dettagli incredibili sui dati raccolti da Google. Parte dei documenti descrive sistemi vecchi, mentre il resto sembra più aggiornato.

Google non ha ancora commentato pubblicamente questa fuga di notizie e, probabilmente, non lo farà. I dettagli condivisi da Fishkin sono tanti e “tecnici”, più leggibili per sviluppatori ed esperti SEO che per non addetti ai lavori. I documenti toccano argomenti come il tipo di dati che Google raccoglie e utilizza, quali siti Google eleva per argomenti sensibili come le elezioni politiche, e come Google gestisce i piccoli siti web.

Alcune informazioni, secondo Fishkin, sono in conflitto con le dichiarazioni pubbliche dei rappresentanti di Google, che spesso “difendono” le informazioni proprietarie screditando le persone del marketing, della tecnologia e del giornalismo che hanno fatto scoperte interessanti. Un esempio citato da Fishkin è se i dati di Google Chrome sono utilizzati per classificare le pagine. I rappresentanti di Google hanno negato che Chrome sia menzionato nei documenti nelle sezioni su come appaiono i siti web nella Ricerca.

Un’altra questione è il ruolo dell’EEAT nella classifica. EEAT, che sta per esperienza, competenza, autorevolezza e affidabilità, è una metrica di Google per valutare la qualità dei risultati. I rappresentanti di Google hanno dichiarato che l’EEAT non è un fattore di ranking. Fishkin non ha trovato molte menzioni dell’EEAT nei documenti. Un altro esperto SEO, Mike King, ha spiegato il modo in cui Google raccoglie i dati dell’autore da una pagina, includendo un campo specifico per indicare se l’entità della pagina è l’autore. Questo non conferma che le firme degli autori siano una metrica di ranking, ma dimostra che Google tiene traccia di questo attributo. I rappresentanti di Google hanno insistito sul fatto che le firme in calce degli autori dovrebbero essere inserite dai gestori di siti web per i lettori, non per Google, e “non influenzano le classifiche”.

I documenti non sono una prova definitiva, ma offrono uno sguardo approfondito su un sistema chiaramente controllato. Il caso antitrust del governo degli Stati Uniti contro Google, incentrato sul motore di ricerca, ha portato alla divulgazione pubblica di documenti interni, fornendo ulteriori dettagli sul funzionamento del prodotto principale dell’azienda di Mountain View.

Algoritmo Google, svelati i segreti

Gli algoritmi dietro il sistema di ricerca di Google sono stati a lungo un mistero che gli esperti SEO hanno cercato di risolvere. Ora, una gigantesca fuga di documenti potrebbe svelare i segreti riguardo ai meccanismi del sistema di ricerca del colosso tecnologico, dimostrando che non è stato trasparente negli ultimi anni. Due giorni fa, l’esperto SEO Rand Fishkin ha rivelato che una fonte anonima ha condiviso documenti di 2.500 pagine dal Content API Warehouse di Big G, che contraddicono affermazioni rilasciate dalla compagnia, come la negazione del fatto che i sottodomini siano considerati separatamente nei risultati, la negazione dell’esistenza di una sandbox per i siti web più nuovi penalizzati sulle keyword altamente competitive, e la negazione che l’età di un dominio venga raccolta o presa in considerazione.

I dati condivisi da Fishkin sono numerosi e complessi, comprensibili più agli esperti del SEO che al pubblico di utenti appassionati di tecnologia. Tuttavia, questi danno un’indicazione chiara sui dettagli delle dinamiche che governano l’algoritmo di Google: il tipo di dati raccolti dalle pagine dei siti web, le modalità di gestione dei siti di piccole dimensioni, e le motivazioni per cui l’algoritmo decide di far salire nel ranking dei risultati alcune pagine specifiche per ricerche su argomenti sensibili come le elezioni.

Lo scalpore non deriva soltanto dalla fuga dei dati relativi alle API di Google, ma dal fatto che questi smentiscono molte affermazioni fatte dalla compagnia negli anni. Un esempio citato da Fishkin riguarda l’uso dei dati del browser Google Chrome per la classificazione delle pagine all’interno dei risultati di ricerca. I rappresentanti di Big G hanno affermato che questi dati non venivano utilizzati dall’algoritmo, ma i documenti rivelano il contrario, citando Chrome nelle sezioni riguardanti il modo in cui i siti web appaiono nei risultati di ricerca.

“Mentire è un termine severo, ma è l’unica parola esatta in questo caso”, ha scritto l’esperto SEO Mike King riguardo alle rivelazioni. “Non biasimo i rappresentanti pubblici di Google per la protezione delle informazioni proprietarie, ma non condivido gli sforzi per screditare le persone del mondo del marketing, della tecnologia e del giornalismo che hanno condiviso scoperte fondate”.

Da anni, gli esperti SEO studiano l’algoritmo di Google per mettere in mostra i siti web e farli comparire ai primi posti nei risultati di ricerca. Questa strategia, secondo l’opinione pubblica, ha riempito la rete di contenuti “spazzatura” che rispondono alle logiche tecniche del posizionamento, ma non agli standard di qualità elevata richiesti dagli utenti. Questi documenti potrebbero invertire questa tendenza, riportando ai primi posti dei risultati i siti che rispondono alle esigenze di ricerca del pubblico.

Google svela per errore come funziona l’algoritmo del suo motore di ricerca

Sono emersi nuovi dettagli sull’algoritmo del motore di ricerca di Google, sollevando dubbi riguardo alle dichiarazioni fatte dall’azienda. È trapelato un documento contenente 2.500 pagine di documentazione API dal “Content API Warehouse” di Google. Le implicazioni di questa fuga di notizie sono molteplici e l’autenticità non è stata verificata ufficialmente. I documenti evidenziano discrepanze tra ciò che Google ha riferito riguardo al funzionamento del motore di ricerca e i dettagli operativi nei documenti.

Quando un utente effettua una ricerca su Google, il processo inizia con il crawling, in cui il motore di ricerca esplora il web per cercare dati e contenuti. Questo è seguito dall’indexing, in cui le pagine visitate vengono analizzate e archiviate. Infine, il ranking determina l’ordine dei risultati sulla pagina dei risultati del motore di ricerca (SERP), stabilendo chi appare per primo. Essendo il motore di ricerca più diffuso, Google gestisce una quota sostanziale del traffico Internet globale, rendendo la posizione nella SERP critica per le entità che cercano visibilità online. Apparire in cima ai risultati può tradursi in un significativo flusso di traffico e in un potenziale incremento delle entrate.

I documenti interni potrebbero influenzare la strategia SEO delle aziende. Il documento suggerisce che fattori e metriche non precedentemente divulgati influenzano il ranking. Per esempio, mentre le dichiarazioni ufficiali sono diverse, la documentazione trapelata indica che Google potrebbe utilizzare i dati di navigazione di Chrome e l’interazione degli utenti per influenzare i risultati di ricerca. Altri aspetti, come l’età dell’host e i dati degli autori, sono presi in considerazione. Altri elementi come la freschezza del contenuto, la rilevanza dei link interni e l’identità del brand giocano un ruolo nel modo in cui i contenuti sono classificati.

Il documento suggerisce che Google tiene traccia delle revisioni delle pagine web, utilizzando gli ultimi 20 cambiamenti per influenzare il ranking. Secondo Google, la qualità del contenuto dovrebbe mirare a soddisfare l’utente finale piuttosto che essere ottimizzata per i motori di ricerca. Le linee guida di Google sottolineano l’importanza di creare contenuti che dimostrino esperienza, autorevolezza e affidabilità (EEAT). Tuttavia, questa fuga di notizie solleva dubbi sulla trasparenza di Google riguardo ai fattori che influenzano il ranking.

Google: maxi fuga di notizie sull’algoritmo di ricerca

L’algoritmo di ricerca di Google, il sistema più importante di Internet per il suo ruolo nel determinare il successo o il fallimento dei siti web, è avvolto nel mistero. Tuttavia, una recente fuga di notizie sembra mostrare migliaia di pagine di documenti interni, offrendo uno sguardo sul funzionamento dell’algoritmo di ricerca e sollevando dubbi sulla trasparenza di Big G. Rand Fishkin, esperto SEO, ha ricevuto 2.500 pagine di documenti, nella speranza che la segnalazione della fuga di notizie possa contrastare le “bugie” che i dipendenti di Google hanno condiviso sul funzionamento dell’algoritmo di ricerca.

Secondo Fishkin e l’esperto SEO Mike King, le informazioni nei documenti sembrano contraddire le dichiarazioni pubbliche dei rappresentanti di Google. King afferma che “mentire” è l’unica parola appropriata, comprendendo la volontà di Google di proteggere le informazioni proprietarie. L’algoritmo segreto di Google ha dato vita a un’industria di marketer che seguono le indicazioni pubbliche dell’azienda per ottimizzare i siti web. Queste tattiche hanno portato a un’opinione che la qualità dei risultati di ricerca stia peggiorando, con contenuti di scarso valore prodotti per soddisfare l’algoritmo.

I documenti trapelati mettono in discussione l’accuratezza delle dichiarazioni pubbliche di Google sul funzionamento dell’algoritmo di ricerca. I rappresentanti di Google hanno affermato che i dati di Chrome non sono utilizzati per il ranking, ma Chrome è menzionato nelle sezioni relative ai siti web nei risultati di ricerca. Un altro punto sollevato riguarda il ruolo dell’E-E-A-T (esperienza, competenza, autorevolezza e affidabilità) nel ranking. Nonostante Google abbia dichiarato che l’E-E-A-T non è un fattore di ranking, i documenti mostrano che tiene traccia degli autori delle pagine, sollevando dubbi sulla veridicità delle affermazioni precedenti.

I documenti non sono una prova definitiva, ma offrono uno sguardo dettagliato e non filtrato su un sistema protetto e poco trasparente. Questa fuga di notizie potrebbe spingere Google a fornire maggiori chiarimenti sul funzionamento dell’algoritmo di ricerca e sulla veridicità delle dichiarazioni pubbliche. Tuttavia, l’azienda si barrica dietro un “No comment”.

Bullet Executive Summary

In conclusione, la recente fuga di documenti interni di Google ha sollevato numerosi dubbi sulla trasparenza del colosso tecnologico riguardo al funzionamento del suo algoritmo di ricerca. I documenti trapelati offrono uno sguardo senza precedenti su come Google raccoglie e utilizza i dati, sollevando questioni importanti sulla veridicità delle dichiarazioni pubbliche dell’azienda. La scoperta che i dati di Chrome potrebbero essere utilizzati per influenzare i risultati di ricerca, nonostante le smentite ufficiali, è particolarmente rilevante. Inoltre, il ruolo dell’EEAT nel ranking rimane ambiguo, con i documenti che suggeriscono che Google tiene traccia degli autori delle pagine web.

Per chi è meno esperto, è utile sapere che il crawling è il processo con cui i motori di ricerca esplorano il web per raccogliere dati e contenuti, mentre l’indexing è l’analisi e l’archiviazione delle pagine visitate. Il ranking determina l’ordine dei risultati sulla pagina dei risultati del motore di ricerca (SERP).

Per chi è più esperto, è interessante notare che la documentazione trapelata suggerisce che Google tiene traccia delle revisioni delle pagine web, utilizzando gli ultimi 20 cambiamenti per influenzare il ranking. Questo dettaglio potrebbe aprire nuove strade per l’ottimizzazione SEO, spingendo i webmaster a considerare non solo la qualità del contenuto, ma anche la frequenza e la natura delle modifiche apportate alle pagine.

In definitiva, questa fuga di notizie potrebbe avere implicazioni significative per il futuro della SEO e per la trasparenza delle pratiche di Google. Invitiamo i lettori a riflettere su come queste rivelazioni potrebbero influenzare la loro strategia online e la fiducia nei grandi colossi tecnologici.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)
0 0 votes
Article Rating
Subscribe
Notificami
guest
0 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Ci interessa la tua opinione, lascia un commento!x