Le 5 cose da sapere su AMP, Accelerated Mobile Pages

Una delle ultime novità che ha riguardato Google e il mondo del “search” è quella nota come AMP, che sta per Accelerated Mobile Pages.

Introdotta da Google qualche mese fa, la novità AMP ha preso il via ufficialmente lo scorso 23 febbraio, quando il motore di ricerca di Mountain View ha introdotto in alcune SERP visibili da mobile un carosello di notizie, di siti web, che usano questa tecnologia.

google-amp

Come puoi vedere dall’immagine qui sopra, nel motore vengono mostrati una serie di risultati legati ad una certa ricerca, ad una determinata query, facendo tap su uno di essi, si apre in una sorta di “iframe” interno a Google, per permetterne un caricamento più veloce.

In sostanza, la pagina viene precaricata in cache dal motore di ricerca, che dunque può mostrarla molto più velocemente agli utenti.

L’AMP migliora il posizionamento in Google?

Di per sé, no, non è un fattore di ranking, almeno direttamente parlando. Se, però, si considera che nel carosello di cui sopra entrano solo siti “AMP friendly” e che spesso Big G mette la sua novità in una posizione rilevante in SERP, ecco che indirettamente si possono ottenere un maggior numero di click.

Perché l’AMP è importante

Oltre che per un discorso legato al posizionamento in SERP indirettamente migliorato per alcune keywords, e per la possibilità di dare all’utente delle pagine web ancora più veloci, l’AMP ci fa entrare in un mondo completamente nuovo, in cui la velocità è davvero tutto.

E’ stato, per anni, un “mantra” che sia Google, che noi marketers e SEO, abbiamo ripetuto a gran voce: un sito web deve essere veloce, caricarsi all’istante e così via.

Ancora oggi, purtroppo, ci sono tanti siti non ottimizzati per mobile, benché sia una necessità assoluta averli per dare all’utente un servizio ben ottimizzato dal proprio smartphone.

Da anni Google si è reso conto che le ricerche fatte usando il telefonino erano in crescita e che presto avrebbero superato quelle fatte da computer desktop, e così è stato: era il 2014 negli States, lo scorso anno in alcune parti d’Europa, ma il trend è chiaro, è disegnato a grandi linee e sarebbe da ciechi non vederlo.

Ecco perché è fondamentale prendere in considerazione l’AMP, perché non puoi permetterti di rimanere indietro sul mercato, soprattutto uno che non trotta, ma va al galoppo più sfrenato.

L’angolo tecnico: come implementare AMP

Sta ai webmaster implementare AMP all’interno dei propri siti web.

In sostanza, si tratta di una pagina che si trova ad un indirizzo diverso da quello delle tue pagine tradizionali, ad esempio:

http://www.sito.it/amp/

Nella cartella “amp” ci saranno tutte le pagine pronte per questa nuova tecnologia.

La differenza rispetto alle classiche pagine HTML sta nella completa mancanza di javascript (tranne per alcuni casi) e in alcuni tag HTML leggermente diversi, come ad esempio quello delle immagini che non sarà più semplicemente “img” ma diventerà “amp-img”.

Si tratta, per una volta, di una soluzione un po’ tecnica da implementare rispetto al passato, per la quale se hai un portale o un sito statico, deve essere fatta manualmente, mentre se hai un blog WordPress, ci sono già a disposizione diversi plugin, tra cui l’eccellente PageFrog, che permette di personalizzare le proprie pagine AMP per cercare di farle le più belle possibili (tra l’altro, quest ultimo plugin supporta anche Facebook Instant Articles).

E’ importante, per evitare contenuti duplicati, che la pagina madre abbia anche un tag “canonical” che rimanda alla pagina madre, che invece non è ottimizzata per AMP.

pagefrog

L’AMP è per tutti i siti web?

No, non è per tutti, o meglio, si, ma dipende dalla chiave di ricerca. Facendo delle ricerche di test in rete, avrai notato come Google inserisce il suo carosello solo per determinate query, ovvero quelle dove le notizie fresche sono più importanti, in stile news.

E’ per questo motivo che se hai un sito web inserito in Google News, ad esempio, oppure se offri aggiornamenti più o meno in tempo reale su determinati argomenti, non puoi prescindere dall’AMP.

Se, invece, hai un portale web che offre informazioni generiche, (per il momento) puoi farne a meno. Ma anche in questo caso è utile andare a spulciare un po’ tra le impostazioni AMP per studiare che cosa è utile avere e cosa no, per velocizzare il caricamento dello tue pagine web da mobile e essere ancora più performante.

AMP e pubblicità, come funziona?

Questa è, ovviamene, “la” domanda madre per tutti quegli editori che vivono di pubblicità inerente i propri progetti web.

Sappiamo, infatti, che i vari Google AdSense e co. usano del codice javascript per mostrare gli annunci pubblicitari, ma abbiamo detto che questo linguaggio è bandito dall’AMP (a ragione, aggiungiamo noi, perché spesso un cattivo uso del javascript può compromettere di molto la velocità di caricamento delle pagine web).

Nessuna preoccupazione, tuttavia, perché Google ha pensato anche a questo, pensando ad un codice specifico per il suo circuito di affiliazione, “amp-ad”, che tra l’altro può anche essere reso responsive, seguendo la strada tracciata dallo stesso motore di ricerca in merito alle sue unità pubblicitarie.

Lo stesso discorso vale anche per i servizi di statistiche come Google Analytics, che pure si appoggiano ad un file javascript.

In conclusione, dove ci porterà l’AMP?

Abbiamo già capito che l’AMP è davvero importante e che non se ne può fare a meno, soprattutto per alcune categorie di siti web.

L’obiettivo di Google è quello di rendere il web un posto più veloce, quasi istantaneo, e si sta muovendo fortemente in questa direzione. E noi non possiamo certo stare a guardare né rimanere indietro.

11 cose da sapere sulle nuove Linee Guida SEO per i Webmaster

E’ davvero recente la novità da parte di Google di un “restyling” delle linee guida per i webmaster, le indicazioni di buona condotta SEO che lo stesso gigante di Mountain View dà a tutti coloro che vogliono cimentarsi con la realizzazione di un sito web.

Non più una sola pagina, ma due sezioni distinte

Se fino ad ora tutte le istruzioni per i webmaster erano incluse in una sola, lunga, pagina, ora sono distinte in due sezioni diverse: linee guida generali e quelle per la qualità. Tra le due, in California hanno aggiornato solo la prima sezione, quella sulla qualità dei contenuti sembra rimasta inalterata. Nonostante ciò, le novità sono diverse, ecco le più importanti.

Link funzionanti e pagine in HTML validato

La nuova indicazione delle linee guida dice che bisogna assicurarsi che tutti i link in uscita dal proprio sito web vadano a risorse esistenti (siti validi) e che il codice HTML della pagina sia validato secondo le indicazioni W3C. Se di linkare risorse esistenti (e utili) si è sempre parlato, per la prima volta entra in gioco, tra le varie specifiche SEO, anche la validazione del codice HTML, che farà sicuramente felici i sostenitori della tesi.

Velocizzare il tempo di caricamento di una pagina

La nuova indicazione delle linee guida per SEO dice che occorre ottimizzare i tempi di caricamento della pagina (in virtù del concetto, giusto, che un sito veloce rende gli utenti felici). Google stesso raccomanda di usare il suo PageSpeed Insights e Webpagetest.org.

Non viene definito alcun tempo di caricamento ottimale per una pagina web, quello che possiamo dire è che deve essere la più veloce possibile.

L’HTTPS è preferibile al HTTP

Una discussione che torna indietro di mesi, quella tra HTTPS, ovvero avere un sito su server sicuro, o su semplice HTTP. Se fino ad ora si propendeva a spostare i propri siti su server protetti come suggerito da Google stesso, da oggi diventerà ancora più importante perché questa indicazione è stata inserita direttamente tra le linee guida.

https

Ottimizzare il sito per vari schermi e device

Dal 21 aprile 2015, giorno del Mobilegeddon, si è parlato tantissimo di avere dei siti ottimizzati per la visualizzazione da smartphone. Quello che prima era semplicemente buon senso, da quel giorno è diventato importante.

Da oggi lo è ancora di più in seguito all’introduzione, tra le nuove linee guida di Google, dell’indicazione di ottimizzare il proprio sito per computer desktop, smartphone e tablet. All’interno della stessa tipologia di indicazione (usabilità del sito) possiamo far rientrare anche quella che invita i webmaster a pensare i propri progetti web per essere fruibili anche da parte di utenti diversamente abili, come coloro che usano degli screen reader.

Il contenuto deve essere visibile di default

Con questa indicazione si è voluto andare ad aiutare l’usabilità di un sito web. Google afferma che darà più importanza al contenuto visibile di default su una pagina web (cioè quello che si vede all’apertura della pagina stessa) piuttosto che a quello che si trova dietro delle “tab” da cliccare (benché continuerà a fare il crawling di questi contenuti).

Usare il robots.txt anche per gestire il crawling delle pagine

Se fino a ieri il file robots.txt di un sito era usato per gestire i contenuti del sito dai quali si voleva tener lontano lo spider e dare indicazione su dove si trovasse la Sitemap di un sito, da oggi questo file diventa ancora più importante e dovrebbe essere usato anche per gestire la velocità di crawling degli spider. Inoltre, bisognerebbe escludere a priori le pagine dei risultati di ricerca interni di un sito.

robots-spider

La sitemap deve essere anche in HTML

Anche in questo caso, questa novità farà felici i fautori del concetto: torna in auge la sitemap HTML, ovvero una pagina visibile dagli utenti in cui elencare le pagine più importanti del proprio sito web. Oltre che la versione XML da dare in “pasto” agli spider, bisogna realizzarne anche una versione leggibile dagli umani.

Da tenere presente che la sitemap per gli umani deve contenere, secondo le indicazioni, link che puntano alle pagine più importanti del proprio sito e non a tutte.

Tutte le pagine devono essere linkate almeno da un’altra pagina

Considerando che Google ha interessa a trovare tutte (o quasi) le pagine di un sito web e ad indicizzarle, viene chiesto ai webmaster di assicurarsi che ogni pagina sul sito sia linkata almeno da un’altra pagina indicizzata.

Non è importante che tale link sia testuale (potrebbe essere anche un immagine), ma che ci sia.

Curare la gerarchia delle pagine

La nuova indicazione di “Big G” in merito alla gerarchia di un sito è che essa deve chiara a livello concettuale.

Tra le altre cose, si vuole dare maggior risalto all’aspetto grafico di un sito, il suo design.

Troppo spesso, infatti, in passato i SEO hanno pensato principalmente all’ottimizzazione del codice tralasciando l’impatto grafico di un sito.

Non bisogna bloccare risorse utili per capire il reale contenuto di una pagina

Google invita i webmaster a non bloccare al suo spider l’accesso a file CSS e Javascript che potrebbero influire in maniera significativa sulla pagina web.

Considerando che Google effettua un rendering della pagina per cercare di “guardarla” come farebbe un utente umano, e che file CSS e Javascript possono influire su tale visualizzazione finale (basti pensare ai Javascript che nascondono del contenuto in tabelle, ne abbiamo parlato in precedenza), diventa ancora più importante permette a “Big G” di accedere a tali contenuti (nella lista, oltre ai già citati CSS e JS, sono incluse anche le immagini).

Linkare le pubblicità in noFollow

Per non andare ad influire in maniera significativa sul ranking, è importante linkare le pagine pubblicitarie che si hanno sul proprio sito web usando il tag ‘rel=”nofollow”‘ , così da dire al crawler di Google di non seguire quel determinato link.

In questo caso Google ha voluto fare una semplificazione di questo suggerimento, anche per aiutare quei webmaster che non hanno ancora chiaro in che maniera un link pubblicitario può influire sul posizionamento finale di un sito web.

nofollow

Le nostre conclusioni

Ci sono diversi miglioramenti in questa versione delle linee guida di Google, la maggior parte dei quali va ad incrementare in generale l’usabilità di un sito web. Quando consideriamo alcuni punti in particolare, come la sitemap HTML o i contenuti visibili di default, ci viene da pensare che Google stia continuando forte sulla strada di equiparare il proprio spider ad un essere umano: entrambi devono “vedere” la stessa cosa.

Nessuna novità eclatante, se non il fatto che le linee guida della qualità non sono state per nulla modificate.

In ogni caso, degli utili miglioramenti, ci aspettiamo ulteriori novità in futuro.

Google sbarca in casa nostra con l’acquisto di Nest Labs

La continua voglia d’innovazione tecnologica, dettata anche dalla viva concorrenza di mercato, ha portato di recente ad un nuovo acquisto da parte del colosso di Mountain View, Google. Sempre competitiva, specie dopo l’ultimo colpo di mercato acquisendo la Motorola, ha annunciato l’acquisto di Nest Labs società specializzata nella produzione di termostati per abitazioni controllabili in remoto tramite un abituale smartphone e una App realizzata ad hoc.

Un investimento che pesa al colosso dei motori di ricerca ben 3,2 miliardi di dollari che vedrà, Tony Fadell fondatore nel 2010 della Nest, punto principale e guida della società. Quest’ultimo, grande esperto di tecnologia, nutrì la sua esperienza come capo nel team di sviluppo della Apple, partecipando alla realizzazione delle prime edizioni di iPhone e iPod.

Lo stesso Tony Fadell, in un recente comunicato, afferma:

<< Siamo entusiasti di unirci a Google. L’azienda ha le risorse, la scala globale per accelerare la crescita della Nest aiutandoci ad assumere una posizione migliore per costruire i nostri progetti, realizzare all’apparenza semplici dispositivi ma nel contesto stesso complessi e innovativi, nel far diventare le case intelligenti e avere un impatto positivo sul mondo. >>

Questa nuova strategia rappresenta la crescente voglia del colosso di Mountain View, di posizionarsi con fermezza nei settori diversi da quelli dei motori di ricerca; chiave di capitale della società. Negli anni precedenti, infatti, la stessa Google, è diventata primaria concorrente nel mercato degli smartphone con la diffusione del SO Android, acquisendo il produttore leggendario di telefonia mobile Motorola per il lancio di un prodotto proprietario e nella realizzazione dei famosi Google Glass, prossimi alla libera vendita.

La scelta di affiancare due società, apparentemente diverse, vede l’unificazione dei motori di ricerca con la domotica. Questo, secondo la Cisco System società leader mondiale del networking, il numero di dispositivi connessi alla rete crescerà in modo vertiginoso già dai prossimi 5 anni. A quanto pare, non solo i dispositivi a cui siamo abituati quali, notebook e smartphone, sfrutteranno la connettività internet ma anche la propria abitazione, in modo da percepire le reali abitudini di chi vi abita.

Non è ancora chiaro come Google sfrutterà a pieno le conoscenze, l’esperienza e i raffinati progetti realizzati dalla Nest Labs, prodotti che puntano a incrementare il più possibile l’automazione domestica con il controllo in remoto attraverso dispositivi che memorizzano le preferenze dell’utente. Ora, indubbiamente, l’azienda di Mountain View avrà una propria partecipazione nel settore dello Smart House grazie ad un’azienda presente e afferrata da diversi anni.

Il futuro della ricerca sul web

La seconda conferenza di ionSearch 2013, che si è tenuta a Leeds, ha visto sul palco un’oratore d’eccellenza che ha illustrato la sua personale visione sul futuro della ricerca sul web. Marcus Tandler, che dirige un’agenzia SEO a Monaco di Baviera, ha snocciolato quasi 500 slide che illustravano, in modo tal volta ironico, il futuro della ricerca via web. L’esperto SEO, con fare da cabarettista consumato, è riuscito a introdurre e spiegare concetti che risultano ostici anche ai più esperti, rendendo un argomento decisamente specifico sotto forma di racconto, facile da seguire e perfino divertente.

Questo grazie anche alle numerose slide ironiche che avevano come protagonista una Britney Spears prima e dopo la sua recente crisi e uno scanzonato Justin Bieber. Ma nulla di dissacrante, solo un escamotage, molto ben riuscito, per chiarire concetti altrimenti poco appetibili alla platea. Marcus, dopo una simpatica presentazione della sua persona, ha iniziato a spiegare l’evoluzione della ricerca sul web. Ha mostrato le diapositive inerenti i primi prodromi di motore di ricerca, l’ormai quasi sconosciuto Excite, il quasi dimenticato Lycos e un giovane, ma promettente, Google.

Google ha rivoluzionato il metodo della ricerca sul web, introducendo una serie di indicazioni e strumenti. Ecco che entrano in scena i ranking factor, cioè quella serie di parametri di cui Google tiene conto per posizionare una pagina nella SERP e di conseguenza si arriva a una Page Rank, la reputazione di una pagina. Tutto questo perché, a giudicare i contenuti, entrano in gioco gli spider, i temutissimi logaritmi che Google sfrutta per stilare la sua classifica, ben conosciuto oggi Google Pinguin.

Per posizionare una pagina sul motore di ricerca Google occorre quindi rispettare tali parametri. Ma non solo, è ora necessario fare tutto un lavoro, che va sotto il nome di SEM, Search engine marketing, di cui la SEO è solo un aspetto, per posizionare la pagina, ma anche per non venire penalizzati. Naturalmente i grandi brand, in questo scenario sono i favoriti. Sono infatti loro che possono permettersi grosse campagne di web marketing che sfruttano i nuovo “accessori” firmati Google, Adsense e Adword che si basano su campagne di pay to click. Ma quello che ci si chiede è se tutto questo, nel futuro, scomparirà o se gli esperti SEO avranno ancora un senso.

Marcus Tandler è molto chiaro in questo senso, il futuro avrà sempre più bisogno di queste figure. Intanto, dopo il monopolio di Google, che in breve tempo è diventato il motore di ricerca più utilizzato, la ricerca si è ulteriormente raffinata. Se prima si inserivano una o due parole che generavano una serie di risultati, talvolta anche incongrui con la domanda, oggi il trend va verso la precisione assoluta. Google risponderà alle esigenze dell’utente ancora prima che questo formuli la domanda. Così detto c’è da avere paura, ma come spiega Tandler, abbozzando un sorriso, non si tratta di complotti o spionaggio in stile Big Brother.

Semplicemente, poiché il futuro del web viaggia sui device mobili, Google raccoglierà una serie di informazioni sul nostro conto, come dove e come ci spostiamo, utilizzando sia le nostre ricerche sul web che i geolocalizzatori connessi al nostro device mobile. In questo modo se dovessimo utilizzare la metro tutti i martedì, Google potrà, per esempio avvisare su possibili ritardi, scioperi o disservizi.

Hummingbird: la nuova frontiera dei motori di ricerca.

In concomitanza con il suo 15 ° compleanno (Approfondimento 1 – Il compleanno),  Google ha rivelato l’introduzione in rete di un nuovo algoritmo di ricerca, chiamato Hummingbird (Colibrì) . Il nuovo algoritmo è stato progettato dall’azienda di Mountain View per rispondere in maniera più veloce ed efficace alle richieste sempre più complesse degli utenti.

Anche se  l’annuncio ufficiale di Hummingbird è stato fatto la scorsa settimana , Google ha iniziato la sua sperimentazione in campo circa un mese fa. A differenza degli aggiornamenti messi in opera nel corso degli anni sull’algorimo esistente, Hammingbird ne è una sostituzione completa. Di fatto è la prima volta dal 2001 in cui l’algoritmo di Google viene modificato in maniera così profonda.

Ma quali sono i maggiori cambiamenti per utenti e sviluppatori?

L’idea che sta dietro ad Hummingbird è quella di prestare sempre maggiore attenzione all’intera frase di una query, piuttosto che soffermarsi su ogni singola parola.  L’obiettivo finale è chiaro: le pagine elencate dal motore come risultato dovranno corrispondere al meglio al significato semantico della frase, con particolare attenzione all’intento  dell’utente.

Il cambiamento si è reso necessario date le mutate abitudini degli utenti riguardo ai motori di ricerca; attualmente infatti le persone tendono a fare un tale affidamento su Google, da digitare come query lunghe frasi in linguaggio naturale, invece della tradizionale sequenza di parole relative a tematiche specifiche. Inoltre, con l’avvento della tecnologia di riconoscimento vocale e dell’uso massivo degli smartphonela presentazione delle query si avvicina sempre più alla sequenza di frasi di una conversazione in corso . Hummingbird rappresenta una decisa espansione delle capacità logiche di Google, basata sull’arricchimento del suo grafo della conoscenze,  in modo da meglio comprendere le relazioni tra query di ricerca e documenti web.

Dal punto di vista degli sviluppatori, i cambiamenti potrebbero avere un impatto importante sul traffico verso i siti web , anche se, dopo questo primo mese di test, le modifiche non sembrano tali da destare troppe lamentele da parte dei webmaster. Al contrario, l’ultimo aggiornamento effettuato in ordine di tempo, aveva  suscitato un forte clamore, perché esplicitamente focalizzato a penalizzare i siti web la cui visibilità era stata ottenuta in maniera ingannevole. Tutto questo in accordo con la filosofia di Google, che da sempre pone in primo piano l’esperienza positiva dei suoi utenti. (Approfondimento 2 – Le dieci verità di Google)

La nuova mossa di Google verso la ricerca semantica avvantaggerà comunque le buone pratiche di SEO,  aprendo notevolmente gli orizzonti di aziende e webmaster . Dal punto di vista pratico, l’ottimizzazione di un sito dovrà puntare sempre più sulla qualità, individuando proposizioni di marketing  uniche e specifiche di ogni business e fornendo le risposte che gli utenti stanno effettivamente cercando.

Per acquisire autorevolezza diventerà ancora più importante la condivisione di contenuti di valore tramite social network  e specifici influenzatori del web. Questo processo richiede tempo e impegno per la costruzione di rapporti di fiducia con influenzatori accreditati, condividendo con loro contenuti  di reale valore.  L’ottimizzazione frettolosa dei siti, con l’aggiunta di qualche parola chiave o link sembra ormai storia del passato. (Approfondimento 3 – Hummingbird su HuffingtonPost)

Tutto quello che dovete sapere sull’AuthorRank

Al giorno d’oggi, la maggior parte delle iniziative commerciali adopera gli strumenti online offerti da Google.

Il SEO, o Search Engine Optimization, si basa infatti su regole conosciute e permette agli addetti del settore di incrementare la visibilità del proprio sito web attraverso una serie di passi più o meno complessi. Uno degli elementi del SEO che ha tardato a farsi unanimemente accettare è la presenza su Google+, social network di Mountain View e prodotto fortemente integrato nei meccanismi del più noto motore di ricerca al mondo.

Uno degli aspetti più interessanti di Google+ è Google Autorship, nonché il  l’imparentato algoritmo Author Rank. Approssimando una definizione, Autorship permette di collegare il proprio profilo personale ad uno specifico contenuto del web; AuthorRank è invece il sistema attraverso il quale viene verificata l’affidabilità ed il “valore di autorità” degli autori, il cui risultato influenzerà gli stessi risultati di Google.

AuthorRank costituisce dunque un aspetto innovativo del motore di ricerca Google, il quale coinvolgerà direttamente gli autori, assegnandogli un punteggio SEO così come già avviene per i siti e le pagine. Tra i fattori che incidono maggiormente su tale aspetto, possono trovarsi:

  • Presenza del post su Google+;
  • Backlink di qualità al proprio contenuto (e cioè provenienti da siti web con alta reputazione quali Wikipedia, ecc.);
  • Commenti e condivisioni dei propri contenuti: in altre parole, la quota di engagement;
  • Reputazione e livello di autorità su altri social network;
  • Il PageRank specifico del contenuto, vale a dire il punteggio riscosso attraverso l’utilizzo delle classiche regole SEO.

In altre parole, Google assegnerà un valore agli autori misurandone l’affidabilità. I principali effetti di questa nuova implementazione saranno di diverso tipo: da un lato è facilmente prevedibile un grande incremento nell’utilizzo dei servizi offerti da Google+, dall’altro un maggior coinvolgimento social in senso lato, vale a dire attraverso altri social network che possano veicolare la diffusione di contenuto. Un’ottima spiegazione delle linee generale di Author Rank può essere reperita su Search Engine Watch.

Recentemente il concetto di Author Rank è tornato alla ribalta in seguito alle dichiarazioni del famoso capo del Web Spam Team di Google, Matt Cutts. Ad una domanda con la quale veniva chiesta un’anticipazione sull’implementazione del concetto di rel=”author”, vale a dire un utilizzo maggiormente soggettivizzato e personalizzato del web ranking, Cutts risponde confermando l’interesse della società di Mountain View per quanto riguarda l’idea. Per un maggior approfondimento su quanto detto da Cutts, ci si può rivolgere all’ottimo sito di Giorgio Taverniti.

È già da tempo che Google sta dando rilevanza all’affidabilità degli autori, in modo da garantire maggior valore ai propri contenuti nonché da garantire un maggiorengagement sugli stessi, ma la prossima implementazione di rel=”author” corrisponderebbe ad un gigantesco passo in avanti nella lotta allo spam e nell’attribuzione di riconoscimento ai contenuti prodotti da uno specifico utente.

Affermarsi come autore di qualità sul web non è affatto un processo semplice, e la tecnica dell’AuthorRank potrebbe costituire un ottimo strumento nelle mani di Google per spingere gli stessi autori a svolgere un lavoro più efficace. Se infatti, da un lato, l’autore alla ricerca di un punteggio migliore avrà un ritorno personale in termini di ranking, dall’altro sarà lo stesso web a beneficiarne, avendo a disposizione risorse di qualità più elevata.

 

Google Panda e Penguin: nuovi update nel 2013

Vita breve per i furbi della rete. L’annuncio é stato lanciato dal capo della squadra di Google, Matt Cutts, durante una sessione della conferenza del Search Marketing Expo tenutasi a San Jose.

Uno dei buoni propositi per il 2013, infatti, é continuare la lotta alla pratiche scorrette di posizionamento e ai siti di bassa qualità grazie agli aggiornamenti di Google Panda e Penguin.

Google Plus si trasforma e con lui anche Local: novità per il posizionamento

Google Plus ha subito un nuovo cambiamento pochi giorni fa e ha assunto una nuova veste grafica che lo rende più accattivante. La copertina è più grande, la posizione dell’avatar cambia sulla sinistra e non oscura più la foto di sfondo. In questo senso richiama il layout di facebook con la differenza che l’immagine ha una dimensione (2120×1192 px) maggiore rispetto al social blu.