Site-ul tau este pasibil de o penalizare SEO Google Panda?
Continut
- 1. Ce inseamna continut de slaba calitate?
- 2. Metode prin care putem recunoaste continutul de slaba calitate intr-un site
- 2.1. Pagini cu foarte putine accesari in ultimele 12 luni
- 2.2. Pagini care au o rata de respingere foarte mare (bounce rate)
- 2.3. Pagini care au putine cuvinte (continut „subtire”) sau continut duplicat
- 2.4. Pagini care au titluri sau meta descrieri duplicate
- 3. Cum tratam continutul identificat, pentru evitarea unei penalizari SEO Google Panda (sau pentru revenirea dintr-o astfel de penalizare)
Cu peste 30 de update-uri pana in prezent, Google Panda este in topul penalizarilor care lovesc site-uri la nivel mondial. Recuperarea dupa o penalizare Google Panda este un proces costisitor si de durata, care implica o analiza amanuntita a site-ului afectat. Obiectivul acestui material este oferirea unei metodologii, a unui mod de lucru prin care puteti identifica in propriul site acele elemente de continut ce va pot atrage o penalizare Panda. In plus, gasiti in articol si actiunile pe care le puteti realiza pentru rezolvarea fiecarui caz in parte.
1. Ce inseamna continut de slaba calitate?
In mod evident, Google foloseste o serie de criterii precise si masurabile, prin care acorda unei pagini un scor de calitate mai mare sau mai mic in mod automat. Aunci cand indexeaza un site, Google vede ceva de genul acesta: o parte din pagini sunt ok (cele colorate cu verde), in timp ce altele au diverse probleme (continut duplicat, engagement scazut al utilizatorilor, rata de bounce foarte mare, etc.). De exemplu, intr-un magazin online, pagini de calitate slaba pot fii:
- pagini cu prodse slab documentate ori cu descrieri ample preluate de pe alte site-uri;
- versiuni de pagini optimizate pentru imprimare, fara o canonicalizare corecta;
- pagini de categorii sau subcategorii fara produse in ele;
- pagini de filtre fara continut, indexabile in google;
- pagini cu rezultatele de cautare din interiorul site-ului;
- etc.
In momentul in care un numar suficient de mare de pagini dintr-un site sunt considerate ca avand o calitate scazuta, acest lucru va afecta in mod negativ rankingul intregului site, adica si pozitionarea in Google a paginilor cu continut premium.
2. Metode prin care putem recunoaste continutul de slaba calitate intr-un site
In cadrul unui audit SEO complet sau ca operatiune de sine statatoare, identificarea continutului de slaba calitate dintr-un site se face la doua nivele principale:
- din punct de vedere tehnic, se verifica daca site-ul trateaza in mod corect continutul duplicat si paginile cu continut „subtire”;
- la nivel de continut, utilizam instrumente precum Google Analytics sau Omniture, Screaming Frog si Google Search Console pentru a verifica indicatorii de performanta ai paginilor.
Elementele de la punctul 1 fac obiectul unui audit tehnic, de a carui realizare este bine sa se ocupe un specialist SEO, care face acest lucru in mod curent. Procesul de auditare include actiuni specifice, in functie de platforma pe care ruleaza site-ul analizat, insa la finalizarea lui se vor obtine o serie de elemente actionabile, precum:
- lista de pagini (sau tipul de pagini, daca problema este generalizata) pe care trebuie implementat tagul rel=”canonical”;
- lista de pagini ce trebuiesc oprite de la indexare prin meta tagul robots sau prin fisierul robots.txt (acesta din urma nu functioneaza totdeauna);
- lista de pagini ce trebuiesc redirectionate cu cod 301;
- etc.
Pentru identificarea paginilor cu continut slab prin Google Analytics putem aplica o serie de filtre, precum cele din exemplele urmatoare:
2.1. Pagini cu foarte putine accesari in ultimele 12 luni
In Google Anaytics, selectati raportul „Behavior > All Pages” si apasati butonul „advanced”, aflat langa campul de cautare din partea dreapta a ecranului (in imaginea de mai jos, linkul era unde vedem acum textul „edit”, in primul dreptunghi rosu evidentiat). Realizati apoi selectia conform printscreen-ului si apasati butonul Apply. Atentie: inainte de toate selectati perioada de timp de 12 luni, pentru ca datele sa fie relevante.
In site-ul pe care am aplicat acest filtru observam (coltul din dreapta-jos) ca exista peste 92.000 de pagini care au primit mai putin de 5 accesari in ultimele 12 luni. In mod clar, continutul acestor pagini nu este suficient de interesant pentru utilizatori. Folosind optiunea de Export disponibila in Google Analytics (nu apare in ecranul de mai sus, pentru ca este deasupra partii cuprinsa in captura), putem obtine lista acestor URL-uri, in format csv.
Un programator poate utiliza aceasta lista pentru a elimina respectivele adrese din sitemap-ul generat de site pentru Google Search Console, dar si pentru a scrie o functie care sa insereze in mod dinamic tagul robots=”noindex, follow” in headerul acestor pagini. Bineinteles, a doua varianta este stergerea acestor pagini din baza de date a site-ului.
2.2. Pagini care au o rata de respingere foarte mare (bounce rate)
Aplicand filtrul exemplificat in imaginea de mai jos, observam ca site-ul analizat are 12,654 de pagini al caror bounce-rate este mai mare de 80%. Practic, majoritatea vizitatorilor (cel putin 4 din 5) care ajung pe aceste pagini le parasesc fara a mai accesa alta pagina din site. Dat fiind specificul site-ului (este nevoie de cel putin inca un click pentru a vizualiza datele de contact), putem deduce ca oamenii care le-au accesat nu au gasit informatia dorita. Din acelasi raport putem extrage si alt insight, prin aplicarea unui filtru multiplu, precum cel prezentat in imaginea de mai jos. Astfel, aflam acele pagini are au o rata de respingere mare, dar totusi atrag trafic semnificativ. De cele ai multe ori, aceste pagini merita sa fie analizate manual, pentru identificarea intentiei oamenilor care le acceseaza si a motivului pentru care acestia o parasesc atat de rapid. Din acelasi filtru putem afla spre exemplu, doar paginile de un anumit tip din site, care au o rata de respingere mare (sau alt indicator). Optiunile sunt foarte variate, iar in filtre se pot utiliza expresii regulate.
2.3. Pagini care au putine cuvinte (continut „subtire”) sau continut duplicat
Folosind Screaming Frog putem identifica acele pagini din site care au cel mai mic numar de cuvinte. Paginile cu putin continut tind sa fie mai putin apreciate de Google, lucru demonstrat si de cel mai recent studiu Searchmetrics. In exemplul de mai jos observam si ca multe pagini au exact acelasi numar de cuvinte, ceea ce poate insemna ca respectivele texte sunt duplicate. In mod evident, continutul acestor pagini trebuie revizuit manual si imbogatit, foarte importanta fiind realizare unui text unic pentru fiecare pagina in parte.
2.4. Pagini care au titluri sau meta descrieri duplicate
Informatia se poate extrage fie din Screaming Frog, fie din Google Search Console. Avantajul auditarii site-ului on-demand, cu un instrument specializat, este acela ca nu asteptam pana identifica Google problemele si le afiseaza in Search Console, ci avem o abordare proactiva. Pentru o analiza mai facila a datelor, recomandam exportul din Screaming Frog in excel, astfel incat sa putem aplica filtre mai avansate.
3. Cum tratam continutul identificat, pentru evitarea unei penalizari SEO Google Panda (sau pentru revenirea dintr-o astfel de penalizare)
Metodele indicate in acest articol sunt o parte din activitatile realizate in cadrul agentiei noastre, pentru a identifica acel continut ce poate duce la penalizarea site-ului de catre Google. Folosite individual sau in afara unui context, aceste indicatii pot duce la formularea unor concluzii gresite si implicit la luarea unor decizii SEO incorecte. Spre exemplu, filtrul sugerat la punctul 2.1. poate indica si pagini care nu au primit trafic pentru ca au fost publicate foarte recent si nu au avut inca timp sa fie indexate de Google. Tratarea acestora in acelasi fel cu cele pe care am dorit de fapt sa le identificam este o greseala. Sintetizand informatiile din acest material, putem enumera urmatoarele actiuni de realiazt, in functie de tipul de problema pe care am identificat-o:
- continut duplicat? implementare tag „rel=canonical”;
- pagini fara informatii realmente folositoare? redirect 301, 404 sau 410, in functie de caz;
- informatii ok, dar care nu trebuie sa apara in Google? vezi „robots=noindex, follow”;
- o intreaga categorie de pagini care nu trebuiesc indexate? restrictionare prin robots.txt;
- pagini aproape ok? editare manuala pentru imbunatatire continut.
Doriti un Audit SEO Avansat pentru site-ul dvs.? Aflati daca site-ul pe care il administrati a fost penalizat in cadrul update-ului Google Panda sau daca are probleme ce pot duce la o astfel de penalizare seo in viitor.