• Twitter
  • rss
  • flickr
  • Вконтакте
  • youtube
  • facebook

Підключайся!

Фільтри Google

Рубрика : інет

Google_filtersЯк у будь-пошукової системи, у Google є система фільтрації своєї видачі. Великий відсоток сайтів в інтернеті створено не для людей, а для перенаправлення трафіку на інші сайти, для впливу на пошукову видачу і т. п., отже, щоб видача пошукача була чистою, це сміття потрібно ретельно фільтрувати. Фільтрувати таким чином, щоб не постраждали нормальні сайти. Але ж немає чітких критеріїв “нормальності”, тому проблема фільтрації є складною, і вона до цих пір остаточно не вирішена. Під фільтри часто потрапляють “білі й пухнасті” сайти, і причини цього попадання визначити буває дуже складно.
Аналізуючи інформацію про фільтри (а можна аналізувати лише думки вебмайстрів, так як сам Гугл не викладає практично ніякої інформації про свої пошукові технології), чітко видно, що назв фільтрів безліч, але всі вони зводяться практично до одного – розкручуй чесно, і з сайтом буде все добре. Тому немає сенсу визначати з високою точністю, як називається накладений на сайт фільтр. Способи виходу з-під них приблизно однакові, а знання назви нічого не змінить.
1. Sandbox, пісочниця. Фільтр, з яким стикається більшість молодих сайтів. Виявляється в тому, що перші місяці роботи сайту він принципово не може зайняти перші місця у видачі, хоч як його розкручуй. Пісочниця – це не санкція, це певний випробувальний період для молодих сайтів. Причиною його введення, швидше за все, послужило бажання відсіяти короткоживучі дорвеї і не допустити їх присутності на лідируючих позиціях в результатах пошуку. До введення пісочниці деяким дорвеям достатньо було пробути на перших місцях в пошуку буквально кілька діб або навіть годин, щоб принести істотний прибуток власнику. А якщо таких сайтів багато?
Поки що сайт знаходиться в пісочниці, над ним потрібно працювати, щоб після зняття фільтру він одразу зайняв хороші позиції. Багато хто, чомусь, просто вішають на домен заглушку і чекають, але в цьому немає сенсу.
Є думка, що пісочниці не існує, і її ефект – це наслідок дії комплексу інших фільтрів, наприклад, прямого впливу віку домену або трасту. Так це чи ні зовсім не важливо, тому що ефект цілком очевидний, і його можна назвати окремим фільтром. Іноді окремо виділяють фільтр для молодих доменів.
Пісочниця загрожує лише англомовним сайтам. Уникнути пісочниці або скоротити термін перебування в ній можна кількома способами. Втім, жоден з них не дає ніякої гарантії:

  • Регулярно нарощувати якісну (по можливості, природну) посилальну масу;
  • Спочатку купити старий домен, на якому вже був віковий трастовий сайт;
  • Регулярно оновлювати сайт якісним унікальним контентом, віддавати його на rss. Займатися копіюванням текстів в інших сайтів не слід;
  • Закрити від індексації всі зайві службові сторінки сайту, залишивши лише те, що потрібно і корисно відвідувачам;
  • Не використовувати зайву текстову оптимізацію.

2. Фільтр “мінус 30“. Фільтр проти тих, хто занадто активно й агресивно просуває свій сайт. Він не покликаний повністю викинути сайт з пошуку, а створений, скоріше, для того, щоб натякнути господарям сайту на неприпустимість спамерських методів просування. Причинами його накладення можуть бути:

  • Стрімке зростання посилальної маси, особливо якщо ці посилання стоять з “сміттєвих” ресурсів – немодерованих каталогів, гостьових книг, коментарів у блогах, форумів і т. п. Тому не варто активно користуватися системами автоматичної реєстрації сайту в подібних сервісах.
  • Наявність на сайті “посилальних смітників” – великих, погано модерованих каталогів посилань, блоків рекламних посилань на сторінках, статей, опублікованих спеціально для розміщення реклами.
  • Використання в розкручуванні клоакінгу. Клоакінг – видача різного вмісту користувачам та роботам пошукової системи. Відвідувачам демонструються читаються інформативні матеріали, роботам – оптимізовані сторінки для підвищення пошукових позицій.
  • Використання редиректу за допомогою java script. Слід використовувати тільки серверні редиректи (301, 302). Звичайно ж, не будь-який java script приводить до цього фільтру, як багато хто вважає.

Позбутися від фільтра можна позбувшись від вищевказаних методів просування і не використовуючи їх у подальшому. Видаливши посилальні смітника і почистивши посилальну масу, ви знімете фільтр з сайту.

3. Google Bombing. Зупинка зростання позицій по конкретному ключовому слову. Причина – швидке зростання посилань з однаковим анкором. Доцільність його досить сумнівна, особливо стосовно некомерційних запитів. Усунути його можна, наприклад, розбавивши посилальну масу анкорами з текстовим оточенням, та й взагалі посилити її трастовими посиланнями.
Причиною введення даного фільтра був власне “гуглбомбінг” – масова закупівля посилань (найчастіше багатьма людьми) з одним текстом на певний сайт потім, щоб просунути його по якомусь абсурдного запитом. Класичний приклад – перше місце у сайту Макдональдса за запитом “ближайший общественный туалет” або у сайту Дмитра Медведєва за запитом “”злобный карлик”. Робилося це чи просто заради жарту, або для того, щоб нашкодити конкуренту або ж просто в якості вірусного маркетингу. Гуглбомбінг – наслідок алгоритму посилання ранжування, який, за наявності потужної посилальної маси, практично, не враховуючи текстове наповнення, просуває сторінки. Втім, з введенням цього фільтра позбутися даного явища повністю не вдалося.

4. Google Florida. Класичний варіант пессимізації сайту – різкого падіння позицій по всіх просуваємим запитам і, як наслідок, падіння трафіку на кілька порядків. Накладається за зайву оптимізацію сторінок – перенасиченість тексту ключовими словами, зайва їх наявність в тегах title, h1-h6, спамні мета-теги; по великому рахунку, за ті дії власника сайту, які спрямовані на його просування, а не на поліпшення з точки зору користувацької зручності. Фільтр працює не постійно, а періодично; накладається, в основному, на сайти, які обнародувані по комерційним запитам. Це призвело до того, зокрема, що на перших місцях за багатьма пошуковими запитами, навіть за найбільш дорогими з точки зору розкрутки, на перших місцях знаходяться інформаційні чи освітні сайти, а не ресурси, які вкладають у просування великі гроші.

5. Supplemental Results. Додаткові результати пошуку (“соплі”), те, що показується після кліка за посиланням “повторити пошук, включивши пропущені результати”. Головна причина цього – неунікальність у всіх розуміннях цього слова, у тому числі в рамках одного сайту, дублювання інформації. Однакові за структурою і, тим більше, за вмістом сторінки потрапляють в додаткові результати. У зарубіжному інтернеті багато хто оцінює сайти саме за відсотком вмісту сторінок в основній видачі Гугла. Якщо цей відсоток нижчий 30-40, то сайт вважається неунікальним і не дуже якісним. До накладення цього фільтра можуть призвести погано налаштовані CMS, які генерують багато дублюючих сторінок, а також сторінок, що не несуть корисної інформації користувачам. Такі сторінки, природно, або взагалі фільтруються, або потрапляють у supplemental.
Для того щоб уникнути випадання сторінок в додаткові результати, слід, в першу чергу, використовувати якісний унікальний контент. По-друге, потрібно по максимуму виключити дублювання текстів у рамках свого сайту, закрити від індексації всі дублі. Цей фільтр залежить від запиту; за одним запитом сторінка може бути в основному пошуку, по іншому – в додаткових результатах.
Вивести сторінку з-під цього фільтра можна таким чином:

  • Купівля на неї трастових посилань;
  • Унікалізація title і мета-тегів;
  • Збільшення кількості на ній унікального контенту;
  • Зменшення “битих” посилань на сайті і, як наслідок, сторінок, що видають помилку 404;
  • Правильна настройка двигунця сайту.

6. Фільтр на неунікальний контент. Може, не варто виділяти його як окреме явище, але дуже вже це масово. Сторінка, що не містить унікального контенту, потрапить на перші позиції хіба що отримавши величезну і трастову посилальну масу, та й то через довгий час. З безлічі сторінок, що містять однаковий текст, Гугл вибирає лише кілька, які і видає в основній видачі.

7. Фільтр на неробочі посилання. Позиції сайту можуть знижуватися, якщо на ньому міститься багато битих посилань і 404-сторінок. Позбутися його можна, відповідно, позбувшись від таких помилок.

8. Фільтр за довгий час завантаження сайтів. Якщо роботи Гугла не отримують швидкий відгук від сервера, позиції сайту знижуються аж до повного виключення їх з пошукового індексу. Кілька років тому від цього фільтра можна було ефективно позбутися, зменшивши розмір сторінок і зображень, що знаходяться на них. Зараз же, коли інтернет став швидкісним, і сторінка, навіть займає кілька мегабайт, завантажується дуже швидко, причини подібних затримок можуть полягати в іншому. Наприклад, в неправильно налаштованих скриптах або сервері. Тому копати треба глибше, в тому числі з’ясувати у хостера, чи не обмежується доступ до сайту для роботів пошукових систем.

9. Фільтр цитування (Co-citation Linking Filter). Суть цього фільтра зводиться до того, що посилатися треба тільки на якісні сайти, які, в свою чергу посилаються теж на нормальні ресурси. Природно, простежити весь ланцюжок посилань неможливо, відповідно, слід виходити з того, що, ставлячи на своєму сайті посилання на інший, ви рекомендуєте його відвідування своїм відвідувачам. А якщо рекомендуються погані сайти, Гугл робить висновок про те, що сам сайт теж є неякісним і таким, який не дбає про своїх користувачів.
Фільтр може накладатися на сайти, які продають посилання або місця під статті в автоматичному режимі, і власники яких не особливо ретельно фільтрують рекламні матеріали які надходять.

10. Фільтр посилальних смітників. До нього може призвести активна участь у системах автоматичного обміну посиланнями і появи на сайті великої кількості сторінок, що містять виключно посилання. Обмін посиланнями повинен бути ручним, обмінюватися потрібно тільки з обмеженим числом якісних сайтів. І первинним на самому сайті повинне бути саме його інформаційне наповнення, а не каталоги посилань, які відіграють допоміжну роль.

11. Фільтр взаємних посилань. Масовий взаємний обмін, з точки зору Гугла, це погано. Тому слід використовувати більш складні схеми обміну посиланнями, наприклад, коли перший сайт посилається на другий, другий на третій, а третій на перший. Є і більш заплутані схеми обходу фільтра.

12. Фільтр швидкого приросту контенту. Якщо сайт оновлюється дуже часто і активно, Гугл може запідозрити його у використанні генераторів або парсерів контенту і, отже, знизити його позиції або виключити з видачі. Тому при використанні подібних генераторів варто поставити обмеження на кількість доданого матеріалу за певний період часу.

13. Google Bowling. Фільтр, існування якого піддається сумніву. Суть його полягає в тому, що він відслідковує сайти, що займаються нечесною конкурентною боротьбою з метою загнати своїх конкурентів під фільтри Гугла, наприклад, масово закуповуючи неякісні посилання або розсилаючи спам.

14. Trust Rank. Ступінь довіри Гугла до конкретного сайту. Власне фільтром траст не є, але сайту з більш високим показником простіше буде досягти високих позицій. На нього впливає фактично все те, що робить сайт цікавим користувачам, у тому числі і вік сайту, який може говорити про серйозність намірів вебмастера.

Треба пам’ятати одне. Якісному сайту, який робиться для людей, який регулярно оновлюється якісною і цікавою інформацією, на який з’являються природні посилання, більшість фільтрів не загрожує.

переклад з cy-pr.com