Фільтри Яндекса

фільтри в ЯндексіБагато вебмайстрів часто забувають той факт, що мета всіх пошукових систем полягає не в тому, щоб забезпечити сайтам високі місця в пошуку і, як наслідок, дати великий трафік, а в тому, щоб користувачі отримали якісні та релевантні результати пошуку. Як показує досвід, ці цілі часто не збігаються. У пошукових систем є безліч критеріїв фільтрації сайтів, через які багато ресурсів, часом цілком якісні і зроблені для людей, не потрапляють на перші місця пошуку, а часто і взагалі виключаються з видачі.
На жаль, багато фільтрів далекі від досконалості, тому під них потрапляють і цілком нормальні релевантні сайти, створені для людей, і на яких на перший погляд відсутні прийоми, заборонені правилами пошукової системи.

В минулій статті розповідалося про фільтри Google, тепер на черзі фільтри Яндекса. Пошукової системи на другому місці для українців, проте для вебмайстрів, які заробляють на продажу посилань, роль Яндекса є основною, а саме наявність сторінок в індексі та наявність ТІЦ (тематичного індексу цитування).

Найголовніший фільтр – це БАН, повне виключення сайту з індексу. Теоретична узагальнена причина – порушення ліцензії пошуку Яндекса. Але реальних причин може бути безліч, і далеко не всі вони очевидні на перший погляд. Ситуація ускладнюється тим, що немає відкритих і чітких “правил гри”, а служба підтримки Яндекса (Платон Щукін) украй рідко дає конкретні поради і вже точно ніколи не вказує причин накладення бана.
Найбільш ймовірна і поширена причина – пошуковий спам. Найчастіше зустрічається в перенасиченості сторінок сайту ключовими словами. Є хибна думка, згідно з якою чим більша щільність і кількість ключових слів на сторінці, тим краще для позицій сайту. Ця “істина” неактуальна вже багато років. І не просто неактуальна, а ще й дуже шкідлива.
Раніше був поширений прийом заповнення мета-тегів різними ключовими словами, в тому числі такими що не стосуються тематики сайту, але які є популярними (секс, порно і т. п.). Внаслідок цього вплив мета-тегів на пошук було мінімізовано.
Отже, найпоширеніші прийоми внутрішньої оптимізації, які Яндекс може прийняти за пошуковий спам і забанити сайт:

  • Банальне перенасичення тексту ключовими словами і фразами. Найчастіше це буває навмисне, людина пише, вираховує щільність, додає ключові слова; в підсумку виходить, що щільність ніби і, теоретично, прийнятна, а текст виходить нечитабельним. Іноді бувають випадки, коли автор сайту, захоплюючись темою, про яку він пише, ненавмисно перенасичує текст ключовими словами. Тому після написання статті потрібно її обов’язково прочитати, бажано вголос, щоб почути на слух сприйнятність тексту для людей. А перевіряти щільність різними сервісами не варто, це неінформативний показник. Але є й такі, хто як і раніше вважає, що щільність 5% – це запорука присутності в топі …
  • Публікація на сторінках сайту списків ключових слів. Було дуже поширено кілька років тому. Зараз, на щастя, багато хто усвідомлює марність і весь негатив цієї дії. Зазвичай ці списки розміщуються внизу сайту, ледве видним або взагалі невидимим кольором, що, звичайно, ускладнює ситуацію. Деякі «просунуті» вебмайстри розміщують їх вище шапки і заголовків сайту, вважаючи (знову ж, слідуючи поширеній помилці), що чим вище знаходяться ключові слова, тим більший від них ефект для просування. І отримують заслужений бан. Інші ж використовують сучасні методи верстки і розміщують ключі в div-ах, або просто невидимих ​​(display: none), або зі зміщенням за межі екрану. Але робот дивиться код сторінки, а в коді ключів не сховаєш – тому такі методи неминуче призводять до бану.
  • Публікація списків пошукових запитів. Зазвичай пишуть “на наш сайт заходять по таким запитам” або “цю сторінку можна знайти в Яндексі за запитами”. Це класичний варіант пошукового спаму! Так робити категорично не можна. Деякі CMS дозволяють робити це дуже просто, відстежуючи переходи з пошукових систем і автоматично виводячи списки запитів, за якими відвідувачі перейшли на сайт. Цю функцію потрібно відразу відключати. Або, у крайньому випадку, закривати ці блоки від індексації, а посилання в них – від переходів по ним пошукових роботів.
  • Перенасиченість ключовими словами тегів і атрибутів title, h1-h6, alt, meta keywords, meta description і т. п. Не в кількості щастя! І навіть навпаки – переспам може призвести до бану.
  • – Наявність на сайті сторінок, створених спеціально для просування по позиціях і тахих що не містять корисної для відвідувачів інформації, а також численних сторінок з перенаправленнями на інші ресурси.
  • – Наявність взагалі будь-якого прихованого тексту, у тому числі і з посиланнями, створеного не для зручності використання, а для маніпуляції результатами пошукової видачі.

Ознака бану — повне випадання сайту з пошукової видачі. Але не всяке випадання однозначно є баном. Бувають ситуації, коли сайт просто вилетів через проблеми з хостингом, через недосконалість алгоритмів яндекса, через неправильний код і т. п. Якщо раптом сайт пропав з пошукової видачі, потрібно почекати 2-3 апдейта і, якщо сайт не повернеться, написати в службу підтримки Яндекса з питанням про причини випадання. І якщо відповідь буде про порушення на сайті – потрібно ці порушення усунути і знову написати їм. Часто ці порушення бувають неочевидними навіть для самого вебмайстра, так що листування може затягнутися. Якщо пощастить, то служба підтримки натякне на конкретну причину або навіть прямо вкаже на порушення. Якщо ні, то потрібно довго думати і уважно аналізувати сайт, бажано із залученням сторонніх фахівців.
Раніше бан від простого випадання можна було відрізнити, додавши сайт в addurl Яндекса – він видавав помилку; зараз це неактуально, всі сайти додаються туди без помилки.

Наступний небезпечний фільтр яндекса – АГС (іноді цю назву розшифровують як Анти ГівноСайт). Основний симптом – в індексі залишається від 1 до 10 (рідко 30) сторінок. І стандартна відповідь служби підтримки – “Наші алгоритми прийняли рішення не включати сайт в пошук. Розвивайте сайт, і він повернеться у видачу”. Причому цю відповідь можуть надсилати навіть тоді, коли сайт змінився, і робот новий сайт навіть і не відвідував, тому в саппорт потрібно писати довго і активно, детально і без емоцій пояснюючи ситуацію.
Основною причиною цього фільтра (якщо мова йде про сайти для людей, звичайно) є дублювання контенту всередині сайту. Практично всі популярні двигунці для сайту(CMS) створюють сторінки з однаковим контентом – це можуть бути сторінки тегів, сторінки розбивки по днях, місяцях і роках, сторінки розділів з анонсами статей, що містять фрагменти текстів самих статей і т. п. Логічніше, звичайно, було б виключити з пошуку тільки дублі і залишити контент, але Яндексу, мабуть, простіше відфільтрувати практично весь сайт, чим займатися детальним аналізом його структури та вмісту.

Інші причини:

  • – Сайт, що складається на 100% з неунікальне контенту може потрапити під АГС, якщо він не представляє собою нічого цікавого для відвідувачів;
  • – “Брєдоконтент” – генеровані тексти, поганий синонімайзінг або авторерайт, автоматичний переклад і т. п. Всі такі сайти досить швидко потрапляють під фільтр. Також під нього можуть потрапити і сайти з безграмотними текстами.
  • – Відсутність контенту на сторінках сайту або його дуже мала кількість. Втім, сайт, що складається з одних тільки відеороликів і фотографій, може взагалі не проіндексуватися.
  • – Сайт, створений під продаж реклами. Якщо вебмайстер не витрачає час і сили на те, щоб надати сайту “людський” вигляд, то такий сайт практично стовідсотково потрапить під АГС.
  • – Сайт, що складається з виключно “продажних” статей. Існує думка, що продаж посилань це смерть для сайту, а ось продаж місць під статті безпечний. Насправді все навпаки – погані статті куди швидше “вб’ють” сайт, ніж розумний продаж посилань, який взагалі безпечний.

Існує безліч міфів і помилок з приводу АГС. Наприклад (пам’ятайте, це МІФИ):

  • – Якщо посилань продано більше, ніж сторінок на сайті;
  • – Якщо сайт прогнати по купі каталогів відразу;
  • – Якщо у сайту низька відвідуваність;
  • – Якщо сайт рідко оновлюється;
  • – Якщо сайт побудований на стандартному шаблоні;
  • – Якщо на хостингу або на одному айпі багато гівносайтів і т. п.

Вийти з-під АГС вкрай складно, найчастіше простіше змінити домен. Можна спробувати закрити всі дублі, перевірити сайт на унікальність контенту і, якщо знайдуться неунікальні статті, замінити їх новими унікальними. Можна наповнити сайт великою кількістю нових статей. Можна змінити структуру сайту.

Песимізація – це вимкнення посилального ранжування для конкретного сайту. Куплені і природні посилання перестають працювати, і, як наслідок, позиції різко падають. Падіння зазвичай відбувається на кілька сотень позицій, коливання в кілька десятків позицій зазвичай не пов’язані з накладеними на сайт санкціями. Всі сторінки сайту залишаються у видачі та знаходяться в пошуку, але просунути на перші позиції його неможливо, так як не працює/відключений вплив посилального ранжування.
Основна причина – присутність на сайті “лінко смітників”, каталогів посилань, не призначених для людей, а розміщених виключно з метою маніпуляції видачею. На щастя, час великих немодерованих каталогів посилань на сайтах вже пройшов, а був час, коли песимізація косила багатьох.
Якщо ви вирішили реєструвати сайт в каталогах, то в жодному разі не можна розміщувати у себе зворотні посилання або банери на ці каталоги! Толку від них буде рівно нуль, а от шанс потрапити під песимізацію дуже відчутний.
Цілком імовірна песимізація через наявність великої кількості продажних посилань (в тому числі і в статтях!) – не варто розміщувати їх більше 4-5 на сторінку.
Дуже часто сайти песимізують за розміщення занадто нав’язливої і заважаючої відвідувачам реклами. Наприклад, спливаючі вікна або занадто велика кількість тізерів на сторінках. При песимізації часто можуть обнулити ТІЦ.

Цілком можливо, що на зміну песимізації прийшов фільтр “Ти останній“, оскільки не можна провести чітку грань між ними.
Фільтр “Ти останній” схожий на Supplemental results (соплі) в Гуглі. Сайт пропадає з пошуку, залишаючись проіндексованим. У пошуку його можна знайти тільки за унікальними фразами з текстів, які на ньому розміщені, та навіть за запитом, який містить адресу сайту, він може бути не на перших місцях. При цьому підтримка Яндекса відповідає, що ранжування відбувається нормально, відповідно до його релевантності.
Для сайту відключається як посилальне ранжування, так і вплив статичної ваги (внутрішньої перелінковки, в тому числі). Як показує досвід, основна причина – це неунікальний контент на сайті, який призначений для заробітку. Причому під “Ти останній” може потрапити і першоджерело, у якого скопіювали більшу частину статей. У такому разі доведеться або замінювати свої вже неунікальні статті, або змушувати вебмайстрів копіпастерів видаляти копії, що є вкрай геморно.
Вийти з нього можна лише повністю змінивши сайт, його структуру, дизайн і т. п.

Фільтр аффіліатов. Під нього може потрапити кілька сайтів, що належать одній і тій же компанії, присвячених одній і тій же тематиці. Яндекс вважає, що в топі повинен бути тільки один сайт однієї фірми і, в теорії, це правильно. Мало того, через некоректну роботу цього фільтра з перших місць можуть випасти всі сайти, а не всі, крім одного. Фільтр аффіліатов також стосується і контекстної реклами, директу – там теж відслідковують рекламу афілійованих сайтів.
Як і всі фільтри Яндекса, фільтр аффіліатов часто працює некоректно – деякі компанії займають своїми сайтами весь топ, а іноді буває, що “склеюються” сайти зовсім різних підприємств.
Зараз не виходить відловлювати сайти однієї і тієї ж фірми ні по дизайну, ні за структурою … вебмайстри розумні і давно вже враховують ці фактори. Навіть на одній cms можна зробити кілька абсолютно різних за структурою сайтів. Я вже не кажу про дані whois для доменів – їх багато вебмайстрів роблять різними, навіть якщо сайти ніяк не пов’язані один з одним.
Під нього однозначно потрапляють партнерські сайти, які створені виключно для перенаправлення трафіку на магазини або партнерки. Визначити аффіліатов, крім усього іншого, можуть по пересічних семантичних ядрах сайтів.
Якщо є необхідність просунути в топ декілька сайтів однієї тематики, то потрібно щоб вони максимально відрізнялися один від одного:
– Whois, айпі;
– Різні cms, дизайн, структури сайтів;
– Різні контакти, вказані на сайті;
– Постаратися зробити різними семантичні ядра (крім ключових запитів);
– Відсутність взаємних посилань між цими сайтами.

На жаль, на даний момент немає достовірних способів визначення цього фільтру, так як невідомий сам алгоритм. Все це – лише припущення.
Фільтр “Ти спамний”. Офіційної інформації про його існування немає, однак прояви його були помічені і класифіковані. Він накладається не на весь сайт або домен, а на конкретну сторінку за конкретним запитом. Замість спеціально оптимізованої під даний запит сторінки видається абсолютно інша, набагато менш релевантна.
Придуманий він, як передбачається, для боротьби з “портянками” (як їх іноді завуальовано називають “сео-текстами”) – довгими текстами, насиченими ключовими словами, які були створені виключно для просування сторінок за запитами; користь їх для людей була мінімальною. Один із способів перевірки попадання під фільтр “ти спамний” – ввести в пошук відповідний запит у зміненій словоформі. Якщо в пошуку (не обов’язково на перших позиціях) не буде видана потрібна сторінка, значить, вона під фільтром. Можна також зробити пошук яндексом по своєму сайту – якщо по потрібному запиту сторінка що просувається не перша, значить, ймовірно, на неї накладено цей фільтр.
Вийти з-під фільтра непросто. Потрібно переписати весь текст, прибравши спамність ключовика, переписавши і оформивши його для людей і взагалі зменшивши його кількість. Можливо, буде потрібно після цього змінити просуваєму сторінку, її адресу.
Деякі виділяють також різновид фільтра, який накладається за “переспам” анкор-листа. Лікується його розбавленням. Швидше за все, при накладанні фільтру враховуються і внутрішні чинники (пошуковий спам на сторінці), і зовнішні чинники (переспам анкор-листа).

Непот-фільтр полягає в тому, що вага посилань з сайту (або, ймовірно, з певних його сторінок) обнуляється. Причина – велика кількість вихідних посилань, продажних або обмінних. Фільтр сайтів для дорослих (адалт-фільтр) накладається, як зрозуміло з назви, на сайти з еротичним або порнографічним змістом. Причому ця еротика може бути не в самому контенті сайту, а в рекламі, особливо в тізерних блоках. Через такі тізери пристойний сайт може потрапити під фільтр. Висновок – треба серйозно ставитися до реклами, що розміщується на сайті. Втім, були випадки накладення подібного фільтра за статті про секс в медичному чи психологічному трактуванні …

Є безліч міфів і помилок, пов’язаних з фільтрами яндекса.
Наприклад, вважається, що якщо сайт активно нарощує посилальну масу, то він потрапить в бан. Здавалося б, дуже зручний спосіб валити конкурентів. На щастя, за це сайти не банять і не фільтрують. Немає також фільтра за редирект за допомогою java-script – якщо сайт, звичайно, не створений спеціально з метою перенаправляти трафік.
Багато хто думає, що неунікальні тексти не індексуються або ж такі сайти відразу потрапляють в бан. Шкода, що вони не здогадались піти у видачу і подивитися, що там більшість сайтів не мають унікального контенту.
автор : Сергій Коломієць. Переклад і часткове доповнення з коригуванням Максим Пащенко.

На закуску боянисте відео про Яндекс і сеошників

Виявлення проблем на ринку SEO послуг

Ринок пошукового просування в останні роки розвивається дуже динамічно. З’являються нові компанії, що надають послуги оптимізації і просування сайтів, зі старих компаній співробітники йдуть у фріланс, а також на ринку seo з’являються нові оптимізатори і у кожного своя специфіка роботи. Власникам сайтів, які бажають просунутися в Яндексі або Google, складно визначитися, кому саме доручити рішення своїх завдань.

З метою збору статистики і її аналізу, виявлення тенденції взаємодії оптимізаторів з потенційними клієнтами, проведений експеримент над оптимізаторами, які пропонують свої послуги на фрілансерских сайтах.

В якості завдання було запропоновано просування сайту за кількома конкурентними запитами в Яндексі і Google. Також було дане посилання на молодий сайт, красиво оформлений, але при цьому не пристосований для просування. Запропонований сайт, теоретично, неможливо просунути в пошукових системах за допомогою стандартних методів, таких як, наприклад, покупка посилань в біржах або використання автоматичних агрегаторів (практично основна частина сайту працює на flash, сторінки не призначені для переробки їх під вибрані запити). У завданні цікавила вартість робіт, схема оплати, терміни і гарантії.

За кілька днів було отримано близько 30 заявок, які піддалися подальшому аналізу. Нижче наведена цікава статистика, яка відображає, як, в основному, ведуть себе сучасні оптимізатори.

читати далі