• Twitter
  • rss
  • flickr
  • Вконтакте
  • youtube
  • facebook

Підключайся!

Фільтри Яндекса

1 коментар

Рубрика : інет, Переклади

фільтри в ЯндексіБагато вебмайстрів часто забувають той факт, що мета всіх пошукових систем полягає не в тому, щоб забезпечити сайтам високі місця в пошуку і, як наслідок, дати великий трафік, а в тому, щоб користувачі отримали якісні та релевантні результати пошуку. Як показує досвід, ці цілі часто не збігаються. У пошукових систем є безліч критеріїв фільтрації сайтів, через які багато ресурсів, часом цілком якісні і зроблені для людей, не потрапляють на перші місця пошуку, а часто і взагалі виключаються з видачі.
На жаль, багато фільтрів далекі від досконалості, тому під них потрапляють і цілком нормальні релевантні сайти, створені для людей, і на яких на перший погляд відсутні прийоми, заборонені правилами пошукової системи.

В минулій статті розповідалося про фільтри Google, тепер на черзі фільтри Яндекса. Пошукової системи на другому місці для українців, проте для вебмайстрів, які заробляють на продажу посилань, роль Яндекса є основною, а саме наявність сторінок в індексі та наявність ТІЦ (тематичного індексу цитування).

Найголовніший фільтр – це БАН, повне виключення сайту з індексу. Теоретична узагальнена причина – порушення ліцензії пошуку Яндекса. Але реальних причин може бути безліч, і далеко не всі вони очевидні на перший погляд. Ситуація ускладнюється тим, що немає відкритих і чітких “правил гри”, а служба підтримки Яндекса (Платон Щукін) украй рідко дає конкретні поради і вже точно ніколи не вказує причин накладення бана.
Найбільш ймовірна і поширена причина – пошуковий спам. Найчастіше зустрічається в перенасиченості сторінок сайту ключовими словами. Є хибна думка, згідно з якою чим більша щільність і кількість ключових слів на сторінці, тим краще для позицій сайту. Ця “істина” неактуальна вже багато років. І не просто неактуальна, а ще й дуже шкідлива.
Раніше був поширений прийом заповнення мета-тегів різними ключовими словами, в тому числі такими що не стосуються тематики сайту, але які є популярними (секс, порно і т. п.). Внаслідок цього вплив мета-тегів на пошук було мінімізовано.
Отже, найпоширеніші прийоми внутрішньої оптимізації, які Яндекс може прийняти за пошуковий спам і забанити сайт:

  • Банальне перенасичення тексту ключовими словами і фразами. Найчастіше це буває навмисне, людина пише, вираховує щільність, додає ключові слова; в підсумку виходить, що щільність ніби і, теоретично, прийнятна, а текст виходить нечитабельним. Іноді бувають випадки, коли автор сайту, захоплюючись темою, про яку він пише, ненавмисно перенасичує текст ключовими словами. Тому після написання статті потрібно її обов’язково прочитати, бажано вголос, щоб почути на слух сприйнятність тексту для людей. А перевіряти щільність різними сервісами не варто, це неінформативний показник. Але є й такі, хто як і раніше вважає, що щільність 5% – це запорука присутності в топі …
  • Публікація на сторінках сайту списків ключових слів. Було дуже поширено кілька років тому. Зараз, на щастя, багато хто усвідомлює марність і весь негатив цієї дії. Зазвичай ці списки розміщуються внизу сайту, ледве видним або взагалі невидимим кольором, що, звичайно, ускладнює ситуацію. Деякі «просунуті» вебмайстри розміщують їх вище шапки і заголовків сайту, вважаючи (знову ж, слідуючи поширеній помилці), що чим вище знаходяться ключові слова, тим більший від них ефект для просування. І отримують заслужений бан. Інші ж використовують сучасні методи верстки і розміщують ключі в div-ах, або просто невидимих ​​(display: none), або зі зміщенням за межі екрану. Але робот дивиться код сторінки, а в коді ключів не сховаєш – тому такі методи неминуче призводять до бану.
  • Публікація списків пошукових запитів. Зазвичай пишуть “на наш сайт заходять по таким запитам” або “цю сторінку можна знайти в Яндексі за запитами”. Це класичний варіант пошукового спаму! Так робити категорично не можна. Деякі CMS дозволяють робити це дуже просто, відстежуючи переходи з пошукових систем і автоматично виводячи списки запитів, за якими відвідувачі перейшли на сайт. Цю функцію потрібно відразу відключати. Або, у крайньому випадку, закривати ці блоки від індексації, а посилання в них – від переходів по ним пошукових роботів.
  • Перенасиченість ключовими словами тегів і атрибутів title, h1-h6, alt, meta keywords, meta description і т. п. Не в кількості щастя! І навіть навпаки – переспам може призвести до бану.
  • – Наявність на сайті сторінок, створених спеціально для просування по позиціях і тахих що не містять корисної для відвідувачів інформації, а також численних сторінок з перенаправленнями на інші ресурси.
  • – Наявність взагалі будь-якого прихованого тексту, у тому числі і з посиланнями, створеного не для зручності використання, а для маніпуляції результатами пошукової видачі.

Ознака бану — повне випадання сайту з пошукової видачі. Але не всяке випадання однозначно є баном. Бувають ситуації, коли сайт просто вилетів через проблеми з хостингом, через недосконалість алгоритмів яндекса, через неправильний код і т. п. Якщо раптом сайт пропав з пошукової видачі, потрібно почекати 2-3 апдейта і, якщо сайт не повернеться, написати в службу підтримки Яндекса з питанням про причини випадання. І якщо відповідь буде про порушення на сайті – потрібно ці порушення усунути і знову написати їм. Часто ці порушення бувають неочевидними навіть для самого вебмайстра, так що листування може затягнутися. Якщо пощастить, то служба підтримки натякне на конкретну причину або навіть прямо вкаже на порушення. Якщо ні, то потрібно довго думати і уважно аналізувати сайт, бажано із залученням сторонніх фахівців.
Раніше бан від простого випадання можна було відрізнити, додавши сайт в addurl Яндекса – він видавав помилку; зараз це неактуально, всі сайти додаються туди без помилки.

Наступний небезпечний фільтр яндекса – АГС (іноді цю назву розшифровують як Анти ГівноСайт). Основний симптом – в індексі залишається від 1 до 10 (рідко 30) сторінок. І стандартна відповідь служби підтримки – “Наші алгоритми прийняли рішення не включати сайт в пошук. Розвивайте сайт, і він повернеться у видачу”. Причому цю відповідь можуть надсилати навіть тоді, коли сайт змінився, і робот новий сайт навіть і не відвідував, тому в саппорт потрібно писати довго і активно, детально і без емоцій пояснюючи ситуацію.
Основною причиною цього фільтра (якщо мова йде про сайти для людей, звичайно) є дублювання контенту всередині сайту. Практично всі популярні двигунці для сайту(CMS) створюють сторінки з однаковим контентом – це можуть бути сторінки тегів, сторінки розбивки по днях, місяцях і роках, сторінки розділів з анонсами статей, що містять фрагменти текстів самих статей і т. п. Логічніше, звичайно, було б виключити з пошуку тільки дублі і залишити контент, але Яндексу, мабуть, простіше відфільтрувати практично весь сайт, чим займатися детальним аналізом його структури та вмісту.

Інші причини:

  • – Сайт, що складається на 100% з неунікальне контенту може потрапити під АГС, якщо він не представляє собою нічого цікавого для відвідувачів;
  • – “Брєдоконтент” – генеровані тексти, поганий синонімайзінг або авторерайт, автоматичний переклад і т. п. Всі такі сайти досить швидко потрапляють під фільтр. Також під нього можуть потрапити і сайти з безграмотними текстами.
  • – Відсутність контенту на сторінках сайту або його дуже мала кількість. Втім, сайт, що складається з одних тільки відеороликів і фотографій, може взагалі не проіндексуватися.
  • – Сайт, створений під продаж реклами. Якщо вебмайстер не витрачає час і сили на те, щоб надати сайту “людський” вигляд, то такий сайт практично стовідсотково потрапить під АГС.
  • – Сайт, що складається з виключно “продажних” статей. Існує думка, що продаж посилань це смерть для сайту, а ось продаж місць під статті безпечний. Насправді все навпаки – погані статті куди швидше “вб’ють” сайт, ніж розумний продаж посилань, який взагалі безпечний.

Існує безліч міфів і помилок з приводу АГС. Наприклад (пам’ятайте, це МІФИ):

  • – Якщо посилань продано більше, ніж сторінок на сайті;
  • – Якщо сайт прогнати по купі каталогів відразу;
  • – Якщо у сайту низька відвідуваність;
  • – Якщо сайт рідко оновлюється;
  • – Якщо сайт побудований на стандартному шаблоні;
  • – Якщо на хостингу або на одному айпі багато гівносайтів і т. п.

Вийти з-під АГС вкрай складно, найчастіше простіше змінити домен. Можна спробувати закрити всі дублі, перевірити сайт на унікальність контенту і, якщо знайдуться неунікальні статті, замінити їх новими унікальними. Можна наповнити сайт великою кількістю нових статей. Можна змінити структуру сайту.

Песимізація – це вимкнення посилального ранжування для конкретного сайту. Куплені і природні посилання перестають працювати, і, як наслідок, позиції різко падають. Падіння зазвичай відбувається на кілька сотень позицій, коливання в кілька десятків позицій зазвичай не пов’язані з накладеними на сайт санкціями. Всі сторінки сайту залишаються у видачі та знаходяться в пошуку, але просунути на перші позиції його неможливо, так як не працює/відключений вплив посилального ранжування.
Основна причина – присутність на сайті “лінко смітників”, каталогів посилань, не призначених для людей, а розміщених виключно з метою маніпуляції видачею. На щастя, час великих немодерованих каталогів посилань на сайтах вже пройшов, а був час, коли песимізація косила багатьох.
Якщо ви вирішили реєструвати сайт в каталогах, то в жодному разі не можна розміщувати у себе зворотні посилання або банери на ці каталоги! Толку від них буде рівно нуль, а от шанс потрапити під песимізацію дуже відчутний.
Цілком імовірна песимізація через наявність великої кількості продажних посилань (в тому числі і в статтях!) – не варто розміщувати їх більше 4-5 на сторінку.
Дуже часто сайти песимізують за розміщення занадто нав’язливої і заважаючої відвідувачам реклами. Наприклад, спливаючі вікна або занадто велика кількість тізерів на сторінках. При песимізації часто можуть обнулити ТІЦ.

Цілком можливо, що на зміну песимізації прийшов фільтр “Ти останній“, оскільки не можна провести чітку грань між ними.
Фільтр “Ти останній” схожий на Supplemental results (соплі) в Гуглі. Сайт пропадає з пошуку, залишаючись проіндексованим. У пошуку його можна знайти тільки за унікальними фразами з текстів, які на ньому розміщені, та навіть за запитом, який містить адресу сайту, він може бути не на перших місцях. При цьому підтримка Яндекса відповідає, що ранжування відбувається нормально, відповідно до його релевантності.
Для сайту відключається як посилальне ранжування, так і вплив статичної ваги (внутрішньої перелінковки, в тому числі). Як показує досвід, основна причина – це неунікальний контент на сайті, який призначений для заробітку. Причому під “Ти останній” може потрапити і першоджерело, у якого скопіювали більшу частину статей. У такому разі доведеться або замінювати свої вже неунікальні статті, або змушувати вебмайстрів копіпастерів видаляти копії, що є вкрай геморно.
Вийти з нього можна лише повністю змінивши сайт, його структуру, дизайн і т. п.

Фільтр аффіліатов. Під нього може потрапити кілька сайтів, що належать одній і тій же компанії, присвячених одній і тій же тематиці. Яндекс вважає, що в топі повинен бути тільки один сайт однієї фірми і, в теорії, це правильно. Мало того, через некоректну роботу цього фільтра з перших місць можуть випасти всі сайти, а не всі, крім одного. Фільтр аффіліатов також стосується і контекстної реклами, директу – там теж відслідковують рекламу афілійованих сайтів.
Як і всі фільтри Яндекса, фільтр аффіліатов часто працює некоректно – деякі компанії займають своїми сайтами весь топ, а іноді буває, що “склеюються” сайти зовсім різних підприємств.
Зараз не виходить відловлювати сайти однієї і тієї ж фірми ні по дизайну, ні за структурою … вебмайстри розумні і давно вже враховують ці фактори. Навіть на одній cms можна зробити кілька абсолютно різних за структурою сайтів. Я вже не кажу про дані whois для доменів – їх багато вебмайстрів роблять різними, навіть якщо сайти ніяк не пов’язані один з одним.
Під нього однозначно потрапляють партнерські сайти, які створені виключно для перенаправлення трафіку на магазини або партнерки. Визначити аффіліатов, крім усього іншого, можуть по пересічних семантичних ядрах сайтів.
Якщо є необхідність просунути в топ декілька сайтів однієї тематики, то потрібно щоб вони максимально відрізнялися один від одного:
– Whois, айпі;
– Різні cms, дизайн, структури сайтів;
– Різні контакти, вказані на сайті;
– Постаратися зробити різними семантичні ядра (крім ключових запитів);
– Відсутність взаємних посилань між цими сайтами.

На жаль, на даний момент немає достовірних способів визначення цього фільтру, так як невідомий сам алгоритм. Все це – лише припущення.
Фільтр “Ти спамний”. Офіційної інформації про його існування немає, однак прояви його були помічені і класифіковані. Він накладається не на весь сайт або домен, а на конкретну сторінку за конкретним запитом. Замість спеціально оптимізованої під даний запит сторінки видається абсолютно інша, набагато менш релевантна.
Придуманий він, як передбачається, для боротьби з “портянками” (як їх іноді завуальовано називають “сео-текстами”) – довгими текстами, насиченими ключовими словами, які були створені виключно для просування сторінок за запитами; користь їх для людей була мінімальною. Один із способів перевірки попадання під фільтр “ти спамний” – ввести в пошук відповідний запит у зміненій словоформі. Якщо в пошуку (не обов’язково на перших позиціях) не буде видана потрібна сторінка, значить, вона під фільтром. Можна також зробити пошук яндексом по своєму сайту – якщо по потрібному запиту сторінка що просувається не перша, значить, ймовірно, на неї накладено цей фільтр.
Вийти з-під фільтра непросто. Потрібно переписати весь текст, прибравши спамність ключовика, переписавши і оформивши його для людей і взагалі зменшивши його кількість. Можливо, буде потрібно після цього змінити просуваєму сторінку, її адресу.
Деякі виділяють також різновид фільтра, який накладається за “переспам” анкор-листа. Лікується його розбавленням. Швидше за все, при накладанні фільтру враховуються і внутрішні чинники (пошуковий спам на сторінці), і зовнішні чинники (переспам анкор-листа).

Непот-фільтр полягає в тому, що вага посилань з сайту (або, ймовірно, з певних його сторінок) обнуляється. Причина – велика кількість вихідних посилань, продажних або обмінних. Фільтр сайтів для дорослих (адалт-фільтр) накладається, як зрозуміло з назви, на сайти з еротичним або порнографічним змістом. Причому ця еротика може бути не в самому контенті сайту, а в рекламі, особливо в тізерних блоках. Через такі тізери пристойний сайт може потрапити під фільтр. Висновок – треба серйозно ставитися до реклами, що розміщується на сайті. Втім, були випадки накладення подібного фільтра за статті про секс в медичному чи психологічному трактуванні …

Є безліч міфів і помилок, пов’язаних з фільтрами яндекса.
Наприклад, вважається, що якщо сайт активно нарощує посилальну масу, то він потрапить в бан. Здавалося б, дуже зручний спосіб валити конкурентів. На щастя, за це сайти не банять і не фільтрують. Немає також фільтра за редирект за допомогою java-script – якщо сайт, звичайно, не створений спеціально з метою перенаправляти трафік.
Багато хто думає, що неунікальні тексти не індексуються або ж такі сайти відразу потрапляють в бан. Шкода, що вони не здогадались піти у видачу і подивитися, що там більшість сайтів не мають унікального контенту.
автор : Сергій Коломієць. Переклад і часткове доповнення з коригуванням Максим Пащенко.

На закуску боянисте відео про Яндекс і сеошників

Рекомендації та основи розробки сателітів

1 коментар

Рубрика : Переклади

1. Визначення понять

Під терміном “сателіт” зазвичай розуміється два варіанти сайтів:
– Допоміжні сайти, створені для просування основного сайту (для розміщення посилань замість того, щоб купувати їх на сторонніх сайтах);
– Сайти, створені спеціально з метою заробітку на біржах посилань і статей.
По суті, вони нічим не відрізняються один від одного, тільки своїм призначенням, тому й не будемо їх розділяти.
Деякі вважають, що сателіт – це якісний сайт, нехай і створений не для людей. А гівносайт – це щось генероване, нечитабельне, жахливо виглядає, і теж зроблене з метою заробітку. Не будемо розділяти ці поняття, тут немає чіткої межі. Все, що не для людей – гівносайт.
Про відмінності сателіта від повноцінного сайту для людей можна говорити довго, все одно важко прийти до одного конкретного висновку. Суть в тому, що СДЛ робляться дійсно в першу чергу для людей, для їх зручності та інтересу. А сателіти не для людей. Все просто.

2. Види контенту

2.1. Копіпаст.
Найпростіший варіант. Пишеться парсер, який копіює контент з інших сайтів на ваш сателіт. Всупереч поширеній помилці, копіпаст відмінно індексується. Не розумію, звідки взялася думка про те, що він не індексується і не виходить на перші місця в пошуку – досить глянути в топ і побачити величезну кількість дублів в топі. Як показує досвід, вид контенту не впливає на швидкість первісної індексації.

Переваги:
– Простота. Контенту в інтернеті море, вистачить на мільйони сателітів;
– Якість контенту. Якщо акуратно парсити якісні сайти, то контент буде нехай і не унікальним, зате цікавим, актуальним, що може дозволити заробляти також і на реальних відвідувачах.

Недоліки:
– Ймовірне порушення авторських прав. Щоб не порушувати закон, потрібно шукати сайти, які дозволяють копіювання інформації при виконанні умов їх ліцензії. Звичайно потрібна просто установка активного посилання на сайт-джерело.
– Велика вірогідність бана сайту пошуковими системами, якщо копіювання інформації буде примітивним. Сайту потрібно надати “людиноподібний” вигляд, інтерактивність і т. п., щоб збільшити його час життя в пошуку.

Різновиди – парсинг варезника
Не для моралістів і тих, хто дотримується законів авторського права. Девіз – грабуй награбоване. Варезника – сайт, де розміщені піратські ігри, фільми, програми і т. п. Зазвичай вони робляться на системі управління сайтами DLE, під яку існує багато парсерів. Суть їх роботи зводиться до того, що його треба “нацькувати” на потрібний варезника, він сам збирає з нього інформацію і публікує її вже у вашому варезника. Підібрати гарний шаблон – і сайт готовий.

Переваги:
– Може бути отриманий сайт високої якості. Особливо якщо перевірити всі файли і картинки. В ідеалі – перезалити на свій сервер або свої аккаунти на файлообмінниках.
– Швидкість і низька трудомісткість методу. Сайт заповнюється автоматично, і можна швидко створити кілька тисяч сторінок.
– Можна заробляти не тільки на посилальних біржах, але і на трафіку.
Недоліки:
– Відверте порушення авторських прав. Причому набагато серйозніше, ніж просто копіювання текстів. Небажано розміщувати у хостерів, які ревно ставляться до дотримання законів.
– Якщо поставитися серйозно до створення виразника, то багато часу піде на перевірку новин.
2.2. Копірайтинг і рерайт
Найдорожчий вид контенту. Не бачу сенсу використовувати його на сателітах, але якщо бюджет великий і під рукою є кілька копійчаних копірайтерів – можна спробувати. Можна прикинути – сателіт з 100 сторінок по 1000 символів на копірайтингу буде коштувати близько 150 доларів, на рерайті – 50-70. А 100 сторінок – це зовсім мало, але про це нижче.

Переваги:
– Якість сайту вийде високою, отже, є шанс того, що він проживе довго в індексі пошуковика. Але треба пам’ятати, що контент далеко не головний фактор відсутності бана.
– Сайт може відносно легко піднятися на перші позиції по певних запитах і служити паралельним джерелом клієнтів.
Недоліки:
– Висока (часто неадекватна) вартість. Середня ціна копірайтингу у новачків 1.5 долара за 1000 знаків, рерайта 50-70 центів. Потрібно ретельно підрахувати витрати і передбачувану окупність … але чи потрібно?
– Необхідність робити якісний сайт. Крім контенту, потрібно буде мати гарний дизайн, імітувати інтерактивність, нарощувати хоч якісь зовнішні посилання … чи вартий сателіт таких зусиль?
2.3. Сканований контент
Бібліотеки безкоштовні, сканери копійчані. Якщо є час (ну, або “негри” під рукою), то скануйте, скануйте … отримаєте просто море унікального контенту.Причому, якщо вибирати хороші книги, контент буде дуже цікавим і на його основі можна робити повноцінні сайти для людей (СДЛ), не тільки сателіти. Деякі “активісти” проганяють сканований текст через Синонімайзер  і отримують купу сміття, про яку мова піде нижче.

Переваги:
– Висока якість текстів. Правда, щоб її досягти, потрібно мати книги з чітко надругованим текстом, хорошу програму для розпізнавання, а після сканування необхідно витратити час на виправлення помилок.
– Деякі матеріали з відсканованої книги можна використовувати також і для основного сайту.
Недоліки:
– Найчастіше сканування є порушенням авторських прав, так що перед розміщенням таких матеріалів уважно вивчіть закон.
– Якщо скан не обробити вручну і не видалити з нього артефакти сканування, то текст вийде нечитабельним, і він не сподобається пошуковим системам.
– Метод досить трудомісткий. Втім, замість сканера можна використовувати цифровий фотоапарат. Ну, або купувати готовий скан, в кінці кінців.
2.4. Сінонімайз
Неунікальний контент, з якого зробили унікальний шляхом заміни слів на синоніми, шляхом додавання зайвих слів, зміни словоформ і т. д. Рівень сінонімайза може бути різним – від жахливої мішанини слів до зв’язних до віносно читабельних текстів. Найчастіше подібні тексти ближчі до першого варіанту. Цей метод підходить для тих, хто вірить в те, що важлива унікальність тексту сама по собі.
Переваги:
– Гранична дешевизна і доступність контенту. Береться будь-який текст і після автоматичної обробки виходить унікальний контент.
– Часто Синонімайзери вже заздалегідь вбудовані в парсери контенту і різні генератори сателітів; в такому випадку ручна праця взагалі непотрібна.
Недоліки:
– Погана якість контенту. Його можна застосовувати лише на простих гівносайтах.
– Висока ймовірність швидкого бана пошуковими системами, які терпіти не можуть нечитабельні тексти.
– Багато бірж посилань та статей не приймають подібні сайти.
2.5. Картинки і відео
Можна робити сателіти, які містять лише зображення і відеоролики. Робляться вони зазвичай автоматично, але пошукові системи не люблять сайти, контент яких не містить тексту. Вони можуть взагалі не індексуватися. Не бачу сенсу розписувати переваги і недоліки. Якщо і робити такі сайти, то до кожного зображення або відео треба дати детальний опис.

3. CMS для сателітів

Так як сателіти зазвичай роблять у великих кількостях, то CMS (двигун сайту) зазвичай вибирають за такими критеріями:
– Простота використання;
– Невисоке навантаження не сервер;
– Наявність плагінів, доповнень для оптимізації, перелінковки і т. п.

Найпростіший варіант – простий html. Мінімальне навантаження на сервер, проте функціональність коду мінімальна, і багато дій доводиться здійснювати вручну. Або ж писати спеціальні програми для роботи з набором html-сторінок.

Одна з найпопулярніших CMS для сателітів – WordPress. Двигун від початку був призначений для створення блогів, проте під нього було випущено таку кількість доповнень, що його можна використовувати фактично для будь-яких сайтів – від сателітів до інтернет-магазинів.

Переваги:
– Простота установки і інтуїтивність інтерфейсу.
– Величезна кількість плагінів для розширення функціональності.
– Велика кількість безкоштовних і платних шаблонів, проста можливість створення нових
– Прості оновлення, переноси контенту з сайту на сайт
– Велика кількість можливостей для публікації контенту.
– Велика кількість документації, інструкцій і форумів, присвячених вордпресові.

Недоліки:
– Навантаження на сервер може бути високим через велику відвідуваність або неправильне налаштування
– Велика кількість спаму в коментарях відразу ж після установки сайту. Це пов’язано з тим, що багато програм для спаму налаштовані саме під цей двигун.
Joomla. Великий і складний двигун, призначений в першу чергу для великих сайтів для людей. Однак і на ньому роблять сателіти, зокрема, імітації інтернет-магазинів з використанням додатки VirtueMart.
Переваги:
– Висока функціональність навіть в базовій комплектації
– Велика кількість шаблонів і доповнень
– Відносно невисоке навантаження на сервер
Недоліки:
– Незвичний інтерфейс, який вимагає багато часу, щоб розібратися в ньому.
– Великий обсяг самого двигуна, велика кількість файлів.
– Вигляд url за замовчуванням жахливий, обов’язкове використання mod rewrite.
Під Джумла є кілька програм для автоматичного створення подібних магазинів.Товари беруться з Яндекс Маркет або МаркетГіда.
Zebrum Lite. Найпростіший двигунець без використання баз даних. Сайт виглядає просто як набір html-сторінок.
Переваги:
– Простота в усьому (втім, це ж є і недоліком)
– Мінімальне навантаження на сервер
– Мінімум місця на диску.
Недоліки:
– Невелика кількість шаблонів і доповнень
– Необхідність спеціальної підготовки контенту перед публікацією
DLE. Вільний двигунець, який використовується переважно для створення варезника (власники яких, природно, використовують, в основному, неліцензійні версії).
Переваги:
– Дуже низьке навантаження на сервер
– Масштабованість. Можна зробити як невеликий сайтик, так і Мегапортал.
– Зручна Адмінка, де немає нічого зайвого.
– Велика кількість шаблонів
– Простий і зрозумілий код.
Недоліки:
– Низька надійність проти зламів
– Незручна робота з дизайном і шаблонами
– Існує багато грабберів, за допомогою яких ваш контент швидко розійдеться по інших сайтах.
Для варезника, який буде працювати в режимі сателіта, цей варіант найзручніший.
Є безліч інших CMS для створення сателітів, описувати їх не має сенсу, так як їх функціональність приблизно однакова. Пам’ятайте, що вибираючи непопулярний двигун, ви приречені на самостійне його доопрацювання і підтримку.
Можна використовувати також форумні двигунці (phpbb, smf), в якості наповнення використовувати, наприклад, контент із неіндексуємих соціальних мереж.

4. Підготовка сателітів для заробітку на біржах посилань

Найпопулярніша і прибуткова біржа для заробітку на сателітах – sape.ru, тому всі рекомендації будуть стосуватися саме до неї. Однак ці принципи можуть бути застосовані і для інших бірж.
Кількість сторінок на сайті (оптимальна) повинна бути не менше 600-700. В ідеалі – 1000-1500. Звичайно, якщо сайт вже зовсім примітивний, то не має сенсу розміщувати на ньому багато сторінок – вони просто не будуть розкуплені. Але якщо сателіт пристойний, то є зміст зробити сторінок побільше.
Потрібно зробити якомога більше (в розумних межах) сторінок другого рівня – сторінок, які знаходяться в одному клікові від головної. Ціна на посилання з них у рази більша, ніж зі сторінок третього рівня. Варіантів є безліч. Наприклад, у WordPress можна використовувати плагін “Random post dates” для розкидування записів по датам в заданому інтервалі. Звичайно, статті, додані в 1978 році, будуть виглядати неправдоподібно, але прибуток буде більшим. У DLE можна зробити список номерів усіх сторінок внизу сайту. За замовчуванням видається лише кілька цифр. У файлі engine \ modules \ show.short.php треба знайти рядок if ($ enpages_count <= 10) {і прописати замість “10” потрібну кількість сторінок.
У будь-якому випадку, бажано зробити ЧПУ («ЧеловекоПонятные УРЛ» ЛюдиноЗрозумілі урли). Зараз пошуковики індексують будь-які види адрес, але ЧПУ виглядають акуратніше, і це точно не завадить.
Для монетизації сайту на біржах потрібно по можливості позбутися від зовнішніх посилань. А їх може бути багато, особливо в безкоштовних двигунцях, шаблонах, плагінах. Не дуже чесно видаляти посилання на авторів – але сателіт все ж не благодійний фонд, так що видаляйте сміливо. Це ж стосується сателітів, створених для просування основного сайту – немає сенсу ділитися вагою з іншими.

Всі дублі контенту усередині сайту потрібно закрити від індексації в robots.txt. Цим часто грішить Вордпресс, у ньому один і той же текст може бути чи не на п’яти сторінках (сторінка розділу, публікації по днях, місяцях, сама стаття, теги і т. п.) Теги, до речі, теж потрібно закрити, це зменшить шанс потрапити під фільтр АГС.
Якщо контент генерований або скопійований з інших сайтів, непогано, для додання людяності, додати якісний текст на головну сторінку і на парочку внутрішніх. Контент можна замовити у копірайтерів.

Переклад з cy-pr.com, автор російською Сергій Коломієць

Виявлення проблем на ринку SEO послуг

Прокоментуй!

Рубрика : Переклади

Ринок пошукового просування в останні роки розвивається дуже динамічно. З’являються нові компанії, що надають послуги оптимізації і просування сайтів, зі старих компаній співробітники йдуть у фріланс, а також на ринку seo з’являються нові оптимізатори і у кожного своя специфіка роботи. Власникам сайтів, які бажають просунутися в Яндексі або Google, складно визначитися, кому саме доручити рішення своїх завдань.

З метою збору статистики і її аналізу, виявлення тенденції взаємодії оптимізаторів з потенційними клієнтами, проведений експеримент над оптимізаторами, які пропонують свої послуги на фрілансерских сайтах.

В якості завдання було запропоновано просування сайту за кількома конкурентними запитами в Яндексі і Google. Також було дане посилання на молодий сайт, красиво оформлений, але при цьому не пристосований для просування. Запропонований сайт, теоретично, неможливо просунути в пошукових системах за допомогою стандартних методів, таких як, наприклад, покупка посилань в біржах або використання автоматичних агрегаторів (практично основна частина сайту працює на flash, сторінки не призначені для переробки їх під вибрані запити). У завданні цікавила вартість робіт, схема оплати, терміни і гарантії.

За кілька днів було отримано близько 30 заявок, які піддалися подальшому аналізу. Нижче наведена цікава статистика, яка відображає, як, в основному, ведуть себе сучасні оптимізатори.