Алгоритми пошукових систем 2016: мова піде про Google

Алгоритми пошукових систем 2016: мова піде про Google

Кілька років тому Гугл вирішив збільшити свій бюджет для очищення своєї видачі від неякісних (на його погляд) сайтів. На світ з'явилося безліч всяких алгоритмів, про більшість яких не було навіть оголошено.

Але є три алгоритми, які керівництво Гугла від користувачів приховувати не стало. Це Панда, Пінгвін і Колібрі.

Чим небезпечні ці алгоритми для сайтів?

Проти будь вебмастерских і СЕО-оптимізаторських огріхів вони спрямовані? Як від них, зрештою, захиститися?

Отже, першим з цієї знаменитої трійки є Панда. Започаткована вона була в лютому 2011 року, і «побила» безліч хороших, популярних сайтів. В першу чергу позбулися своїх смачних місць в топах видачі Гугла інтернет-магазини, сервіси всіляких послуг та авторитетні довідкові ресурси.

В чому ж тут проблема?

Прес-центр Гугла конкретно роз'яснив, проти чого в першу чергу Панда спрямована на проблеми з унікальністю контенту всередині домену. Справа в тому, що магазини продають товари, які дуже часто ідентичні крім якоїсь дрібниці – кольору, розмірів, ціни і так далі і тому подібне.

Природно, в межах сайту створюється безліч сторінок, що містять на 80-90 і більше відсотків один і той же текст. І часто таких неуникальных сторінок збирається так багато, що це помітно навіть відвідувачам, а не тільки математично «мислячим» роботам пошукових систем.

Природно, відвідувачам на це наплювати, але от керівництво Гугла порахував, що з такими речами треба боротися. Буквально в перші ж місяці роботи Панди топи видачі почали звільнятися від «авторитетів», не постраждали лише ті сайти, які вчасно вжили заходів. Але таких було мало, і на місце монстрів пролізло безліч більш дрібних ресурсів, у яких проблеми дублювання контенту не існувало спочатку.

Звичайно, через довгий час монстри спробували виправитися, деяким це вдалося, але деякі так і не надолужили втрачених позицій. Втім, не про них мова, а про Панду, яка за короткий термін перевернула всю видачу догори ногами і немало попсувала крові багатьом авторитетним порталам.

Другий відомий алгоритм – Пінгвін – був запущений в квітні наступного, 2012 року. Цей виявився більш підступним, так як ударив практично в саме слабке місце багатьох монстрів – посилальне ранжування. Постраждали навіть ті сайти, які не підпали під дію Панди, тобто у яких з дублюванням контенту на внутрішніх сторінках було все в порядку.

Однак наслідки дії Пінгвіна багато в чому були пов'язані саме з наслідками дії Панди. Справа в тому, що Пінгвін націлений на розрахунок посилальної маси. І ось, коли багато сайтів, які посилалися на інші сайти, вилетіли з топів і втратили значну частину свого авторитету, то знецінилися і посилання з цих сайтів. А так як торгівля посиланнями в Інтернеті – це явище настільки масовий, що його можна порівняти тільки з епідемією, то можна уявити собі, яка катастрофа вибухнула у всесвітній павутині. Те, що не було вбито Пандою, було добито Пінгвіном.

І знову-таки, свято місце пусто не буває, бо всі топи, які звільнили «авторитети» були оперативно зайняті всякої дрібницею, яка щасливо уникла проблем з контентом і посиланнями. І знову, як і в попередньому випадку, «занепалі ангели» спробували виправити становище екстреної закупівлею нових партій посилань з сайтів, не постраждали від попередніх двох ураганів.

Однак в інтернеті настала нова ера, і тепер жоден сайт, яким би «правильним» він не був, не може відчувати себе захищеним. У будь-який момент який-небудь новий алгоритм обрушиться на вцілілих у цій катастрофі, і відбудеться нове «падіння авторитетів».

Звичайно ж, такий ураган не забарився себе чекати, і називався він цілком мило – Колібрі. Колібрі був запущений винахідниками з Гугла через півтора року після Пінгвіна, в кінці вересня 2013 року. На цей раз чищенні були схильні сайти, які використовували при просуванні у видачі «прямі» ключові фрази.

Справа в тому, що практично всі користувачі пошукових систем, зокрема – Гугла, вводять одні запити, але прагнуть отримати по них не сторінки, набиті цими самими запитами, а щось більш суттєве. Наприклад, користувач вводить в рядок пошуку запит «тури Єгипет». Він міг би ввести більш детальний опис того, що йому конкретно потрібно, наприклад «які тури в Єгипет найбільш безпечні», але на практиці майже ніколи цього не робить, намагаючись отримати якомога більше інформації з найпростішої конструкції запиту.

Природно, в базу пошукових систем потрапляють саме ці, «прості», тобто на «прямі» ключевики. Їх-то і беруть багато СЕО-оптимізатори для просування своїх сайтів, під них і «заточують» їх сторінки. Алгоритм Гугла Колібрі якраз і націлений на виявлення таких сторінок/. Якщо на сторінці виявлений ключевик, взятий з бази пошукової системи, то це пряме свідчення того, що при просуванні сторінки використовується так званий «ключовий спам».

Саме цікаве, так це те, що незважаючи на свою уявну «незначність», алгоритм Колібрі послужив прямим вироком такого типу сайтів, як дорвеї. Адже вся суть будь-якого дорвея і полягає в тому, щоб просувати його сторінки виключно за прямим коючевым словами. І багато дорвейщики помітили, що їх дорвеї стали вмирати один за іншим якраз у 2013-му році.

Хто-то нічого не зрозумів, і зневажати деякий час, взагалі пішов з дорвейной сфери. Але деякі найбільш спритні дорвейщики тему просікли моментально, і зайнялися модифікацією ключевіков, отриманих з баз пошукових систем. Їх модернізовані таким чином дорвеї і досі приносять гарний прибуток, правда, їх стало набагато менше.

Ну, це і не дивно. Супер-професіоналів, здатних впоратися з ююбой проблемою, завжди мало. І навіть якщо вони роблять багато дорвеїв, то загальна їх кількість все одно не йде ні в який порівняння з тими часами, коли дорвеями займався, як кажуть, «і стар, і млад».

Отже, ми розглянули три найголовніших алгоритму пошукової системи Гугл. Ці три алгоритму виробили справжню революцію в інтернеті, принаймні в тій його сфері, що стосується видачі пошукових систем. Хтось зробив правильні висновки, а хтось ні. Хто зробив правильні висновки – продовжує викачувати з Гугла трафік. Хто не зумів пристосуватися до нових вимог – той програв.

Мораль всього вище сказаного така – робіть унікальний контент, просувайте його по «людським» запитам і не засмічуйте сайт всяким не унікальним сміттям. І тоді жодні алгоритми Гугла вам не страшні!
437
RSS
Нет комментариев. Ваш будет первым!
Загрузка...