Полезные советы

Материалы в разработке

Почему SEO уже не то?

До 2010-ого в основе формулы ранжирования, помимо возраста доменного имени, лежали два фактора:
- релевантность контента страницы поисковой фразе (наличие слов и фраз из поискового запроса в тексте);
- вес страницы, рассчитанный из суммы веса ссылающихся на страницу страниц внешних (с другим доменом) сайтов.

Это были два основных рычага влияния на позиции страниц сайта в выдаче, и seo-методы в основном заключались в улучшении релевантности и ранга (ТИЦ - тематический индекс цитируемости Яндекса и PR - pageRang Google).

1) Внутренняя оптимизация заключалась в прописывании поисковых фраз из комбинаций 5-ти слов (оптимальное на 2000 символов текста), выбранных из wordstat.yandex.ru на посадочную страницу.

В зависимости от позиции и оформления текст в индексе имеет разный вес, поэтому оптимизаторы старались включать слова, по которым страницу могут искать:
-в title (тег заголовка окна браузера и заголовка в поисковой выдаче);
-в метатег description (который поисковик часто использует в качестве сниппета в поисковой выдаче и выделять слово из поиска жирным;
-в заголовки h1, h2-h6;
-в alt картинок (появляется, при наведении и при режиме браузера с выключенными картинками);
-в title ссылок;
-выделять жирным в тексте тегом strong.

2) Внешняя заключалась в размещении ссылок на страницу на внешних сайтах - досках объявлений, каталогах сайтов (они существовали до поисковиков, главными были dmoz и яндекс.каталог, но были и тысячи других), гостевые страницы, форумы - в общем всё, что индексировалось, а главное, чтобы страница донора имела высокий показатель ТИЦ и PR, который передавался акцептору - для этого ссылки должны быть прямыми <a href="ссылка">.

На акцепторе (посадочной странице), ссылок на внешние сайты быть не должно, чтобы вес не утекал, как через сито, либо они должны идти через редирект (ссылка на внутреннюю страницу со скриптом, перекидывающим на переданную в параметре /redirect?url='ссылка' - на самой странице скрипта ссылка на главную или каталог), либо через js (<button onclick="location.href = 'ссылка'">анкор</button>).
Были програмы-спаммеры, типа xRumer, размещающие текст (обычно сгенерированный из шаблона синонимайзера - это третья фишка поиска - поисковики старались не хранить и не выдавать больше 50-ти копий контента, высоко ранжировался только первый проиндексированный), размещающие за сутки текст на тысячах страниц из базы площадок, подходящих под размещение, имитируя работу пользователя, обходя проверку капчи и т.п.
Когда внешние площадки заканчивались, а органичное отображение контента на странице товара не позволяло насыщать её ключевыми словами, оптимизаторы прибегали к генерации собственных сайтов - "Дорвеев" (от слов door-way), единственной задачей которых было выйти в ТОП поисковика и перенаправить посетителя на нужный сайт. Само содержание дорвея было безобразным - контент мог целиком состоять из ключевых слов по wordstat.yandex.ru и в качестве доноров иметь другие дорвеи. Были также сервисы по авоматическому обмену ссылками, куда можно было загрузить тысячи своих страниц со ссылками на продвигаемый сайт, в ответ на своих дорвеях нужно разместить тысячи чужих страниц со ссылками на их сайты, которые в свою очередь загружали ваши.
Это привело к тому, что в 2004-06 годах - поисковик в большинстве случаев выдавал в топе выдачи страницы дорвеев, уже с которых можно было перейти на сайт.
Здесь началась борьба поисковика с "чёрными" сеошниками, которые находили слабые места в алгоритме ранжирования и выводили свои сайты в топ. Сайты банились через месяца три, но на тот момент уже в топе были новые сайты - продажа доменов тогда была также прибыльным бизнесом.

В 2007-ом появился новый тип дорвеев - "сайты-сателлиты", на которых не было переспама и редиректов, но которые всё ещё создавались для целей SEO - сателлиты перелинковывались специальным образом, организуя целые сети, накапливая и передавая вес с максимально релевантной страницы - странице товара, которую нужно продвинуть в ТОП по этому ключу. Сами страницы сателлитов были идеально "чистыми" - без скриптов, только текст и картинки - идеально отвечающие поисковой фразе. Такие сайты ранжированилсь параллельно продвигаемому, добавляя пути входящего трафика. Термин "сайт-сателлит" был внедрён мной в 2007-ом - генерировал я их на чистом html, чтобы загружать на бесплатные или дешёвые хостинги (без поддержки php/mysql). В народе на форуме searchengine такие сайты именовали ГС (сокращённо от "говносайты"=)), а поисковики советовали делать СДЛ (сайты для людей).

Вскоре появились платформы для блоггеров, появились бесплатные движки (Wordpress и прочие), и сети сателлитов стали генерировать на них - такие сайты уже не отличимы от СДЛ, кроме их основой фичи - перелинковки с другими собственными сайтами оптимизатора или с сайтами партнёров сети. Называются они PBN (private blog network).
С 2006-ого же, кроме сервисов автообмена ссылками, появились сервисы по продаже мест под ссылки (Sape, GoGetLinks, Miralinks и прочие), как с арендной платой за размещене, так и с разовой. В 2009-ом появился SEOpult - агент-посредник в покупке ссылок сразу на нескольких биржах, включая размещение ссылок в соц.сетях, в автоматическом режиме подбирающий страницы на продвигаемом сайте, наиболее релевантные заданному списку ключей, одновременно позволяющий проводить анализ количества ключей на страницах конкурентов, давая рекомендации по оптимизации текста страниц продвигаемого сайта, что существенно упростило процедуру закупки и оптимизации.

Всё это время поисковики внедряют алгоритмы-фильтры, вытесняющие из поисковика страницы, созданные с целью влияния на поисковую выдачу (дорвеи и дубли).
Надо сказать, что не все фильтры работали верно, и некоторые были впоследствие отменены. Например, Яндекс разместил свои датацентры в разных регионах России для ускорения индексации, в каждом регионе выдача стала персональной для него. Вебмастеры стали делать отедльные сайты или поддомены под каждый регион, но фильтр на дубли в 2008-ом году зафильтровал копии сайтов других регионов, оставляя только один. Через несколько лет фильтр был отменён - сейчас в поисковой выдаче можно найти сразу несколько сайтов из разных регионов с одинаковым контентом, но разными контактами.
Лёгкость в получении большого количества внешних ссылок, покупка и появление всё большего количества доменов при ограниченном количестве мест в списке органической поисковой выдачи заставили поисковики понизить значение ссылочной массы в общей формуле ранжирования, а затем и вовсе отказаться от ТИЦ и PR.

Яндекс закрывает Яндекс.Каталог и внедряет в 2009-ом нейросеть Матрикснет, добавляя основным фактором - поведенческий. Google, в добавок к своим паукам (web-пауки Яндекса и Google - это боты, заходящие на сайт для индексации - одни типы ботов забирают только текст, другие - только картинки, третий - только ссылки, четвёртый - просто смотрит карту сайта, анализируя дату изменения страниц, давая сигнал другим ботам посетить изменившиеся), начинает открывать страницы через эмулятор браузера, рендеря налету - видя их так, как видит пользователь, и добавляет одним из факторов - скорость загрузки и качество оптимизации скриптов и файлов на странице, предлагая использовать методы сжатия и ускорения загрузки.

С 2010-ого методы влияния на поиск через тексты и ссылочную массу теряет силу (в общей формуле ранжирования ссылки занимают 20%). Нейросеть учится отличать тексты и ссылки, созданные под SEO, и новые фильтры понижают такие страницы в выдаче.
Google распространяет свой браузер, Яндекс, помимо яндекс-бара, выпускает также свой. Симбиоз Яндекс.Метрики, счётчиков Google.Analitics, следящих cookie и использования собственных браузеров позволяет формировать большие данные для классификации и кластеризации нейросетью подходящих специально для пользователя сайтов.
Поисковая выдача становится не просто регионально таргетированной, но фактически индивидуальной, зависящей от истории поиска на устройстве и в браузере пользователя.

Совокупность действий пользователя как на странице поисковой выдачи (возврат к поиску после перехода на сайт из ТОПа), так и на странице сайта (время, проведённое на сайте; количество просмотренных страниц; процент отказов (короткое время и возврат в выдачу), последнняя открытая страница) - корректируют верность наличия страницы в ТОПе. Пользователю чаще будут выдаваться страницы, которые он уже посещал. Раз в небольшой период (неделя-две) поисковики поднимают из 21-ого и ниже места - в ТОП-20, чтобы проанализировать поведение пользователей в течение дня, дать возможность отстающим и новичкам занять достойное место.
Чёрные оптимизаторы стали использовать ботов, например, через эмулятор браузеров Selenium, создавая скрипты поведения пользователей с максимально положительными показателями поведенческих факторов, "нагуливая" их на внешних сайтах, чтобы бот больше походил на определённую категорию целевой аудитории.

Благодаря использованию нейросетей, алгоритм теперь использует не только семантический, но и "латентно-семантический" анализ, распознаёт не только вхождение ключей, но и тематичность и околотематичность через наличие близких к поисковой фразе ключей.
Вместо прямых ссылок сейчас учитывается упоминание бренда или домена в текстах сайтов, в соц.сетях, учитывается фон (позитивный, негативный) текста отзыва, влияющий на репутацию бренда, с помощью семантической разметки учитывается оценка пользователями продукта - для каждого товара (цифрового, физического, услуги) принято выделять отдельную страницу, также размеченную одним из стандартов микроразметки, например schema.org, позволяя дополнять результаты поисковой выдачи рейтингом, изображением и ценой.

Благодаря постоянно накапливающимся данным, нейросети всё лучше отличают поведение ботов от поведения настоящих пользователей, запоминая пользователей - отдают им более подходящие результаты органического поиска.
Наличие большого количества факторов ранжирования и большой истории поведения пользователей поиска практически исключила возможность влияния на результаты поиска.
Поэтому я говорю, что "SEO уже не то".

* -обязательны для заполнения
Напомнить пароль Создать аккаунт Повторить ввод