screenshot_3
Анатолий Улитовский 2377 просмотров 1 комментарий Поделиться:

ЭВОЛЮЦИЯ ССЫЛОЧНОЙ МАССЫ И ГДЕ БРАТЬ ЭФФЕКТИВНЫЕ ССЫЛКИ

Уважаемые друзья. Данный пост давно созревал для написания. Сколько занимаюсь сео, всегда сам задавался подобным вопросом. Потому что все мы знаем, стандартными методами подходить к любому проекту, это больше похоже на то, как тыкнуть пальцем в небо.

Поэтому прежде, чем усиливать Ваш проект внешними факторами, рекомендуется предварительно проанализировать успешные алгоритмы Ваших конкурентов, которые уже достигли ТОПа.

Хотелось бы начать с небольшой истории. Для чего в данной ситуации ее анализировать? Многие успешные компании декларируют, что они могут предугадывать будущие алгоритмы поисковиков. Возможно это рекламный ход для клиентов, а возможно это последовательная цепочка постоянных изменений, которая дает пищу для предугадывания дальнейших действий.

Из моего личного опыта, я всегда думал, что поисковики, когда-нибудь прийдут к полному отказу от ссылочного ранжирования, т.к. этим фактором можно манипулировать и на него непосредственно можно влиять. И что может быть важнее качественного сайта, хорошего юзабилити и профессионального текста?

Пока что мое предсказание еще не пришло, однако множество событий показывают, что данные события приближаются.

Первую попытку делал Яндекс, отменяя ранжирования по коммерческим запросам и некоторым регионам. Было ли оно на самом деле, можно только догадываться, т.к. множество событий показало, что не полностью и влияние все-таки есть.

Попытки были и у Google, но только в тестовом варианте и сам алгоритм не выкатывался, т.к. они поняли, что это утопия и полностью отказаться от ссылок нельзя.

Давайте же посмотрим историю.

Первобытно-общинный строй

Любая ссылка дает результат, повышает пузомерки сайта, непосредственно влияют на выдачу. Поэтому, чем больше ты ссылок проставляешь, тем выше у тебя сайт. Появляются множество каталогов, на которых можно регистрироваться и оставлять ссылку.

Как-то читал статью у Шакина, что он поставил цель зарегистрировать свой блог, на огромное количество сайтов и каждый день в ручную регистрировал множество каталогов на протяжении длительного периода.

Палки-копалки

Для упрощения ручной работы появляются программы Allsubmitter и Хрумер. Это был успех. Можно было одним махом зарегистрировать свой сайт на десятки тысячах сайтов. Все параметры продвигаемого сайта расли — ТИЦ, PR, позиции, трафик. Все кто знал про эти программы, продавал дорого услугу прогонов. Некоторые до сих пор существуют

Первые фильтры

На данном этапе поисковики поняли, что их обманывают, не честно выводят сайты в ТОПы, начали внедрять алгоритмы по уникальности ссылок. Ну и тут хитрые оптимизаторы, нашли автоматические генераторы текстов, которые из 1 предложения, делают сотни, простым заменением слов или перестановкой в предложении. Все таки в этом плане русский язык выигрывает.

Нас не проведешь

 

yandeks-a-esli-naidu

 

Поисковики поняли, что сео-оптимизатора обманывают их систему и зарабатывают в общей массе больше, чем они на контекстной рекламе на их же механизме, решили заняться воспитанием и наказанием.

На первое место вышел показатель трастовости сайта, поэтому каталоги перестали влиять особо на выдачу. На первое место в вооружение оптимизатора выходят биржи ссылок sape, xape, liex, к ним же ссылочные агрегаторы seopult, rookee, webeffector, а также вечные ссылки gogetlinks, miralinks.

Голыми руками нас не взять

Поисковики поняли, враг вооружен и очень опасен. Началась полное вооружение своей армии для борьбы с мятежниками, которые не хотят работать по их установленным правилам. Появляются множество других параметров качества доногоров: заспамленность сайта и страницы доноров, трастовость от яндекса и гугла (ТИЦ сайта и PR страницы), трастовость от других доноров (Mozrank, который до сих пор показывает реальную картину и постоянно усовершенствуется), место расположения ссылки на странице, множество других параметров.

Поэтому на данном этапе на первое место выходят те биржи, которые предложили решить этот вопрос. Биржа sape создает плагин sape или в народе плагин Винка, который легкими нажатиями проверял на множество параметров качества отобранных доноров.

После этих событий, про другие биржи я уже не слышал, пока не появился фильтр Пингвин и лично пытался зайти на биржу Liex и удалить вечные ссылки, из-за которых некоторые проекты поймали этот фильтр, в последствие оказалось бесполезным, поддержка не работала и google предложил другой механизм отказа от ссылок.

Главное же оружие gogetlinks и miralinks было изначальное принятие в систему только качественных доноров. Кстати пытался бывало добавить некоторые посредственные доноры для попытки заработка на них, приходили отказы.

ПРОДОЛЖЕНИЕ БОРЬБЫ

Внедрение фильтров Пингвин от гугла, не однократное его обновление, попытки яндекса отменить ссылочное ранжирование по коммерческим запросам и введение наконец-то Минусинска. Да эти этапы начались еще с 2012 года и не проходили одной революцией, а не большими реформами, т.к. поисковики тоже на каком-то этапе побаивались испортить выдачу некачественными сайтами и возможно проиграть рынок.

Все проводимые действия изучались и каждый составлял свою стратегию продвижения. Появляются новые понятия — анкорные (разбавленные, прямые вхождения) и безанкорные (в виде бренда, адреса, слова мусор).

СОВРЕМЕННЫЙ ЭТАП

Поисковики вооружили своих роботов современным обмундированием и возможностью отделения покупной ссылки от естественной.

На первый план вышли качество сайта: грамотный аудит, мобильная версия (в связи с ростом мобильного трафика), адоптивный дизайн, скорость загрузки, юзабилити, профессиональные тексты.

Вопросы от клиентов остались прежние: сколько Вы ссылок купите за мой бюджет, какой Ваш заработок и сколько на ссылки? Конечно, много времени отнимает объяснить современные тенденции и новые алгоритмы. Что лучше купить одну дорогую, чем сотни подешевле, что время на ее поиск отнимает достаточно, что важно ее правильно разместить, а еще идеально получить по ней целевой трафик.

Ссылки продолжают оказывать влияние на выдачу. Где же сейчас брать ссылки, по каким параметрам качества их анализировать. Думаю заплатить за ссылки и еще получить за это фильтр думаю никто не хочет.

Поэтому хотелось бы подчеркнуть основные параметры качества современных ссылок, которые влияют на выдачу:

  • тематика, в особенности страница донора должна соответствовать продвигаемому ключу
  • трастовость донора и страницы, можно использовать параметры mozrank или другие параметры
  • посещаемость, сайты с высокими пузомерками без посещаемости думаю уже не актуальны
  • естественное размещение на странице, идеально, когда в тексте в верхней части сайта или в первом абзаце
  • крауд-маркетинг, живые реальные ссылки с трастовых форумов и комментариев статей, которые размещены в ручную
  • доноры с высокотрастовых сайтов: википедия, dmoz, яндекс каталог, youtube и множество других с огромной посещаемостью
  • заспамленность, важно, чтобы на сайт больше ссылалось, чем он ссылается на другие
  • у сайтов не должен быть основной заработок продажа ссылок, то есть как дополнительный доход от продажи ссылок
  • сайты должны быть созданы для людей, а не для роботов, думаю сателиты уже давно не актуально, хотя некоторые до сих пор пользуются.

Хотелось бы все это подсуммировать тем, что нет единого и правильного алгоритма в современном мире, мало того, правильный алгоритм, завтра может перейти в неправильный и нанести вред Вашему сайту. Такова наша жизнь “сеошников” работать, разгадывать, предсказывать и радоваться не большим победам над серьезным противником.

Автор: Анатолий Улитовский
Поделиться:
  • alinka

    На данный момент качественный крауд-маркетинг дает очень неплохие результаты. Правильно размещенная ссылка на форуме может принести для Вашего сайта серьезный трафик. И не стоит путать крауд и спам, за который можно попасть под фильтр.

ул. Люстдорфская дорога, 92/94 Украина, г. Одесса +38 (048) 704 80 10

наверх

Получить

коммерческое предложение