Почему сайт теряет позиции – ТОП причин падения трафика в SEO | Урок #247

Николай Шмичков 04.06.2020 2528 раз Дата обновления: 23.10.2020
1X
Длительность: 12:33

Почему сайт теряет позиции – ТОП причин падения трафика в SEO | Урок #247
SEO

&nbsp
 

00:00 / 12:33
 

1X

 

В новом аудиоподкасте №247 Николай Шмичков рассказал почему сайт теряет позиции, про ТОП причин падения трафика в SEO.

Текстовая версия выступления:

“Всем привет!

Вы на канале Seoquick.

И мы сегодня обсудим такую тему – почему сайты могут терять позиции.

Это очень болезненная тема, потому что часто приходят клиенты с этим вопросом и уних действительно падают позиции.

Почему сайт теряет позиции – на эту тему есть огромное количество запросов в Гугле.

На эту тему есть ответы, которые можно найти на большинстве сайтов.

И многие в Гугле ещё забивают справку и ещут информацию, почему может происходить падение сайтов.

Давайте разберем, какие бывают проблемы падение позиций, которые встретиться.

Когда у вас происходит понижение позиции за счет того, что сайт полностью выпал из Гугла.

Такой вот вариант.

Тут нужно смотреть на санкции, проверьте нет ли каких-то санкций в Мастере Google в разделе принятых ручных мер и тому подобное.

Если вы ничего подобного не нашли, то проверьте не закрыли ли случайно ваши программисты ваш сайт в noindex.

Я понимаю, что вы скажете, что это невозможно, но на всякий случай проверьте, это про можно проверить через Control U, поискать метатег noindex для вашей страницы, либо при помощи специальных плагинов.

Это один из вариантов, на что нужно обратить внимание.

Третий вариант – проверьте, если вы делали неудачный переезд, возможно, вы плохо настроили редирект и в индексе остался дубль вашего сайта – вторая версия сайта выпала.

Такое тоже может быть – иногда ко мне обращаются клиенты: у меня сайт перестал показывать трафик, у меня нет трафика.

А на самом деле они были на http, переехали на https.

В итоге он смотрит старый webmaster и действительно трафика нет, а весь трафик находится уже на https.

Паника здесь является ложной.

Есть ещё вариант, когда мы меняли структуру сайта, не настроили redirect, а это значит, что новые страницы в индекс попасть не успели, а старые как битые, конечно же, уже выпали, поэтому самый оптимальный вариант причины изменения на сайте – это изменения на сайте могут привести к временному падению позиций.

Если сайт был огромный, на много страниц, то процесс по восстановлению позиций может прилично затянуться.

Следующий вариант – проверьте, всё ли у вас хорошо с картой сайта.

Если допустим вы делали переезд, а карту сайта забыли скормить Гуглу, он её не сразу находит.

Нужно подождать.

Если через месяц ничего не изменится, вот тогда нужно действительно паниковать.

По поводу ручных мер.

Ручная мера, когда Google ничего не делает автоматом.

Если вы посягнули на чужой авторский контент, на чужую собственность, вы получили жалобу dmca, то однозначно, жалобу можно будет найти.

Вы можете найти, кто на вас пожаловался и просить отозвать жалобу.

Жалобы есть на специальном сайте lumen.

Всё можно там на себя проверить: есть ли на ваш сайт жалоба.

Но если у вас украли сайт, то таким образом, вам нужно будет писать жалобу, чтобы воришка приполз и бросился обратно и и таким образом вам вернули ваш контент.

Также очень важно проверить сколько колько страниц в индексе через карту сайта.

Вы можете скормить sitemap, допустим, тысячу страниц – в индексе может оказаться 200 страниц.

Какие страницы в индексе находятся в реальности, нможно использовать парсеры из Гугла, вытащить страницы из индекса и сверить с теми, которые у вас есть в карте сайт.

Проверить как происходит индексация.

Сейчас в Гугл серч консоль это возможно сразу без всяких сложных парсеров.

В разделе индексации, посмотреть, какие страницы находится в индексе, а какие не находятся в карте сайта и наоборот.

Также надо понимать, что посетитель не найдёт страницу, в заголовке которой обозначено мета noindex.

Это может случиться по разным причинам, особенно, если вы ты его настроили хостинг или СМS.

Ну и конечно самая большая частая причина выпадения сайта из индекса, массовая, которая никак не связана с вами – это заражение сайта вирусом.

Сайты болеют тоже вирусами и вирусы вы получаете, когда заражается ваш хостинг.

Он может быть зараженным разными методами, например, ваш сайт по умолчанию может принимать вложения, не проверяя их на безопасность.

Более того, ваш сайт может принимать текстовые скрипты, которые точно также, никак не защищены в безопасности.

Если ваш сайт может принять файловые вложения и они обрабатываются на хостинге, вы действительно, можете заразиться вирусом.

В сайт может быть интегрированы целые структуры, которые генерируют бесконечное количество страниц, размещает ссылки внутри этих скрытых страниц, вести на сторонние ресурсы или поменять вообще сайты либо воровать ваши данные логины и пароли.

С вирусом нужно бороться, за ними нужно следить, очень важно уделять внимание контенту.

Следить, что у вас происходит на сайте, если увидите что-то странное, проблемы с трафиком, я бы заподозрил вирус.

Если вы закрыли доступ к своему сайту, либо хостинг закрыл, из-за географический каких-то особенностей, либо, допустим, бесплатные хостинги, дешевые хостинги, могут закрывать агентам доступ, потому что они переживают за трафик, который на них сыпется и не могут с ним справиться.

Поэтому дешевые хостинги грешат такой ситуацией.

Ну и понятно, из-за политических особенностей могут быть заблокированы в целой стране, это может привести к потери трафика.

Ну и конечно, одна из причин, правда, сейчас 2020 году менее вероятно, это неправильная настройка файла роботс.

Настройка файла роботс теперь стало только рекомендацией, раньше это была директива.

Ну то есть можно напортачить было исключительно с robots.

Да за счёт того, что в нём закрывали разделы на целые важные страницы сайта и первичная индексация, на таком моменте, действительно, приостанавливалась.

Также серьезной проблемой настройки вашей индексации сайта может неправильная настройка тегов каноникал.

Ошибка в теге Canonical: если при помощи этого тега, вы указываете неуникальные версии страницы, либо Canonical ставите на разные версии страниц, то тогда Google может либо неправильно распознать их, избыточное количество страниц склеить.

Поэтому он может склеить их не так, как вам это нужно и, таким образом, целые группы страниц выпадут из индекса.

По поводу ссылок.

Не смотрите на ссылки, которые стоят по 3 коп за ведро.

Уделяйте внимание качеству ссылок, которые вы выстраиваете: лучше меньше, но пройтись по хорошим доменам, создать на них хорошие статьи, создать на их хорошие обзоры, хорошие дайджесты, хорошие партнерские ссылки.

А не покупть что-попало, те ссылки, на которые никогда в жизни человек не зайдёт.

Помните, что если на сайт очень мало ссылок, вы будете очень медленно индексироваться.

По поводу скорости загрузки.

Скорость конечно не повлияет на индексацию.

Тяжелые сайты могут очень долго открываться и Google может выкинуть из индекса те страницы, которые отправятся слишком долго.

Также важно проверять код валидатором.

Синтаксические ошибки в отличие от кодировки utf-8 приведут к тому, что могут страницы выпасть из индекса.

Поэтому такая особенность может вас ждать.

Мы видели проблемы связанные с индексацией, когда люди злоупотребляли микроразметкой и ошибки в микроразметке приводят к тому, что ну как бы злоупотребление микроразметкой может привести к тому, что страница будет исключена намерено из индекса Гуглом в ручном режиме.

А вот также очень важно оберегать пользователей от кликджекинга.

То есть когда у вас doorway система, кликджекинг может не страница выпасть, а целый сайт может выпасть из индекса.

Самая большая проблема выпадения страниц из индекса это дешёвый copyright.

Может быть из индекса страница не выпадет, но однозначно она будет последняя, попадёт на задворки выдачи она улетит.

Так что однозначно с бессмысленными текстами я бы боролся.

Если ваша позиция в Яндексе высокая, а в Google низкая, это потому что Google – это не Яндекс, запомните.

Разные системы: если Яндекс обращает внимание на качество контента, который вы написали, то Google вообще смотрит на это по-другому.

У него свой алгоритм выбора качества контента, он внимательно определяет не только текстовую составляющую, но и в целом визуальную часть, мобильную версию и много других факторов.

Почему, допустим, конкуренты с такими же ошибками могут быть выше.

Робот ранжировщик – не человек, бот это бот, и он смотрит, он может пропустить ошибке вашего конкурента, но заметить ваши.

Это не значит что такая вот, действительно несправедливость.

Так вот, если вы захотите решить вопрос с техподдержкой, то на самом деле, у меня для вас плохая новость.

Вы этого не сможете сделать.

Вечная проблема – люди задают вопросы в техподдержку, пытаются, но нет техподдержки.

Вам никто не ответит, только если вопросы связанные с воровством контента, там оно решается через специальную службу.

Но у Google как таковой техподдержки для индексирования сайтов нет.

Если вы не получаете ответа после пересмотра и исправления ручных мер, многие говорят, что типа пользуйтесь Хромом – там все видно.

И конечно же, вечный вопрос – как посмотреть pagerank -никак.

С 2013 года pagerank официально посмотреть невозможно.

Тулбар официально закрыт и он не показывает никак вам pagerank.

Если вы до сих пор кому-то верите, что вам они говорят про ваш pagerank, это враньё.

На сегодня всё.

Не забываем задавать вопросы в комментариях, если у вас упали позиции.

Напишите нам в телеграм группе.

Также рекомендую сходить почитать мою статью Факторы ранжирования в Google и в Яндексе, там я рассказываю в чём разница между ними, на что обращать внимание в Google, на что – в Яндекс и в чём они сходятся во мнениях.

До новых встреч.”

Если у тебя есть вопросы, мы с радостью ответим в нашей группе в телеграмме - https://t.me/seoquick_com_ua
Вверх
Popup close
Актуальные статьи по маркетингу

Мы не будем спамить!