Факторы ранжирования в поисковых системах

Вы создали сайт и хотите получать продажи и трафик из поиска в Google и Яндекс?

Изучите правила работы поисковых систем, чтобы соответствовать критериям и гарантированно иметь переходы из поиска!

Я сегодня постараюсь ответить на вопросы, которые задают мне клиенты чаще всего.

Первый вопрос, который я слышу:

“Мой сайт имеет технические ошибки. Я не буду его продвигать, пока их не исправлю”

Второй, например, такой:

“Мой сайт имеет неправильную структуру ссылок. Я их исправлю и потом начну работы по SEO продвижению”

Третий:

“Я хочу заняться контентом, наполнением сайта, а буду продвигать его как заполню”

И все откладывают работы по SEO-продвижению, надеясь, что когда “придет время”, они запустят по мановению волшебной палочки свой бизнес, который начнет тут же ранжироваться.

Как бы не так…

Что, опять? Упал трафик и нет продаж? Так SEOquick тебе поможет всё вернуть

Привлечем органический SEO-трафик на ваш сайт из поисковых систем Google и Bing.

Проведем работы по внутренней оптимизации и SEO-продвижению. Улучшим репутацию, контент. Сделаем аудит и нарастим ссылочную массу.

Никакой черной магии – только белые методы SEO!

Что такое поисковые алгоритмы ранжирования?

Часто владельцы сайтов ошибочно думают, что например для Яндекса ссылки не имеют значения, а Google все равно на ворованный контент.

Непонимание алгоритмов ранжирования часто приводит такие сайты на задворки выдачи.

Алгоритмы ранжирования – это особые методы фильтрации результатов запроса пользователя поисковой системой, определяющие порядок и вид показа информации согласно сформированного запроса пользователем.

Простым языком, это свод правил, которые работают чаще автоматически и выводят результат поискового запроса максимально подходящим для пользователя.

Многие SEOшники думают, что знают их много.

Например, Сэм Кусинич (HubSpot) и Брайан Дин (Backlinko) считают, что в Google факторов ранжирования больше 200, тогда как Жанлука Фиорелли (Moz.com) эту информацию опровергает: 10 мая 2006 года проходила конференция Press Day Google Inc, где на семнадцатом слайде журналисты обратили внимание на строчку:

Затем когда новость стала трендом, топовые блогеры потащили ее в СМИ.

Мы знаем, что такое фейки только сейчас, и как неверная трактовка факта может расплодить тысячи мифов.

А когда в 2010 году Мэтт Катс заявил, что да, факторов больше 200, но каждый из них имеет до 50 вариантов, родилась шутка уже про “10 000 оттенков Google” (правда, фильм “50 оттенков серого” вышел значительно позже).

Поэтому я начну немного с азов, о которых, вероятно, мало кто знает.

Поисковая система условно работает по двум стратегиям:

  • Индексирование.
  • Ранжирование.

Что такое индексирование?

Индексирование – это периодический процесс “чтения” поисковой системой контента Вашего сайта.

В результате индексирования поисковая система хранит в своей базе данных только необходимую для ее работы информацию о составе Вашей страницы.

Индексирование проходит не единоноразово, а периодически, для того, чтобы обновлять актуальную информацию о страницах Вашего сайта в базе данных поисковика.

Условно процесс индексирования можно разбить на фазы:

  1. Отправка запроса поисковым роботом.
  2. Чтение сайта.
  3. Фильтрация полученных данных и кластеризация.
  4. Запись результатов сканирования в базе данных поисковика.

Что такое ранжирование?

Ранжирование – это сортировка поисковой машиной списка результатов пользователю согласно внутренним алгоритмам, целью которых является релевантность поисковому запросу.

Как работает ранжирование “на пальцах”?

  1. Отправка запроса пользователя в поиске.
  2. “Понимание” запроса.
  3. Вывод максимально соответствующих результатов по запросу.
  4. Фильтрация результатов от дублей и ненужных результатов.
  5. Сортировка согласно алгоритму.
  6. Вывод результата на странице поисковика.

Если представить себе, что все, что происходит неизвестное для SEO специалиста, в черном ящике, наша схема будет выглядеть так:

Что мы точно знаем, как работает, находится в белой зоне, а что не знаем – в серой.

Кое-какие данные мы можем предполагать.

Некоторые механизмы SEO специалисты узнали опытным путем.

Как вывод, в поисковой системе есть три составляющие:

  1. Поисковый робот.
  2. База данных.
  3. Пользовательский интерфейс.

И мы начнем, конечно, с истории.

Вы хотите получать бесплатный трафик?

Вас интересует оптимизация сайта в Москве, Киеве, Одессе?

Вы не знаете, как поднять сайт в топ, и хотите узнать стоимость продвижения сайта в топ 10?

Заполните форму ниже и я лично свяжусь с Вами и мы обсудим план по раскрутке вашего бизнеса!

    Как развивались алгоритмы ранжирования

    В этой главе я расскажу об эволюции поисковых алгоритмов.

    Зачем нужна поисковая система и как поисковики стали такими, какими есть.

    Как только появился интернет, возникла необходимость общаться с организациями (тогда с этой задачей справлялась электронная почта).

    А еще нужно было сделать информацию публичной, предоставить основной целевой аудитории доступ к ней.

    С первоначального периода, когда интернет был закрыт, до современного, когда поиск стал знаменит, был выбран вектор стратегии упрощения: когда поисковая машина из сложного инструмента превратилась в такой:

    Именно упрощение поиска и доступность его для каждого пользователя интернет – это были стратегии развития тогда крупной компании AOL, Yahoo и молодой компании Google.

    Когда интернет “дошел” до русскоязычных пользователей, за “пользовательскую любовь к поисковику” тогда включились в конкурентную борьбу Rambler, Liveinternet и молодая Яндекс.

    Когда контента в сети было недостаточно

    Первоначальной целью было, чтобы Вас нашли.

    Тогда поисковая выдача не могла похвастаться тем, что Вы находили то, что искали на первой странице, и Вам приходилось идти все глубже и глубже во вкладки.

    На это были три причины:

    1. Контента было мало.
    2. Контент был неоптимизированный.
    3. Поисковые системы были “глупы”.

    Алгоритмы ранжирования в то время были простыми, и для того, чтобы сайт выходил в поиске, использовались мета-теги.

    Мета-теги – это неотображаемая информация, которая прописывалась в коде страницы и отвечала заголовку страницы, описанию и необходимым ключевым словам, чтобы сайт можно было найти в поиске.

    Первыми мета-тегами были:

    • Ключевые слова. Очень важный фактор “отсева” страниц, согласно запросу. Тогда важно было прописать ключи, чтобы поисковая система нашла Ваш документ-страницу.
    • Заголовок страницы. Иногда помогали и заголовки: можно было найти документ непосредственно по фрагменту заголовка, вбитого в список ключевых слов.
    • Описание. Когда ключевые слова и заголовок не срабатывали, поисковая система пыталась найти страницу по фрагменту описания (тег Description).

    Основной алгоритм поиска выглядел так:

    Тогда стояла цель – вывести что-нибудь, чтобы пользователь нашел, что искал.

    И поисковые системы тогда боролись за пользователя: ведь та, которая умела лучше искать и лучше показывать, претендовала занять тогда вакантное место монополиста.

    • 1993-1995 Первые поисковые системы: Aliweb, WebCrawler, Lycos, AltaVista, Excite, Inktomi.
    • 1996 Появление русскоязычной поисковой машины Rambler. Запуск и тестирование BackRub (будущий Google).
    • 1996 Появление Aport (впоследствии закрытой).
    • 1997 Выход на рынок Яндекс.
    • 1998 Создается поисковая машина Google.
    • 2004 Появление поисковой системы Yahoo!
    • 2004-2005 Запуск поисковой системы MSN Search (впоследствии Bing).

    В списке перечислены только поисковые системы так называемого “глобального поиска”: в мире существуют также специализированные поисковики:

    • DuckDuckGo – предназначен для краулинга в даркнете.
    • filesearch.ru – до сих пор занят тем, что ищет не веб-страницы, а файлы.
    • einfo.ru и efind.ru – предназначены для поиска комплектующих, электронных компонентов и радиодеталей.

    Затем наступил следующий период.

    Когда контента стало больше, но поисковик был к этому не готов

    Затем произошло то, чего все ожидали.

    Кроме поисковых систем.

    В поисковой выдаче стало мало места, и первая страничка поисковика начала привлекать все отрасли бизнеса.

    Это произошло в тот момент, когда поисковые системы еще сражались друг с другом за место под солнцем, и уже выбивались в лидеры Яндекс и Google.

    Все мало-мальски освоили простые алгоритмы ранжирования, и именно тогда появилась профессия “SEO-специалист”.

    Что тогда делал SEO-специалист?

    Задачами такого “специалиста” в то время были:

    • создать сайт, заточенный по максимуму на трафиковый запрос;
    • закидать в контент сайта большое ключевых слов;
    • “правильно” прописать метаданные…

    Но это были только цветочки.

    Вторым фактором ранжирования были ссылки.

    Они давали трафик и передавали вес – первый критерий полезности сайта.

    Именно тогда начались массовые манипуляции по надуванию пузомерок (слово придумали сеошники).

    Пузомерки – это жаргонное обозначение SEO-метрик сайтов – траста, посещаемости, PageRank от Google и тИЦ от Яндекс, а также любых метрик со сторонних популярных SEО-сервисов.

    Первые пузомерки зависели исключительно от внешних ссылок, которые вели на основной сайт: 10 маленьких сайтов “надували” нужный сайт за счет ссылочного спама.

    Тогда создавались тысячи бессмысленных страниц, заточенных под ключи, сайты, которые переводили с одного URL редиректом на другой и это сейчас вспоминается, как страшный сон.

    В то время зародился рынок черного SEO – и он до сих пор жив, в частности, некоторые технологии действуют по сей день.

    Это привело к тому, что поисковая выдача прилично “испортилась”.

    Введение апдейтов алгоритмов ранжирования

    Тогда можно было легко словить вирус из поиска или попасть на нечестную страницу.

    Это было время пика антивирусников, вирусов, спама, бессмысленных страниц, дорвеев и фишинг-сайтов.

    Весь период растянулся с 2005 года по сегодняшний день.

    Его можно условно разбить на два этапа:

    • Первым этапом можно назвать первичное становление алгоритмов ранжирования (с 2005 по 2011 годы). В это время, скорее, создавались алгоритмы для отбора выдачи, и именно тут успели “вырасти” черные SEOшники.
    • Вторым этапом следует выделить период знаковых апдейтов поисковых систем (с 2012 по 2017), когда поисковики начали активно бороться против нечестных методов SEO-продвижения.

    Второй этап развития поисковых систем – естественный процесс эволюции: в живом мире многоклеточные организмы являются продуктом вечной войны двух миров – вируса и клетки: первый (клетка) всю жизнь развивал методы защиты, второй (вирус) – искал простые методы по размножению и атаке клеток.

    Именно тогда поисковые гиганты начинали активно бороться за своего пользователя и появились первые алгоритмы ранжирования от крупных поисковиков, таких, как Яндекс и Google.

    SEOшникам же был предложен выбор – менять профессию или искать другие методы продвижения сайтов.

    В статье мы часто будем употреблять слово “вебмастер”.

    Оно имеет два значения.

    Вебмастер от поисковых систем – это специальный сервис, при помощи которого Вы можете посмотреть, как Ваш сайт взаимодействует с поисковой системой.

    Веб-мастер (человек) – это влалелец сайта (web – сайт, master – владелец).

    Если Вы еще не установили вебмастера на свой сайт, мы рекомендуем ознакомиться с этими учебными материалами:

    Хронология апдейтов Google

    Если говорить о Google, шутили, что его апдейты идут еще с 2002 года – например, до апдейта Бостон (2003 года), был “апдейт” в 2002 в стиле “мы переместили туалет в офисе”.

    То есть никто не понял, что это было.

    Весь список апдейтов уловили как на конференциях, так и уже владельцы сайтов, анализируя скачки трафика.

    • Бостон (2003, 1 февраля, подтвержден) – назвали как “танцы Гугла”. Комбинация разных методов изменения алгоритмов. Без четкой направленности.
    • Кассандра (2003, 1 апреля, не подтвержден) – коснулся скрытого текста, скрытых ссылок и ссылок с доменов, принадлежащих одному владельцу.
    • Доминик (2003, 1 мая, не подтвержден) – Точный механизм неясен. Боты “Freshbot” и “Deepcrawler”, вероятно, изменили алгоритм работы, что повлияло на выдачу.
    • Эсмеральда (2003, 1 июня, не подтвержден). Завершающий этап “Танцев Гугла”. В принципе, можно считать, что Бостон состоял из нескольких шагов.
    • Фритз (2003, 1 июля, подтвержден). С тех пор индекс сайта менялся не ежемесячно, а ежедневно.

    Апдейты затем сыпались каждый месяц, и мы сосредоточимся на наиболее важных и подтвержденных:

    • Флорида. (2003, 1 ноября). Боролся с черным методом “наполнения” сайта ключевиками.
    • Бренди (2004, 1 февраля). Было введено понятие LSI (релевантного семантического индекса) и уделялось внимание анкорам.
    • Nofollow (2005, 1 января). Под елочку ввели понятие “nofollow” ссылок, по просьбе крупных компаний (Microsoft, Google, Yahoo), чтобы сайты могли не волноваться за внешние ссылки.
    • Бурбон (1 мая 2005) коснулся WWW. и без-WWW сайтов, отметив такой контент как дублирующийся и каноничный.
    • Персонализация поиска по куки (2005, 1 июня). Работало в разных приложениях и браузерах.
    • XML-карты сайтов (1 июня 2005).
    • Jagger (1 октября 2005) боролся с платными ссылками и ссылочными фермами, которых тогда расплодилось выше крыши.
    • Google Local/Maps объединил выдачи.
    • Большой Папа (Big Daddy, 2005) коснулся 301/302 редиректов и каноникалов.
    • Универсализация поиска в мае 2007 привела к выводу не только сайтов, но и картинок, новостей и локальных сайтов.
    • Google Suggest (2008) порадовал тем, что ввел поисковые подсказки.
    • Rel-canonical (2009) тег появился только сейчас, как решение проблем с дублем контентом в ручном режиме.
    • Поиск в реальном времени появился в декабре 2009 года.
    • May Day (1 мая 2010) коснулся низкочастотных запросов и ударил тогда впервые по сайтам, забитым НЧ=запросами под кальку первых SEO-копирайтеров.
    • Google мгновенный поиск (1 сентября 2010) позволил искать в момент ввода в поисковую строку.
    • Отмена негативных отзывов как фактора ранжирования (2010 год). Ведь можно запостить негативный отзыв в СМИ с ссылкой на магазин и поднять таким образом сайт?

    Затем апдейты начали сыпаться очень часто.

    А теперь коротко о самых известных апдейтах Гугла, о которых должны знать сеошник и клиент:

    • Панда (Panda, 2011, 23 февраля) порадовала 12% сайтов. Алгоритм был направлен на “контент-фармы”, забитые НЧ ключевыми запросами. Панда получал множество (28) апдейтов каждый месяц, вплоть до 2015 года.
    • Payday Loan начал свой путь с 2013 года, вплоть до 2014 и начал бороться со спамом (тогда популярные финансовые аферы) и порно. Антиспам-обновление коснулось именно специфических сайтов.
    • Пингвин (Penguin, Апрель 2012) оказался фильтром, направленным на сайты, злоупотреблявшие ссылками для своего продвижения. Тогда же появился Google Disavow – инструмент для отклонения некачественных ссылок.
    • Голубь (Pigeon, 24 июля 2014) был направлен на улучшение локального поиска. Учитывалось расстояние от места поиска до адреса расположения сайта для определенных типов запросов.
    • Пират (Pirate, Август 2012). Введение правил DMCA, сайты с ворованным контентом исключались из выдачи, а также учитывал возможность снятия “бана” путем выполнения требований поисковика.
    • EMD, сентябрь 2012 года. Избавил от проблемы покупки “ТОГО самого домена”. То есть, имя домена теперь перестало быть фактором ранжирования.
    • Top heavy исключил в январе 2012 сайты, перегруженные баннерной и видеорекламой.
    • Колибри (Hummingbird, 2013) коснулся смысловой части поисковых запросов, введя кластеризацию запросов по темам. Например, установка окон и установка Windows по-английски пишутся так же, но сайты выводить нужно разные, в зависимости от дополнительных слов в запросе.
    • Mobile Friendly (2015) пришелся на период становления меня как SEO-специалиста. Он прилично изменил выдачу на смартфонах и планшетах, подняв в ТОП те сайты, которые имели адаптированную мобильную версию собственных страниц.

    Все это привело к тому, что поисковые системы начали активно бороться за пользователя, который в определенные моменты испытывал трудности с поисковыми системами.

    Хронология апдейтов Яндекса

    Яндекс начал развитие с 2007 года на рынке Рунета и тоже начал с небольших апдейтов (так называемых минорных).

    Изменения алгоритмов ранжирования не стоит путать с фильтрами: целью обновления алгоритма ранжирования чаще является улучшение выдачи для пользователей.

    Стоит знать, что Яндекс вводит апдейты каждые 1-2 недели, и из-за этого выдача меняется скачкообразно.

    Но некоторые апдейты следует выделить отдельно, так как они повлекли к кардинальным изменениям выдачи:

    • 2 июля произошло небольшое изменение алгоритма, которое было замечено только пользователями форума.
    • SP1 Восьмерка (20 декабря 2007) получили повышение ранжирования трастовые авторитетные ресурсы, а также были наказаны сайты за ссылочные прогоны.
    • Находка (11 сентября 2008), прославился введением тезауруса, расширением функционала поисковых запросов, введением минус-слов.
    • Арзамас или Анадырь (с 10 апреля по 28 сентября 2009) – разделение геозависимости по выдаче, классификация запросов на геозависимые и геонезависимые.
    • Снежинск (17 ноября 2009). Вводится машинное обучение MatrixNet и возрастает количество факторов ранжирования во много раз.
    • Конаково (22 декабря 2009) и Обнинск (13 сентября 2010) – улучшение выдачи для геонезависимых запросов, улучшение функционала поисковой системы для большого количества городов РФ.
    • Краснодар (15 декабря 2010) – введение смысла запроса (“интента” – например, запрос [телефоны Краснодара] не годится для продажи смартфонов и телефонов в Краснодаре).
    • Рейкьявик (17 августа 2011), Калининград (12 декабря 2012) и Дублин (30 мая 2013) – вслед за Google, Яндекс начинает персонализировать выдачу.
    • Неизвестный апдейт 12 марта 2014 – отменил ссылочное ранжирование в Москве и области. Вернули 15 мая 2015.
    • Неизвестный апдейт 5 июня 2014 – был затем отменен.
    • Неизвестный апдейт 1 апреля 2015 – введение карточки справа об объекте запроса.
    • Неизвестный апдейт сентябрь-декабрь 2015 – рандомизация выдачи в Московском регионе. Цель – определить поведенческий фактор.
    • Владивосток (2 февраля 2016) – аналогично Google Mobile Friendly – улучшение ранжирования сайтов, которые имеют мобильную версию.
    • Палех (2 ноября 2016) и его продолжение Королев (22 августа 2017) коснулись алгоритма подбора соответствия Title и редких поисковых запросов, заданных на естественном языке при помощи искусственной нейронной сети. В последнем апдейте начал учитываться не только Title, но и весь текст документа страницы.

    И, собственно, следует выделить сами фильтры.

    Они, в отличие от алгоритмов, направлены на “закручивание” гаек для нечистых на руку сеошников:

    • Фильтр Магадан. (2 июля 2008 г).. Расширение синонимов, расшифровки аббревиатур. Усилило релевантность выдачи, наказаны сайты с ворованным контентом.
    • Фильтр Минусинск (15 мая 2015). Отказ от бессылочного ранжирования. Возврат к ссылочному ранжированию. Введение алгоритма за SEO-ссылки – сайты с купленными ссылками теряют массово в ранжировании. При этом отсутствует инструмент снятия ссылок в Вебмастере (аналогичный Disavow links в Google).
    • Фильтр Баден-Баден (23 марта 2017) коснулся переоптимизированных текстов. Раннее за это отвечал простой алгоритм, но затем он был улучшен и начал распознавать бессмысленные тексты гораздо лучше и понижать такие сайты в выдаче.
    • Андромеда (анонсирован в 2018) коснется борьбы против поведенческого фактора, начнет маркировать доверенные сайты и обещает внести изменения в выдачу по информационным запросам, за счет внедрения карточек товаров.

    Яндекс известен тем, что открыто говорит, за что наказывает сайты, и не скрывает основные “фичи”.

    • За тексты отвечали алгоритмы Переспама, переоптимизации. На помощь пришел Баден-Баден.
    • За ссылки отвечали алгоритмы АГС, ссылочного взрыва, Ссылочного Спама и Пессимизации (за кольца из ссылок и прогоны), Внутренний.
    • Внешний Нетпот (когда избыточна внутренняя перелинковка). В помощь к вышеперечисленным добавился Минусинск.
    • За накрутку поведенческого фактора отвечали алгоритмы анти-Кликджекинга, анти-криптоджекинга и Анти-ПФ. Ожидается, что Андромеда начнет бороться против пользовательской накрутки ПФ.
    • За дубли контента были введены алгоритмы Аффилированности (из двух одинаковых показывается один) и блокирование дублирования сниппетов.
    • Из-за сайтов, манипулирующих нечестной рекламой, были введены следующие алгоритмы: против обмана пользователей, против избыточной или назойливой рекламы, против рекламы, вводящей в заблуждение.
    • “Взрослые” сайты получили тоже категоризацию: Adult-контент скрывается из обычной выдачи.
    • Алгоритмы для очистки выдачи от мусора и обманщиков системы: Партнерки (понижает сайты с отсутствием своего контента), псевдосайты (сайты без полезного контента) и сайты, которые используют запрещенные технологии клоакинга, дорвеев и клонов. Также существует алгоритм удаления из выдачи по решению суда.

    Рекомендуем для чтения:

    1. Как влияет время пребывания пользователя на сайте на ранжирование?
    2. Ждет ли Description (Дескрипшн) судьба динозавров

    Как поисковики ранжируют сайты?

    Мы разберем механизмы, каким образом поисковик понимает Ваш контент, структурирует данные и как обрабатывает поисковые запросы и умеет различать смысл поискового запроса.

    Поисковая система работает просто.

    Ее задача – обрабатывать запросы пользователя (в виде ключевых слов) и предлагать правильные ответы (в виде выдачи).

    Поэтому мы распишем короткий чек-лист, как нужно создать и оптимизировать свой сайт для поиска.

    Если коротко, стратегия у крупных поисковых систем особо не отличается от трех базовых постулатов:

    • Актуальность информации. Старайтесь поддерживать информацию в тонусе: будь то стоимость товара, его описание и наличие, статья-инструкция с актуальными скриншотами или статья в блоге с активными комментариями.
    • Полнота информации. Старайтесь разделять информацию по темам и давайте каждой странице свое заглавие – заголовок Title. Чем лучше Вы структурируете информацию, избегая ее дублирования, тем лучше для Вашего сайта.
    • Известность информации. Контент – ничто без продвижения. Ссылайтесь на свой сайт из других источников: местных СМИ, тематических ресурсов, трафиковых площадках. Важно, чтобы ссылки также имели свой трафик.

    Помните, не надо тормозить продвижение по всем факторам, если не реализован один!

    Если у Вас молодой сайт, работ по контенту будет всегда много.

    Если Вы сделали только главную страничку и пару товаров и услуг, начинайте продвижение сегодня.

    Почему не стоит тормозить продвижение:

    1. Ссылки с внешних источников могут индексироваться не сразу.
    2. Алгоритмы ранжирования работают постепенно, и даже небольшие шаги по улучшению индексации будут оказывать положительное влияние.

    А теперь переходим к самому вкусному.

    Какие именно факторы являются важными и на что они влияют.

    Факторы ранжирования в Google

    Относительно процентов по влиянию на выдачу разными факторами ранжирования мнения экспертов расходятся.

    В своей статье Брайан Дин рассмотрел до 200 факторов ранжирования Google и их процент влияния на выдачу.

    Он считает приоритетность факторов ранжирования следующей:

    • Ссылающиеся домены.
    • Органический CTR.
    • Авторитетность домена.
    • Мобильность сайта.
    • Продолжительность визита.
    • Общее количество ссылок.
    • Качество контента.
    • SEO-данные страницы (микроразметка, H1 и прочее).

    Интересно, что скорость загрузки Брайан Дин хоть и выделяет в своем исследовании, но не выносит ее как безумно важный фактор ранжирования!

    Логично: если Ваш сайт не загружается, время визита на сайте будет безумно коротким, и это скажется на ранжировании.

    Но если Ваш сайт грузится в желтой зоне по Pagespeed, это не так критично, как если на Вас не будет ни одной нормальной ссылки.

    Как мы видим, согласно его взгляду на SEO-факторы ранжирования в Гугл, Вы можете начать первичное наращивание ссылок и заняться тайтлами (они влияют на CTR больше всего) и затем уже внедрять онпейдж SEO и заниматься контентом.

    Аналогичное исследование Ranking Factors 2.0 проводили и Semrush в конце 2017 года.

    Исследование коснулось 600 000 ключевиков и затронуло более миллиона сайтов в выдаче.

    Также спустя время были проведены корректировки в анализе, в связи с новыми обновлениями в Google.

    Коротко можно выделить приоритеты в факторах ранжирования, согласно сервиса Семраш.

    По приоритетности, факторы ранжирования можно расположить в следующем порядке:

    • Трафик на сайте с прямых переходов. То есть, брендовый трафик является основополагающим фактором. 20% ссылок у сайтов в ТОПе так или иначе связаны с брендовыми запросами.
    • Время на сайте, количество страниц, показатель отказов – можно сказать, результирующий показатель, который завязан сам на себе в кольцо: (1) чем выше позиция, (2) тем больше трафик, (3) тем выше позиция (по кругу). К слову, сайты, находящиеся в ТОП, имеют показатель просмотра 3-3,5 страниц за сессию.
    • Ссылающиеся домены. Является важным фактором ранжирования. Сайты в ТОП-1 имеют тысячи ссылающихся доменов, в то время как в ТОП 10-15 – единицы.
    • Общее количество ссылок. Сайты в ТОП-1 имеют в 2,2 раза больше ссылок, чем сайты на 2-м месте. Учитывались как Follow-ссылки, так и все ссылки, в общей сумме.
    • Длина контента. Сайты в первой тройке имеют на 45% длиннее контент, чем сайты на 20-й позиции по тому же ключевому слову.
    • HTTPS. 65% сайтов в ТОП по высокотрафиковым ключевым словам имеют сертификат безопасности HTTPS.
    • Анкорные ссылки, ключевые анкоры имеют меньшее влияние на момент исследования. Всего 3% анкоров у сайтов в ТОПе имели ключевые слова в анкорах. Но недавнее заявление Джона Мюллера может поменять тенденции.

    Относительно анкоров Джон Мюллер в августе 2018 года высказался так:

    “Если Вы обновляете анкоры для того, чтобы они были понятны пользователю, Вы также помогаете понять контекст ссылающихся страниц”.

    Поэтому пересмотрите стратегию по анкорам:

    • Изучите анкоры в Ваших ссылках в контенте, в меню и в разделах сайта.
    • Перепишите анкоры так, чтобы они были более понятны для Вашего посетителя, чтобы обеспечивать ссылки.

    Это удивительно: оказалось, что низкий эффект влияния имеют такие факторы ранжирования, как ключевые слова в заголовке, в теле запроса и в метаданных, а также их плотность в контенте.

    Само собой, на выдачу влияет, есть ли Вы в индексе, и есть ли Вы в Гугл-сервисах.

    Мы рекомендуем начать регистрацию с Google карт (в сервисе Google Мой Бизнес), так как его верификации нужно долго ждать (около месяца).

    Какие выводы можно сделать?

    1. Сначала займитесь внешними ссылками и HTTPS для Вашего сайта. Их эффект работает не сразу, поэтому лучше работы по линкбилдингу начинать с первого месяца продвижения.
    2. Перепишите тайтлы и дескрипшн на продвигаемых страницах согласно собранным ключевым словам. Гугл уделяет пристальное внимание CTR как поведенческому фактору, а этого не достичь при помощи плохих заголовков!
    3. Изучите в первый месяц юзабилити и передайте правки по страницам в работу. Это даст эффект в последующие месяцы.
    4. Следите, чтобы на Вас ссылались авторитетные домены – тематические сайты, блоги, форумы, каталоги и сайты местных новостей приветствуются.
    5. Не забудьте рассказать о себе Гуглу самостоятельно: Вы должны быть в индексе по нужным страницам, Ваш контент в поиске должен обновляться.
    6. Особенностью Гугла является высокая скорость работы поисковых роботов и аглоритма ранжирования: изменения в выдаче будут видны сразу, в течение 24 часов.

    Что такое PageRank

    Стоит упомянуть о Pagerank.

    Это система, которая до сих пор работает в Google и позволяет оценивать “Важность” страницы сайта.

    Да, ключевым показателем является именно страница, а не целый сайт.

    В 1996 Сергей Брин и Ларри Пейдж, когда разрабатывали поисковую систему BackRub (которая впоследствии в 1998 превратится в Google Inc.), предложили алгоритм, оценивающий качество страницы по количеству ссылок, которые указывают на нее.

    Многие ошибочно думают, что PageRank переводится как “Ранг Страницы”, но это не так: по факту, Page – это фамилия изобретателя, Ларри Пейджа.

    Если объяснять на пальцах, внешние ссылки оцениваются как потенциальный вариант пользователя “перейти” с одной страницы на другую, с учетом трафика на данном сайте.

    Для удобства на этой диаграмме, размер шара – это PageRank, а процент – вероятность перехода со страницы сайта (представим себе, что пользователь с вероятностью 85% выбирает любую ссылку и с вероятностью 15% переходит по ней):

    Условно говоря, страница С имеет тоже высокий рейтинг, как и страница B (на нее хоть и приходится всего одна ссылка, но с более популярного ресурса), тогда как на сайт E приходится только ряд ссылок с мелких ресурсов.

    Сайты, на которые нет ссылок, будут обладать меньшим рейтингом, и будут иметь более низкое место в выдаче, их удел – низкочастотный трафик в зонах более слабой конкуренции.

    Для расчета использовалась логарифмическая шкала, то есть сайт с PageRank 1 был в 10 раз хуже сайта с PageRank 2 и в 100 раз хуже сайта с PageRank 3.

    Это привело к тому, что все сайты начали массово закрывать внешние ссылки при помощи тега Nofollow (включая даже нужные ссылки), тем самым искусственно “надувая” пейджранк сайта (за счет “купленных” или сделанных внешних ссылок Dofollow).

    То есть, Nofollow-тег приводил к тому, что пейджранк не передается на сайт, на который Вы ссылались, не популяризируя другие.

    С 2009 года Мэтт Катц отметил в своем блоге (PageRank Sculpting), что эта методика больше не работает: теперь ссылки равнозначно передают вес (как Dofollow, так и Nofollow).

    Как же узнать свой PageRank?

    Раньше его можно было проанализировать при помощи специальной утилиты Google Toolbar.

    Примечательно, что данные в тулбаре обновлялись раз в год, тогда как внутренний PageRank (согласно заявлениям Google) обновляется постоянно.

    С 2016 года Google решил “скрыть” данные PageRank для сторонних пользователей, что поставило многих сео-специалистов в тупик.

    С тех пор сеошники используют такие инструменты, как AHREFS и SERPSTAT для того, чтобы анализировать позиции и ссылочные профили сайтов, удостовериться в их тематичности, трафике и благонадежности.

    Окей, Гугл любит ссылки, трафик с самого себя и долгое время визита.

    А что же Яндекс?

    Факторы ранжирования в Яндексе

    Вы можете подумать, что в Яндексе все окажется проще, ведь это наш поисковик, ориентирован на рунет (и бывшие страны СНГ).

    Но, к сожалению, есть определенные вещи, на которые нужно будет обратить внимание.

    Самое главное, все изменения в выдаче будут проходить не каждые 24 часа, как в Гугл.

    Иногда придется ждать неделями, пока выдача будет откорректирована после изменения контента.

    Второй особенностью является медленное индексирование контента – будьте готовы к тому, что в Яндексе сайт будет расти медленно, тогда как в Гугле он уже займет ТОПы по основным ключам.

    Приоритетность факторов ранжирования Яндекса можно расположить в следующем порядке:

    Региональность.

    Жесткая сегментация запросов на региональные и нерегиональные.

    Россия – страна большая, и акцент продвижения пришелся на региональность в выдаче: пользователь из Москвы и Владивостока будет видеть различную выдачу для разного типа запросов.

    Есть плюсы и минусы такой региональности:

    • С одной стороны это классно и упрощает продвижение мелких региональных сайтов.
    • С другой стороны это сильно затрудняет продвижение больших компаний, которые работают на несколько регионов.

    Поэтому для первоначального продвижения нужно сделать первые три шага:

    1. Укажите на сайте название предприятия (организации), почтовый индекс, номера телефонов, почту и код города. Желательно вставьте это в подвале на всех страницах сайта. Если у Вас есть филиалы в регионах, пропишите их обязательно.
    2. Укажите регион в Яндекс.Вебмастере, затем в Яндекс.Справочнике пропишите все Ваши филиалы.
    3. Желательно добавьте регион в Н1, Description, на основном тексте страницы и, по возможности, в URL (ЧПУ) страниц.

    Поведенческий фактор

    Важный фактор ранжирования как для Google, так и для Яндекс.

    При этом, если в Google это вторичный фактор, то у Яндекса я бы сказал, что это основной.

    Да, внешние ссылки у Яндекса имеют более низкие приоритеты..

    И это дает повод для манипуляции выдачей при помощи накрутки ПФ.

    И нечистые на руку сеошники до сих пор предлагают продвижение в Яндексе при помощи накрутки поведенческих факторов.

    У самого Яндекса не всегда есть инструменты для “отлова” некачественных сайтов.

    Если Ваш сайт пострадал от накрутки Поведенческого фактора, рекомендуем изучить наш гайд по выходу из-под фильтра ПФ и обзор действующих реальных методов накрутки, которых стоит избегать:

    Единственный способ, который мы тут порекомендуем, прост и уже расписан:

    • Откуда идет трафик. Анализируйте источники трафика и продвигайтесь на подобных ресурсах.
    • Как Вас ищут. Изучайте поисковые запросы и расширяйте при их помощи контента на существующих страницах.
    • Какие страницы популярны. Изучайте страницы, которые приносят конверсии, и обрабатывайте те, которые приносят их меньше.

    Ссылочный фактор ранжирования

    Как мы и рассказали, сначала в 2013 году Яндекс решил провести эксперимент и отказался от ссылок, но спустя время вернул этот фактор ранжирования.

    А затем фильтр Минусинск расставил все по местам.

    Или нет?

    Например, Дмитрий Севальнев (ПиксельПлюс) считает, что Яндекс учитывает два фактора одновременно:

    • Объем неорганического трафика на сайте (контекст, реферальный трафик и прямой переход).
    • Ссылки, которые приносят реальный трафик.

    Яндекс до сих пор считает ссылочное продвижение вторичным (о чем свидетельствует наше исследование о поведенческих факторах).

    В отличие от того же Google, ссылки в Яндексе всегда давали более медленный рост позиций.

    Но все же к ссылкам у него те же претензии, как и у Google:

    1. Делайте меньше ссылок, но ставьте акцент на качество.
    2. Старайтесь получать только ссылки с отраслевых сайтов. Проверяйте нишу сайта перед тем, как разместиться.
    3. Переключитесь с бирж ссылок на гостевой постинг и методику Scholarship – это позволит продвинуть сайт более естественно.

    Учитывая, что в Вебмастере нет большинства инструментов, присущих Search Console (тот же инструмент для отклонения ссылок от Google Disawov Links), приходится уповать исключительно на техническую поддержку.

    Но радует, что она, в отличие от саппорта Гугла (который представлен просто форумом), техподдержка у Яндекса отзывчивая.

    Возраст Вашего домена

    Это решающий фактор для продвижения в Яндексе.

    В Google Вы можете домен создать хоть сегодня и прилично его продвинуть.

    В Яндексе возраст домена имеет важную роль.

    Текстовое содержимое страницы

    Мы говорили, что для Google это важный фактор.

    Но по приоритетам он значительно уступает ссылочному.

    В Яндексе же это – основной фактор для продвижения сегодня.

    И наказания у Яндекса очень жесткие, тогда как Google на многие вещи смотрит сквозь пальцы.

    Что не любит Яндекс:

    • Дубли контента внутри сайта. Если у Вас огромный интернет-магазин и Вы поленились написать разные описания для товаров, получите выпадение из индекса приличной части страниц. Особенно это касается размеров, цвета, различных технических характеристик. Приходится закрывать все тегом Canonical.
    • Старайтесь не увлечься переспамом ключевыми словами: если Google просто не обратит на это внимание в 95% случаев, то Яндекс сразу в Вебмастере расскажет, что Вы получили фильтр Переоптимизация.
    • Уникальные URL для страниц являются обязательным критерием для обеих поисковых систем.

    Технические факторы ранжирования

    Коротко перечислим список технических багов, на которые следует обратить внимание владельцу сайта:

    • Технически Яндекс не любит переизбыток редиректов (301,302). Старайтесь сделать сайт так, чтобы все ссылки открывались без редиректов. Проверьте при помощи таких сервисов, как Screaming Frog, все ответы сервера для внутренних ссылок на своем сайте.
    • Как мы и говорили, софт страничка 404 должна сначала отдавать ответ сервера 404, затем вести на эту страницу (частая ошибка Soft 404 – 200-й ответ для сервера).
    • В отличие от Google, Яндекс не понимает Javascript и Flash навигацию. И не сможет пройтись по ссылкам, сделанным в скриптах (например в выпадающем меню). Робот сканирует только HTML-ссылки.
    • Вместо AMP, Яндекс предлагает Турбо-Страницы – аналогичный вид быстрых страниц для мобильных устройств в новостных разделах и в блогах.
    • Яндекс не сильно уделяет внимание таким факторам ранжирования, как сигналы из соцсетей, скорость загрузки сайта, мобильная верстка. Но все же адаптивную верстку рекомендуем сделать, ведь тогда есть риск потерять в поведенческом факторе.
    • С недавних пор Яндекс начал уделять внимание микроразметке и недавно ввел чаты в выдаче, а также много других элементов. Поэтому микроразметку мы рекомендуем все же внедрить – это значительно влияет на кликабельность в выдаче.
    • Недавнее изменение коммерческого фактора ранжирования привело к переформированию выдачи для запросов с “продающим” уклоном (для товарных запросов купли-продажи). Уделите внимание описаниям товаров и той же микроразметке.

    On-Page SEO-факторы ранжирования Яндекса

    Просто постарайтесь запомнить, что Яндекс, в отличие от Google, совсем иначе относится к онпейдж-SEO.

    И мы рекомендуем не забывать о коротком списке того, что является для Яндекса критичным:

    • Title (Мета-Заголовок).
    • H1 (заголовок в теле страницы).
    • ЧПУ (ключевик в URL).
    • ИКС сайта.
    • Региональность домена.
    • Длина контента.
    • Внутренние ссылки.
    • Внешние ссылки (их разнообразие).
    • Ниша сайта (в зависимости от ниши – разные требования).

    На что же нужно обращать внимание?

    Итак, все факторы ранжирования в Яндекс по убыванию:

    • Региональность.
    • Поведенческий фактор (Юзабилити и внешний трафик).
    • Возраст домена.
    • Текстовое содержимое страниц.
    • Он-пейдж SEO.
    • Технические факторы ранжирования.
    • Ссылочное ранжирование.

    А где скорость загрузки сайта?

    Вы не поверите, и тут она является не критичной!

    Как и в Google, которые стремятся сделать интернет быстрее, Яндекс выделяет лишь поведенческий фактор.

    Если Ваш медленный сайт единственный, где можно получить нужный товар или услугу, или нужный контент, Вы все равно будете ранжироваться выше быстрого, но бесполезного сайта.

    Что такое ИКС и тИЦ?

    Яндекс не стоит на месте, и у него тоже есть свои метрики для подсчета показателя качества сайта.

    Сначала Яндекс создал “Каталог сайтов” – Яндекс.Каталог, куда вручную заносились сайты и определялась их тематичность.

    Долгое время это было массовой истерией – добавиться в каталог хотели все, очередность была до 6 месяцев, а за срочность можно было заплатить 14000 рублей.

    Забавно, что сейчас этот сервис не принимает заявки на новые сайты и скоро будет закрыт.

    Затем Яндекс ввел тИЦ – тематический индекс цитирования – как метрику для учета качества сайтов.

    Работал он просто:

    • Яндекс считал все входящие ссылки на сайт (не на страницу, а на сайт в целом).
    • Определял тематичность ссылающихся страниц. Все сайты, которые ссылаются, должны быть в индексе Яндекса.
    • Тематичность определялась при помощи Яндекс.Каталога.
    • Исключались ссылки с немодерируемых форумов и сайтов, где любой мог оставить ссылку без ведома самого владельца сайта.
    • Не влияют внутренние ссылки внутри сайта. Перелинковка тИЦ никак бы не улучшила.
    • Ссылки с сайтов на бесплатных хостингах (например, блоги на blogger.com, wordpress.com, livejournal.com на бесплатных доменах). Хотя есть и исключения для отдельных сайтов (если сами блоги есть в Яндекс Каталоге).
    • Рассчитывал тИЦ и выводил в округленном значении (10,20,340, 1200), обновляя значения раз в 2-3 месяца.
    • Каждый поддомен имел разные значения тИЦ.

    Ранее тИЦ был просто манной небесной для линкбилдера: для продвижения в Яндексе нужно было знать всего три показателя:

    1. тИЦ сайта.
    2. Региональность сайта.
    3. Тематичность.

    И больше не требовалось ничего.

    Отфильтровал оба значения и принял решение – покупать ссылку на бирже или не покупать, писать владельцу сайта с просьбой разместить свой материал у себя или идти своей дорогой.

    Но 22 августа 2018 года тИЦ прекратил свое существование, его заменил ИКС.

    ИКС (Индекс качества сайта) – показатель, который по словам Яндекса, отражает востребованность сайта и является переработанным алгоритмом тИЦ.

    Узнать ИКС любой желающий по ссылке в Вебмастере.

    Основной особенностью ИКС является следующее:

    1. ИКС для поддоменов одинаковый и равен значению основного домена.
    2. Для сайтов-зеркал с одинаковым доменным именем ИКС будет одинаковым (например site.ru и www.site.ru), тогда как для сайтов с разными доменными именами (site.ru и site.com) значения будут разные.
    3. ИКС учитывает аудиторию сайта, поведенческий фактор, уровень доверия как пользователей, так и самого Яндекса к сайту. То есть, имеет место небезызвестный ПФ, а также трафик с Яндекса.

    Влияют ли ссылки на ИКС так же, как на ТИЦ?

    Достоверно известно, что данные по сайту Яндекс получает из:

    1. Поиска. Зафиксировано, что сайты, которые получали трафик именно из поиска в Яндексе, получают более высокий ИКС.
    2. Известно, что если сайт получает ссылки с сайтов, которые имеют высокий ИКС и трафик в Яндексе, поднимают ИКС у существующего сайта. То есть, гонка за новой метрикой начнется вновь.
    3. Яндекс учитывает для расчета ИКС данные из Метрики, а также Яндекс.Карт и свои новые сервисы: Дзен.
    4. Достоверно известно, что наличие и отсутствие Яндекс.Директа никак не влияет на ИКС. Только если Вы формируете брендовый трафик в Яндексе, это может повлечь рост ИКС Вашего сайта.

    С недавним апдейтом Андромеда от Яндекса появились также и другие методы расчета показателей сайта.

    Помимо самого ИКС, есть и так называемые значки: выбор пользователя, знак популярности и известный по соцсетям знак верификации официальных сайтов (даже дизайн похож).

    Узнать информацию о любом сайте можно открыто по ссылке.

    Итак, с приоритетами поисковых систем мы ознакомились, переходим к заключительному этапу.

    Составим план продвижения для нашего сайта согласно рекомендациям поисковых систем Яндекс и Google!

    Как оптимизировать сайт под поисковые алгоритмы?

    Как мы видим, алгоритмы развивались каждый год в своей тенденции – от сегментации выдачи по региональности до улучшения релевантности семантики в выдаче, попутно проводя борьбу с черными сеошниками.

    При этом поисковые системы всегда сотрудничали с SEO-специалистами.

    Какие же требования они выдвигают на самом деле?

    Мы уже рассматривали текущие тенденции, которые будут актуальны в следующем году в нашей предыдущей статье (SEO Тренды 2019 года).

    Анатолий Улитовский отметил, что важными факторами в 2019 году будут контент, нулевая позиция в выдаче, мобильная версия сайта, поведенческий фактор и адаптация под голосовой поиск.

    Это все, конечно, хорошо.

    Но что является важным?

    Это открытая информация, и ее можно почерпнуть напрямую.

    Начнем по-порядку.

    Индексирование сайта: сделайте сайт видимым для поисковика

    Сначала добавьте свой сайт в поисковые системы.

    Сейчас они делают сканирование автоматически, но, если Вы хотите избежать проблем, начните все сразу правильно.

    • Первоначально пропишите Robots.txt для своего сайта. Закройте от индексации ненужные разделы. Например, результаты поиска по сайту.
    • Если нужно, чтобы страница отсутствовала в поиске, но была доступна для пользователя, добавьте тег на страницу Noindex.
    • Используйте Теги Canonical для дублированных страниц и пагинации, hreflang для разных языковых версий сайта и Nofollow для исходящих нетематических ссылок на сайте.
    • Добавьте свой сайт в Вебмастера поисковых систем.
    • Затем добавьте карту сайта в Вебмастера.
    • Проверить результат индексации можно в специальных инструментах Вебмастеров. Узнайте, попали ли нужные страницы в Индекс, отдают ли они “200” ответ сервера. Если страницы в индексе нет, уточните, не стоит ли на ней тег canonical на другую страницу или тег Noindex.

    Что такое пагинация

    Она применяется в интернет магазинах и блогах на страницах каталогов – когда количество элементов превышает определенное число, следующие результаты грузятся на другой странице.

    Даже в поисковиках есть эта пагинация.

    Программисты для обозначения пагинации используют микроразметку, обозначая тегами Prev- Next предыдущую и следующую страницы.

    А также тегом Canonical первый URL списка.

    То есть была сложная структура, когда обозначались страницы именно так:

    Однажды один SEO-специалист решил поискать информацию по тегам пагинации.

    И обнаружил, что страница со справкой от Google удалена.

    Он спросил напрямую Джона Мюллера, и тот ответил:

    Мы заметили, что мы не использовали rel-next / prev в индексировании уже несколько лет, поэтому мы подумали, что мы могли бы также удалить документы :)

    То есть с сегодня (21 марта 2019 года) стало известно, что Google уже как минимум год игнорирует дубли страниц, обозначенные тегами Prev-Next.

    Но об этом никто не знал.

    А они решили просто только сейчас почистить справку.

    Вот вам и “открытость” в алгоритмах ранжирования.

    Все нужно учить и за всем нужно следить!

    Теперь некоторые нюансы, о которых не знают даже SEO-специалисты (если они только не изучали все тщательно):

    • Для разных поддоменов нужно делать разный Robots.txt.
    • Дайте роботу Google смотреть на Ваш сайт как пользователь: не закрывайте в Роботс-файле доступ к JS, CSS и графическим файлам, иначе это затруднит нормальное сканирование Вашего сайта.
    • Старайтесь не создавать страницы больше 10 МБ: они не индексируются в Яндексе.
    • В PDF-документах Яндекс индексирует только текст, картинки и схемы игнорируются.
    • Яндекс рекомендует выносить разные языковые версии сайта и мобильную версию на поддомен, тогда как Google предлагает для языковой версии использовать подпапки и адаптивную верстку.
    • Для блокировки конфиденциальной информации обязательно используйте тег NOINDEX, так как заблокированные страницы в ROBOTS.TXT на которые есть внешние ссылки, автоматически попадают в индекс поисковика! Для большей надежности используйте авторизацию, динамические URL и т.д.

    Информация о сайте для поисковика

    В первую очередь, расскажите о своем сайте на самом сайте.

    Для этого сделайте несколько шагов:

    Пропишите заголовки для страниц. Мы рекомендуем больше всего уделять внимание Title больше, чем к другим разделам Вашего сайта.

    В первые дни продвижения мы собираем семантическое ядро для сайта и прописываем метаданные (Заголовки и описания) для Ваших продвигаемых страниц.

    Используйте нашу технику Эверест и калькулятор заголовков.

    КАЛЬКУЛЯТОР TITLE
    • Google не рекомендует использовать описания общего характера в стиле “Эта страница про …” или “Страница сайта о …”
    • Ни Google, ни Яндекс не приветствуют бессмысленный набор ключевых слов в заголовке страницы и их суррогатный повтор.
    • Google рекомендует не вставлять в метатег содержимое документа: старайтесь использовать уникальное описание для заголовков Title и Description. Лимитов на них Google не задает, просто учтите, что они могут не отобразиться полностью.
    • Используйте разные описания для разных страниц, которые будут попадать в поиск.
    • Яндекс рекомендует использовать мета-описания согласно языку документа, а также выносить наиболее важную информацию в начало мета-описания.

    Оформите структуру документа страницы при помощи заголовков H1-H6.

    Количество их может быть каким угодно.

    • Не используйте заголовки, которые помешают поисковику определить структуру страницы.
    • Старайтесь сохранять структуру документа.
    • Ограничивайте заголовки по длине. Редко заголовок превышает 70 символов.
    • Если Вам нужно использовать заголовок-оформление, воспользуйтесь тегами <strong> и <em>.

    Уделяйте внимание верстке Вашего сайта.

    Яндекс очень чувствителен к качеству верстки, поэтому мы всегда проводим валидацию страниц по меркам W3C.

    Также используйте микроразметку и структурированные данные.

    Старайтесь уделить внимание всем элементам, которые предоставляет сервис Schema.org и OG.me

    Это позволит в поисковой выдаче отображать больше полезной информации:

    Google предоставляет удобный инструмент по установке микроразметки для веб-мастеров, и мы рекомендуем этот инструмент для Вашего программиста.

    При помощи данных инструкций, Вы сможете внести изменение в код сайта и улучшить страницы как для Гугл, так и для Яндекса.

    Указывайте товары, которые Вы продаете, адрес Вашей компании, ссылки на на видео, время работы (часы, дни), списки проводимых мероприятий, лого компании (заголовок, фавикон), отзывы и рейтинги, авторов материалов и другое.

    Если же Ваш сайт не позволяет вносить изменения в код (или у Вас нет такого специалиста), в Google есть специальный маркер, где Вы можете проставить все данные вручную, не внося изменения в код.

    Помните: если Вы настроили микроразметку только маркером, в Яндексе это никак не поможет.

    • Google рекомендует не использовать “разметку ради разметки”. Отмеченные разделы должны быть релевантны.
    • Не ставьте микроразметку на разделы, которые скрыты: каждый элемент должен присутствовать в индексируемой видимой области.
    • Не меняйте код сайта, если у Вас нет опыта.

    Используйте возможности самой поисковой системы, чтобы рассказать о Вашем сайте.

    В Google и Яндекс есть множество сервисов, где можно добавить свои ресурсы.

    Для удобства я жирным отметил обязательные сервисы.

    РЕГИСТРИРУЕМСЯ В GOOGLE

    • Google Вебмастер – добавляем сайт в Гугл-индекс.
    • Google Мой Бизнес – регистрируем свой сайт в Гугл как бизнес. Верифицируем все филиалы.
    • YouTube – создаём свой канал и верифицируем сайт.
    • Google Ads – создаем свой аккаунт в рекламе, связываем с счетчиком и с ютуб-каналом.
    • Google Новости – для новостного портала.
    • Google Merchant – для интернет-магазина.
    • Google Adsense – для блога с монетизацией.
    • Google Flights – для сервиса по продаже авиабилетов.
    • Google Блоги – для блогов.

    РЕГИСТРИРУЕМСЯ В ЯНДЕКС

    • Яндекс Вебмастер – добавляем сайт в индекс Яндекса.
    • Яндекс Справочник – добавляем фирму на карты, помогаем региональному поиску.
    • Яндекс.Маркет – для интернет-магазинов.
    • Яндекс.Новости – для новостного сайта.
    • Яндекс.Доставка – для интернет-магазинов.
    • Яндекс.Такси – для сайтов-такси по РФ.
    • Яндекс.РСЯ – для блогов с монетизацией.

    Структура сайта и навигация. Какие требования выдвигает поисковик?

    Если Ваш сайт состоит из одной страницы, значит, он будет отвечать только одному запросу.

    Это привычно для сайтов-утилит и лендингов.

    Но если Вам нужно собирать поисковый трафик, обычно нужно создавать несколько страниц.

    Структура ссылки сайта обычно соответствует структуре самого сайта.

    Как выглядит ссылка сайта?

    Ссылка состоит из следующих частей:

    Уровень вложенности ссылок определяет ее навигацию.

    А теперь немного о том, какие вещи не рекомендуется использовать при генерации ссылок:

    • Ссылки должны быть уникальными – на каждую страницу разные. Google не рекомендует создавать ссылки на одну и ту же страницу из разных поддоменов (например, site.com/url1 и sub.site.com/url1). Для одинакового контента используйте редирект 301 или тег canonical (если нужно сохранить две версии страницы на одном URL).
    • Яндекс может не индексировать страницы с высоким уровнем вложенности или с URL большой длины.
    • На странице навигации старайтесь не перечислить элементы, а распределить согласно логике.
    • Google не рекомендует делать сложную многоуровневую навигацию. Страница может быть и проиндексирована, но рейтинг ее будет низким.
    • Используйте для навигации HTML, избегайте мультимедийные методы (видео, графики, анимацию), навигацию по контенту.
    • Старайтесь ссылки, содержащие параметр и якорь, исключать из индексации.
    • Робот Яндекса воспринимает внутренние ссылки, которые прописаны через <A>: <a href=…>…</a> и проводит индексирование всегда, начиная с главной страницы. Также он лучше воспринимает текстовые ссылки, тогда как Google может проиндексировать и ссылки в JS.
    • Яндекс не любит называемую Soft 404 страницы, когда ответ 404 реализуется через редирект на страницу с 200-м ответом “Страница не найдена”. Это замедляет индексацию и может негативно сказаться на поведенческом факторе. Сервер Яндекса должен получать 404 ответ.
    • Google же считает, что дизайн Soft-страницы 404 не должен отличаться от дизайна сайта. Убедитесь, что Ваш сервер отправляет код 404 HTTP как ответ на битую ссылку. Если сайт на Javascript – закрывайте такие несуществующие страницы тегом Noindex.
    • Избегайте шаблонных названий. Google не рекомендует делать URL в стиле /page/index.html, а старайтесь внедрять ЧПУ – человеко-понятные URL с включенными в тело ссылки ключевыми словами. Но не злоупотребляйте длиной ключевика – это помешает индексации.
    • Старайтесь называть каталоги в пути ссылки так, чтобы это имело смысл.
    • Яндекс может помочь Вашему сайту структурировать контент: Вы можете изучить его раздел помощи и написать в службу поддержки для получения дальнейших консультаций. На сайте помощи Яндекса есть исчерпывающая информация насчет Schema.org, OpenGraph, JSON-LD, hCard, hRecipe, вопросы-ответы.

    Если же Ваш сайт сделан коряво и с нарушениями – не беда.

    Нет смысла приостанавливать работы по продвижению: сосредоточьтесь на параллельных задачах:

    • Определите приоритетные поисковые запросы.
    • Продвигайте главную страницу внешними методами.
    • Дайте программисту в работу исправить ошибки по внутреннему коду.

    Поисковые запросы: что ищут пользователи?

    Многие спрашивают, а какие нужны запросы?

    Именно те запросы, по которым пользователи заходят на Ваш сайт.

    Для этих целей лучше всего использовать Вебмастеров от поисковых систем.

    В Google Вебмастере (Search Console) выберите раздел Эффективность.

    В Яндекс.Вебмастере за это отвечает аналогичный отчет:

    Что нужно сделать?

    1. Изучите поисковые запросы, по которым были показы, но переходов оказалось мало.
    2. Подумайте, как Вы можете доработать и улучшить заголовок страницы, а также текстовый контент.
    3. Расширьте контент для этих страниц. Постарайтесь ответить на поисковые вопросы пользователей.
    4. Изучите релевантность. Если Ваш CTR слишком низкий, постарайтесь уделить внимание тексту запроса и оцените. Если трафик на страницу идет нецелевой, удалите ненужную информацию со страницы или перенесите на другую (для сегментирования аудитории).

    Если же Ваш сайт молодой, изучите запросы конкурентов, поисковую выдачу.

    Соберите семантическое ядро.

    Если Вы не знаете, как это сделать, изучите наш гайд по 9 способам сбора семантического ядра для Вашего сайта.

    Как оптимизировать контент под поисковые запросы

    Следующим логичным этапом будет оптимизация контента под запросы в поиске.

    У Вас есть семантика, интересующие запросы.

    Что теперь?

    Закидываем простыню-текст, выделяем анкоры и прочую ерунду?

    Как бы не так.

    Поисковики за годы своего развития эволюционировали, и на заре 2019 года выдвигают все новые и новые требования к контенту.

    Сейчас просто необходимо знать, как поисковики понимают Ваш контент сегодня: для этого у них прилично расширился инструментарий.

    Google и Яндекс одинаково солидарны в том, что контент на сайте должен отвечать следующим критериям:

    • Контент структурирован по логике – причем как внутри страницы, так и по разным страницам. Пользователь должен понимать, где кончается одна тема, а где уже идет другая.
    • Контент должен легко читаться и быть понятным.
    • Контент должен быть оригинальным.

    Что не любит поисковик?

    • Google и Яндекс не любят орфографические и грамматические ошибки. Я думаю, с этого стоит начать.
    • Google не любит запутанных определений и формулировок в предложениях.
    • Использование картинок. Исключением является тег ALT, и то, он помогает поисковику понять, о чем картинка. Но в ранжировании картинка не участвует.
    • Повторы, переделывания и копирования контента в пределах сайта.
    • Яндекс не любит воровство контента (как есть) из других сайтов и стоит за уникальность. Используйте Вебмастер Яндекса чтобы сообщать о новом контенте, который Вы планируете добавить на свой ресурс.

    Внутренние ссылки на сайте и перелинковка

    Относительно внутренних ссылок и у Google, и у Яндекс, мнения сходятся.

    Внутренние ссылки следует сопровождать такими анкорами, которые позволяют понять, куда ведет данная страница.

    Поэтому внутри сайта мы рекомендуем использовать анкоры-ключевики для улучшения понимания пользователем ссылки до того, как он ее кликнет.

    Соответственно, не рекомендуется использовать во внутренних ссылках на сайте (по мнению Яндекс и Google):

    1. Не используйте безанкоры и слова, лишенные смысла, в качестве анкоров во внутренних ссылках.
    2. Не используйте длинные тексты ссылок. Рекомендуется от 1 до 4 слов в среднем.
    3. Не рекомендуется CSS- оформление ссылок, когда их не отличить от реального текста.
    4. Избегайте употребление чистого URL вместо текста анкора (исключение – когда Вы хотите сказать, что URL ссылки изменился).
    5. Не создавайте ненужные ссылки ради ссылок.
    6. Не вставляйте наборы ключевых слов в анкор, которые грамматически не логичны в предложении.

    А теперь рассмотрим требования поисковых систем, которые одинаковы как для Google, так и для Яндекса.

    1. Для всех нетематических или спамных ссылок используйте тег Nofollow – робот тогда не будет учитывать “вес” этих ссылок и не накажет Вас за избыточную “спамность”.
    2. Если Вы – владелец блога с отложенной модерацией (когда комменты постятся сразу), мы рекомендуем установить закрытие всех внешних ссылок тегом Nofollow по умолчанию, а также предлагаем внедрить капчу за постинг комментария (что избавит Вас от переизбытка спамеров).

    Следует отметить, что Яндекс очень чувствителен к качеству перелинковки внутри сайта.

    Избегайте ставить слишком много внутренних ссылок там, где не нужно: это запутает поискового робота и он выберет не самые лучшие релевантные разделы для быстрых ссылок в выдаче, а также неверно отсортирует полезные страницы.

    Яндекс учитывает перелинковку на сайте как алгоритм определения полезности страниц в большей степени, чем Google.

    Внешние ссылки на сайт

    И вот мы переходим к важному фактору ранжирования – внешним ссылкам.

    Один из первых факторов, остался единственным работающим на сегодня инструментом, позволяющим сообщить миру, чей сайт лучше, интереснее и популярнее других.

    И есть кое-какие нюансы алгоритмов ранжирования, о которых не догадываются ни клиенты, ни SEO-специалисты.

    У каждой поисковой системы свой взгляд на ссылки.

    Google рекомендует, чтобы Вы ссылались на другие сайты, когда пишете не авторский материал.

    При этом, ссылаясь на другой сайт, Вы делаете его популярнее.

    А что делать, если Вы не хотите его пиарить?

    Но иногда возникают ситуации, когда нужно оставить внешнюю ссылку, которая является нетематической.

    Например, Вы хотите рассказать про спамный ресурс, или сайт, который нужно выставить в негативном свете, рассказав про отрицательный опыт.

    У Google есть свой список рекомендаций, которые следует учитывать при проставлении ссылок на своем сайте:

    1. Google против покупки или продажи ссылок. Как следствие – за рубежом биржи ссылок уже вымерли.
    2. Не рекомендуется просить пользователей и других владельцев сайтов оставить ссылку на Ваш сайт. Если Google заподозрит Вас в этом, все ссылки будут проигнорированы.
    3. Обмен ссылками (перекрестный, партнерский) чреват понижением позиций, такие ссылки рекомендуется закрывать тегом Nofollow.
    4. Спам крауд-маркетингом комментов с ссылками, где околоанкорный текст насыщен ключевыми словами.
    5. Массовое размещение статей с ссылками, которые наполнены ключевыми словами.
    6. Не рекомендуется требовать размещение ссылки без возможности ее блокирования тегом Nofollow (например, когда это регламентируется юридически пользовательским соглашением).

    Также Google особняком выделяет искусственно созданные ссылки.

    Они могут генерироваться разными способами, и поисковик всячески стремится, чтобы владелец ресурса избегал таких методов выстраивания ссылочного профиля.

    В этом списке все будет касаться внешних ссылок на Ваш сайт, не закрытых тегом Nofollow.

    Какие ссылки точно вредны для SEO с точки зрения Google:

    1. Комментарии на форумах, когда ссылка находится в профиле в подписи.
    2. Ссылки в подвале сайта или встроенные ссылки в шаблонах.
    3. Ссылки с онлайн-сервисов закладок, а также некачественных малопопулярных каталогов.
    4. Ссылки, которые содержатся в результате генерации виджета (например, счетчик).
    5. Ссылки, которые опубликованы в СМИ, содержащие избыточное количество ссылок и/или ключевых слов, оптимизированных для поисковых систем (например, когда в статью вставлен целый абзац с ссылкой на Ваш сайт с рекламным текстом или же вся статья написана на нецелевом ресурсе).
    6. Статьи и объявления с явной или скрытой рекламой и ссылками на Ваш сайт, полученные в результате платного размещения. До упразднения PageRank.

    Рекомендации Яндекса относительно ссылочного профиля более строгие, хотя сам фактор ранжирования ссылками у Яндекса слабее.

    Причина – наличие такого фильтра, как Минусинск.

    • Партнерские ссылки должны содержать качественные анкоры и околоанкорный текст. Яндекс очень чувствителен именно к анкорам внешних ссылок, и если ссылка указывает на Ваш сайт компании, желательно применять название компании как анкор или делать безанкорным URL (всякие Тут и Здесь лучше просить заменить).
    • Ссылки с местных СМИ и блогов рекомендуется сопровождать ключевыми словами. Постарайтесь, чтобы как в анкоре, так и в околоанкорном тексте были ключевые слова, на который ссылается материал новостного сайта.
    • Ссылки в справочниках и каталогах для Яндекса являются важным фактором ранжирования для коммерческих сайтов, даже больше, чем ссылки с форумов и блогов. Но к каталогам Яндекс применяет свои требования. Например, на каталоге нет ненавязчивой рекламы, в Вашей отрасли должны находиться крупные предприятия, у страниц каталога должны быть позиции и трафик в Яндексе в Вашем регионе, а также информация на каталогах должна модерироваться и не содержать ошибок
    • Внешние ссылки на Вашем сайте, которые оставляют пользователи, должны модерироваться. Если Вы – владелец форума, и у Вас плохо работает модерация ссылок (не успеваете), сопровождайте их тегом Rel=Nofollow.

    Теперь о платных ссылках.

    Яндекс безумно не любит биржи ссылок.

    Он борется с ссылками даже больше, чем Google, отказывался от ранжирования по ним.

    Недавний алгоритм Минусинск направлен именно на то, что он пытается определить, откуда Вы получаете свои ссылки.

    Если Яндекс обращает внимание, что ссылки Вы получаете в основном из сервисов бирж ссылок, Вы рискуете получить фильтр и потерять в позициях в поиске на 20-30 пунктов вниз.

    Теперь коротко о самом алгоритме:

    1. Уведомление, что Вы схватили такой алгоритм, придет на Ваш Яндекс.Вебмастер, и там будет условия выхода из-под фильтра и кнопочка “Я все исправил”. Нажимать ее нужно только после того, как Вы снимите все SEO-ссылки.
    2. Сроки выхода из-под фильтра от одного до 3-4 месяцев, при условии снятия SEO-ссылок и написания письма в службу поддержки. Робот проверяет все доноры и спустя время даст положительный или отрицательный ответ.
    3. Условием выхода является снятие SEO-ссылок. Логично, что на все ссылки Вы не можете повлиять. Система учитывает порог (определенный процент, определяется индивидуально для каждого сайта) снятия ссылок, затем принимает решение.
    4. Накрутка ссылками конкурентов может повлиять лишь на сайты, которые не продвигаются естественно вообще. При попытке “накручивать ссылками” популярные сайты алгоритм такие спамные ссылки учитывать не будет. Поэтому накрутка конкурентами при помощи спам-ссылок возможна, если в Вашей среде конкуренция в SEO невысока.
    5. Снятие SEO-ссылок не повлияет на Ваши позиции в Яндексе значительно, в то время, как в Google Вы можете испытать эффект падения трафика.
    6. Если Яндекс убедится, что Вы выполнили требования и снимет фильтр, пройдет еще около 2-3 обновлений баз (1-1,5 мес) для того, чтобы позиции вернулись в норму.
    7. Если Вы нажали кнопку “Я все исправил”, но она стала активной, значит, что Вы либо ничего не сняли, либо сняли слишком мало ссылок. Также проверьте, у кого есть доступ к сайту, чтобы никто “случайно” не нажал ее раньше времени.

    ВЫВОДЫ

    Многие ошибочно думают, что стоит только начать работы по SEO, нужно сначала приступать к внутренней оптимизации, редизайну и только затем – к линкбилдингу.

    Обычно такие клиенты начинают оптимизировать скорость загрузки, становятся одержимыми задачей вывода сайт в зеленые зоны по Пейджспид.

    Мы ежедневно читаем множество материалов на SEO-ориентированных ресурсах и замечаем, что все описывают десятки способов оценки качества ссылок, текстов, оценивают от 5 до 9 способов сбора семантического ядра (да, даже мы писали об этом статью).

    Но все напрочь забывают именно о приоритетах.

    О реальных приоритетах ранжирования от самих поисковых систем.

    А какие приоритеты?

    1. При создании сайта решите вопрос с региональностью ресурса. Если это сайт местной компании, начните регистрацию сайта в Яндекс.Справочнике, Google Мой Бизнес. Укажите адреса филиалов на сайте. Правильно пропишите атрибуты Hreflang и Rel=Alternate (для разных версий сайта для других стран).
    2. Если Вы продвигаетесь по РФ, лучше всего продвигать старый домен, имеющий определенный возраст. Если такие есть, лучше перекупите их. Для англоязычного рынка это не имеет значения. Зато в Google важно наличие HTTPS, и мы рекомендуем ставить его сразу. Если надо, переедьте на HTTPS до начала работ, чтобы ссылки ставились сразу же.
    3. Самое главное – внешние ссылки. Изучите свой внешний ссылочный профиль в Вебмастере, посмотрите, кто на Вас ссылается. Проведите анализ конкурентов и изучите их ссылочные профили. Помните, ссылками нужно заниматься сразу и экономить бюджет на этом или откладывать их на второй-третий месяц не стоит. Также следует знать, что ссылки могут индексироваться в поисковых системах не сразу (в Яндексе могут давать эффект спустя месяц), поэтому стоит распланировать работы по линкбилдингу на 3-4 месяца сразу.
    4. Правильные Title и даже тег Description значительно влияют на кликабельность в поиске. Поэтому Ваш SEO-специалист должен предоставить техническое задание по исправлению метаданных (тайтлов и дескрипшнов) на сайте согласно семантическому ядру (для карточек товаров – техзадание на доработку шаблона).
    5. Решите вопрос с индексацией с SEO-специалистом. Вебмастеры (Яндекса и Google) должны быть установлены, карты сайта и Robots.txt – прописаны и указаны в них. Проследите, чтобы все продвигаемые страницы начали индексироваться.
    6. Уделите внимание навигации, не перелинковке. Внутренние ссылки, меню, поиск на сайте и фильтры в каталоге должны быть удобными в первую очередь. Это значительно влияет на юзабилити сайта и на поведенческий фактор в целом. Поэтому правки по аудиту юзабилити рекомендуется дать сразу своим дизайнеру и верстальщику, одновременно.
    7. Задачи по исправлению битых ссылок, лишних редиректов, микроразметки, адаптивной верстки, AMP и турбо-страниц следует передать в работу параллельно. Приоритетность задач в порядке перечисления – сначала битые сслыки, потом редиректы и т.д.
    8. Изучайте ключевые слова все время. Если Вы владелец старого сайта и хотите начать SEO продвижение, поисковые ключи, в первую очередь, нужно брать из Ваших Вебмастеров, и только затем – из других сервисов. Расширяйте и дорабатывайте контент на тех страницах, где Вы считаете, что у Вас плохой поведенческий фактор. И создавайте новые страницы, если Вы нацелены на привлечение новой и сегментацию существующей аудитории.
    9. Изучайте поисковый трафик на сайте. Вебмастеры и Аналитики позволяют отследить, как позиции Вашего сайта, так и поведение пользователей на ресурсе. Помните, что поведенческий фактор всегда имеет значение (пусть даже в разной степени).
    10. Уделяйте внимание анкорам ссылок. Внутренние анкоры должны быть понятными как пользователю, так и поисковым роботам. Старайтесь делать анкоры длиной в 2-3 ключевых слова (по свежим рекомендациям).
    11. При внешнем линкбилдинге старайтесь ссылки включать в контент так, чтобы она вела на Ваш сайт по одной из трех стратегий:
      1. Вы ссылаетесь на первоисточник
      2. Вы предлагаете прочесть определение указанного термина
      3. Вы ссылаетесь на объект беседы.

    Обычно все статьи заканчиваются одинаково:

    Например, в стиле “экспериментируйте, пробуйте, пишите”.

    Нет, сначала не экспериментируйте.

    Важно понять, чего хотят поисковые системы от сайтов и что они не любят.

    Выполните поставленные требования в первую очередь.

    Затем придумайте, что нужно реализовать на сайте такое, чтобы пользователь зашел за контентом (товаром, услугой) именно к Вам.

    И затем, – как сделать так, чтобы он хотел возвращаться.

    А вот после этого экспериментируйте и пробуйте.

    А с чего Вы начинаете SEO-продвижение сайта?

    Какие приоритеты расставляете?

    Этот пост был последний раз изменен 09.09.2022

    Disqus Comments Loading...

    Этот веб-сайт использует файлы cookie.