Anatoly
Палим секреты продвижения
Подпишись на рассылку и получай уведомления о выходящих вебинарах, видеороликах, подкастах и новых статьях на нашем сайте!
Nikolai Alena

Статьи и материалы по теме SEO Продвижение

Что такое SEO Текст и чем отличается от другого текста

SEO Текстовый анализ – обзор инструментов. Чего не хватает на 2021 год | Урок #389

SEO Текстовый анализ – обзор инструментов. Чего не хватает на 2021 год | Урок #389
В новом аудиоподкасте №389 Николай Шмичков и Никита Камышников рассказали про SEO текстовый анализ и обзор инструментов. Чего не хватает на 2021 год. Текстовая версия выступления: "Всем привет! Вы на канале seoquick. Слушаете наши подкасты. В гостях у нас Никита Камышников. Сегодня мы будем рассматривать всевозможные инструменты, которые нужны для SEO мы сами авторы множества инструментов. Но инструменты Текст.ру для меня является немножко необычными, потому что я с ними давно, но знаю про них мало. И сегодня Никита расскажет нам про инструмент, который они создали специально для сеошников и который явно планировался для решения большинства интересных задач. Никита тебе слово. Да Николай. Привет. Спасибо что пригласил. По поводу нашего инструмента - SEO анализа текста, он создавался таким, одним из базовых, ещё у истоков text.ru, вместе с проверкой уникальности и собственно сейчас проверка на SEO она по умолчанию входит в проверку уникальности. Не знаю, возможно это такой неочевидный факт, но когда вы проверяете на текст ру сайт на уникальность, вам бонусом даётся SEO анализ этого же текста и проверка орфографии. Но SEO анализ можно опять же провести как отдельной функцией. Для чего он собственно нужен? После того как вы прогоняете на текст.ру сайт на SEO анализ, вам по нему дается такая вот краткая сводка где показан уровень воды в тексте, уровень заспамленности. Там же показывается при наличии какие-то там смешанные слова или слова в различных раскладка клавиатуры, т.е. вот эти самые уже устаревшие, но кем-то ещё использующийся попытки мошенничества, когда русская буква “о” маскируется латинской буквой “о”. Думают что это всё пройдёт. В случае с текст.ру - нет не пройдет. Мы это засекаем. Это как раз тоже публикуются в SEO-анализе. Далее у нас есть отдельный блок по ключевым словам, там указывается какое слово, какая фраза сколько раз были упомянуты в проверяемом вами тексте. Там очень удобные дробление по двум группам идет. Это по группам и по частоте упоминания. Конечно можно сказать что это немножко вот под старую модель SEO оптимизации текстов заточено. Но в принципе все вот эти вот аспекты которые проверяются они по сути актуальны до сих пор. Те же самые заспамленные тексты или слишком водянистые тексты. К ним с каждым новым апдейтом поисковой системы отношений всё более строгое, все более критическое. А другие площадки, тот же самый например Яндекс Дзен он тоже не очень любит когда там публикуется тексты ни о чём. Просто какая-то смысловая размазня, в которой непонятно что автор имел в виду. Или который нашпигован ключами просто в каком-то хаотичном порядке. Поэтому инструмент SEO анализ на текст ру он всё ещё, я считаю, жизнеспособен, всё ещё может принести достаточно пользы и веб мастерам, и тем кто размещает контент на других площадках то есть не на сайтах. Хотел спросить, а у вас инструментарий он оценивает контент, который находится в текстовом блоке? Или оценивает весь контент на странице? Потому что если зайти в коммерческую страницу, там же будет трэш состоящий из кучи слов названий товара. Он оценивает то, что вставлено именно вот в форму проверки. Ага, я понял, то есть он оценивает только конкретно. А постранично? Вот тут прогнать по всем страницам он не может, да? То есть так продать весь сайт? Нет такой возможности нет. Почему я это говорю? Потому что буквально недавно, Скримин Фрог выкатил возможность орфографической проверки всего ресурса. Тут можно весь сайт прогнать на проверку орфографических ошибок. Уникальность он не проверяет, но он проверяет так называемую очень полезную такую штуку, называется Near Duplicates and Duplicates т.е. он проверяет встречается ли повторяющиеся страницы в плане контента между собой. Т.е. он сверяет страницу А, страницу Б и говорит, чем страница А и страница Б отличаются друг от друга и на какой процент. Если он находит страницы у которых условно говоря контент практически схож, он выкатывает их отдельным списком. И ты можешь увидеть - ага на этих страницах я вообще забыл контент добавить. В основном это их касается. Вот, а второй момент - это по поводу проверки орфографии. Ты берёшь определенный список пула страниц, выбираешь нужный язык, на котором нужно геолокацию проверять. Либо ты запихиваешь весь сайт и для каждой локации главное чтобы соответствующий словарь погружался и проверяешь там украинский, русский, английский, немецкий может быть. Ну короче все словари можно подгрузить, то есть их там кучи. И да он там выдаёт иногда там ложноположительная, но что мне нравится выдаёт эту как называется ошибку дурака это когда после запятой забывают пробел поставить. Вот даже такие вот вещи позволяет выловить сразу массово. Т.е. ты получаешь список страниц и фрагмент ошибки. И т.е. уже даешь редактору править, он с Ctrl+F контент менеджер находит и сидит это всё исправляет. То есть уже находит на какой стороне, зашел на страницу, прошёлся, исправил этой странице все орфографические ошибки, потом другую, третью. И на минуточку это инструмент который вообще битые ссылки ищет, там скорость сайта меряет. Ну т.е. чтобы ты понимал, да, то есть массовая проверка орфографии - это уже сейчас становится трендом. Ну я да, со Скримин Фрогом имел дело имел дело. Очень крутой инструмент, но текст ру всё-таки работает по другому. Баланс элементов кроулинга по сайтум не внесено. Ну это кстати тоже вам задаток на будущее. На самом деле, без шуток, проверка внутри сайта тоже важна, потому что с точки зрения SEO-шки мы оценивать должны соответствие Title, дескрипшна, заголовка - созданному контенту страницы. И во-вторых еще уметь различать сейчас типы страниц. Это какие вызовы сейчас стоят перед SEO-шниками в поиске идеального инструмента для оценки текста. Почему собственно текстовой анализ делать очень тяжело SEO-шникам, да? Потому что такого инструмента, одного - реально не существует. Приходится использовать чуть-чуть того, чуть-чуть того, чуть-чуть того. Уникальность померить у вас например, орфографию проверить там, чтобы прогнать весь сайт на орфографию. Более того, я тебе так скажу, для того чтобы проверить релевантность контента на странице, мы написали свой собственный тул, потому что не было такого инструмента т.е. чтобы массово проверить список страниц на релевантность тайтла контенту. Мы написали свой собственный инструментарий. Чтобы сравнить тайтлы с реальными поисковыми запросами, которые существуют на странице я написал еще один инструмент, который пока не публичном доступе. То есть на самом деле вызовов много, и когда меня просят делать текстовый анализ, ты правильно говорил на прошлом вебинаре, что для анализа чтобы был доступ к админке внутренностям сайта, да? А нам нужен к вебмастеру доступ, для того чтобы реальное поисковые запросы выловить, по которым сайт показывается. Чтобы сравнить с тем контентом который там написан, определить запросы которые клиент не дожал в своем контенте. Увидеть что люди реально спрашивали вопрос, а у него на этот вопрос нет в статье ответа. И говорим - ребята вот вопросы с высоким трафиком, ваша статья показалась на задворках Гугла и Яндекса, напишите в этом абзаце ответ на этот вопрос и вы получите трафик. Реально люди пишут и получают трафик. Вот это такие вот штуки SEO-шного анализа, которые реально на самом деле в следующем году ставят вызовы перед разработчиками инструментариев. Вот более того, какой список задач стоит на самом деле, он огромен, я думаю тебе будет точно интересно и вот такие инструменты они будут нужны не только сеошнику, а и контент-мейкеру любому, владельцу сайта. Потому что всегда хочется ткнуть свой сайт, посмотреть по каким запросам ты упустил трафик чтобы доработать свою страничку, чтобы не упускать. Вот такие штуки интересные. Ну я согласен, да, для Текст ру это такой прям очень понятный путь масштабирования конкретно функции проверки сайта. Вот, на самом деле очень хочется увидеть это у вас, потому что тулом пользуемся постоянно. И за такие сервисы даже готовы платить, даже если они будут дорогие. Потому что за Ahrefs люди платят 1500 долларов в год понимаете, то есть для того всего лишь чтобы изучать контент, ссылки и анализировать конкурентов. А для того чтобы следить за своим собственным сайтом проверять где ты упустил семантику каких инструментов нет. И для этого собственно вот и нанимают нас SEO-шников чтобы мы такие моменты вычисляли, но делать это на постоянной основе это нужно делать реально сейчас. Потому что я работаю над тем что вылавливаю темы, которые конкуренты упустили, но вдруг мы что-то сами упустим? За этим нужно следить. Вот в чем фокус. Собственно вот те вызовы с которыми мы должны сталкиваться и разрабатывать и бороться с ними. Если ты согласен Никита, внедряйте в ваши планы. Согласен, да, я себе уже зафиксировал в блокноте, крутая идея. Спасибо. Ребята пользуйтесь инструментами как нашими так и Текст ру. Каждый инструмент мы сделали под какие-то простые, конкретные задачи. Наши очень простые инструменты. Вот мы делали под разные задачи, к примеру у тебя 100.000 ключей, тебе надо из них составить контент-план. Мы создали такой инструмент называется Кластеризатор. Идеально работает. Просто позволяет сразу собрать темы для блога буквально за 2 - 3 минуты. Потом если мне вам нужно проверить сайты на качественней тайтл и дескрипшн мы создали простой инструмент в котором можно быстро написать тайтл и дескрипшн для всего сайта, сверив с вашей семантикой на странице - вебсайт аудитор. Потом если вам нужно запустить контекстную рекламу мы написали инструмент который позволяет просто дал список ключей, можно разбитые по группам, можно не разбитые по группам и у вас в один клик кампании в Google ads - генератор объявлений. Причём вы в генераторе и сразу увидите как будут выглядеть ваше объявления, мы специально сделали визуализацию. То есть мы создали очень простые инструменты и в Текст ру мы пользуемся самым простым инструментом, нам нужно проверить украден этот фрагмент текста или нет, и насколько он украден, или насколько плохо он написан. Особенность простых инструментов, когда ты задаешь простой вопрос и тебе нужно получить простой ответ. Фишка в том что простые инструменты будут жить и будут жить в следующем году. Поэтому пользуйтесь всегда простыми инструментами, которые выполняют четко, хорошо одну задачу до конца. Вот собственно это моё напутствие. Да, в принципе я согласен, потому что ну какие-то каналы распространения контента они могут меняться, эволюционировать. Но потребность в таких инструментах она в любом случае будет сохраняться, потому что все основополагающие символы работы с текстовым контентом они в принципе незыблемы. Именно так. Никита, рад был что посетил меня. Приходи ещё. Спасибо, с удовольствием. Ребята подписывайтесь на подкасты, смотрите нашего бинары, читайте наш блог. И конечно же до новых встреч. Пока."

Обзор Google Tag Manager

Николай Шмичков, Иван ПалийДата вебинара: 29.04.2021933

Синонимы в SEO. Как собирать и зачем нужны | Урок #388

Синонимы в SEO. Как собирать и зачем нужны | Урок #388
В новом аудиоподкасте №388 Николай Шмичков и Никита Камышников рассказали про синонимы в SEO. Как собирать и зачем нужны. Текстовая версия выступления: "Всем привет! Вы снова слушать и одновременно может быть и смотрите на IGTV наши подкасты на канале SEOquick. В гостях у меня Никита Камышников. Никита привет. Николай привет. Спасибо что пригласил. Вот и сегодня тема, которую я бы хотелось задать Никите - это конечно же тема касательно “Синонимы в SEO”. Мы сами знаем зачем нужны синонимы. Потому что я с технической точки зрения. Я разрабатываю кластеризатор и мне надо иногда кластеризовать синонимы одновременно и в нашем туле функционал подбора синонимов есть. Только по умолчанию в ручном режиме, когда вы синонимы ручками прописываете. Но существуют сервисы которые предлагает синонимы по каким-то базам. И я на такой наткнулся непосредственно у Никиты. На его ресурсе. Никита расскажи, а вот зачем вот вы когда создавали свой сервис синонимов, какие цели вы преследовали. Чем вы хотели помочь пользователям? В принципе, изначально словарь синонимов создавали как раз вот в помощь нашим копирайтерам. Потому что я сам как человек часто пишущий, как практикующий можно сказать копирайтер, встречаю такие ситуации, что пишешь текст и в какой-то момент хочешь написать слово, но понимаешь что ты до этого с ним уже прямо существенно злоупотребил и тебе нужно подобрать к нему синоним. Синоним, который сразу в голове не всплывает и ты естественно идешь на какую-то площадку, чтобы посмотреть как можно другим словом выразить то что вот ты как раз хотел написать. В нашем случае словарь синонимов это такой, без преувеличения могу сказать, предмет гордости для сервиса Текст ру, потому что все синонимы собираются силами наших пользователей самих. Они приходят на модерацию, через наших специалистов поддержки и специалисты соответственно оценивают насколько тот или иной синоним он адекватен. И вот получается, что вот так вот коллективными усилиями копирайтерский труд хоть чуть-чуть, но в каком-то аспекте проще. Действительно, я заметил. Я нашёл например ради интереса синонимы к слову добавления и тут нашёл 50 синонимов. Правда тут они явно идут как в том известном меме про надмозг, там где сначала мозг поменьше, тут даже дошло до слова приправа, надбавка, привесок, привнос. Есть момент такой, а как вы оцениваете насколько синоним ну… То есть вот не хватает инструментарию вашему - это степени родства между словами, планируется ли такое вот? Доработка то есть, которая будет определять степень родства того синонима к другому синониму. На самом деле идея очень классная, но пока что каких-то прямо вот кардинальных правок в словарь синонимов мы не планируем, потому что каждая правка это естественно программистский труд, рабочие часы сотрудников, которые.... ну я думаю ты можешь подтвердить, что у разработчиков часы расписаны на многие недели вперед. Чтобы как-то существенно улучшать словарь синонимов, возможно имеет смысл как-то поставить его на коммерческие рельсы. Возможно сделать платным, но в таком случае это как-то уйдет от нашей от изначальной концепции какой-то базы именно бесплатной помощи копирайтеру. Поэтому в обозримом будущем пока вот этой вот надстройки не планируется. Вот на самом деле синонимы, действительно вот что определяет что это слово является синоним этого слова? Это собственно насколько по этому же синониму, мягко говоря, выдача в поисковой системе схожа. Мягко говоря да? Вот если мы как SEO-шники разбираем. Если я заменю слово на другое слово допустим “винтовка” на “винтарь” к примеру, на сколько изменится поисковая выдача, да? Или, например, если слово “приложение” и “добавка” я использую как синонимы, насколько выдача изменится? Вот таким вот образом я считаю что можно измерять степень родства - это для SEO-шки. Почему важно учитывать это? Часто бывает вы не можете подобрать синонимы когда вы пишите Title и description и вот если вы не знаете что оставить туда, допустим “смартфон” или “телефон” или “мобильный телефон” да? то есть может быть это и не синонимы вовсе. Как бы вы не думали, а это действительно разные названия категорий. Единственный способ как проверить синоним близкий или дальний - это только проверить поисковую выдачу. Если по синонимичному запросу поисковая выдача практически не меняется то вероятнее всего, что вы наткнулись на настоящий синоним и его можно смело использовать в контенте без каких-либо проблем. Но если же вы наткнулись на то, что выдача кардинально меняется и вы видите на “приложение” одну семантику на “добавку” другое семантику, то явно, что синонимы хоть они есть, но с точки зрения копирайтинга нужно их использовать осторожно, грамотно оформлять вокруг слова слева и справа. Ну и конечно же я понимаю, что ручной труд, тул действительно клёвый. Почему? Потому что мы очень долго копали синонимы к словам допустим “купить”, самый банальный способ, а какие являются синонимы к слову “купить”? На самом деле ты удивишься, что синонимом слова “купить” всё равно является слово “цена”, потому что это созвучные с интентом два запроса. Люди, которые гуглят слово “купить” и гуглят слово “цена” они примерно хотят одно и то же. И вот такие вот вещи мы выловили, и в свою базу синонимов залили. Но когда начали заливать другие базы синонимов, мы собственно и столкнулись с этой проблемой родства. И когда хотели добавить к нашему инструментарию возможность оценки синонимов вот нашим кластеризатором, чтобы он группировать слова вместе “Самсунг” русский, Samsung английский. Да? К примеру это логичные синонимы транслитерируемые синонимы, то вот со словами у которых меняется корень, вот здесь иногда бывают подводные камни. Вот собственно в этом вопрос. А как в ваши сервисы проверок именно распознают синонимы в контенте? Они умеют распознавать, вот сервисы по проверке уникальности, или нет? Имеешь в виду замечают ли подмену в случае если там просто одно слово заменено на синонимичное? Да-да. В таких случаях, да, это распознаётся. Но тут опять же зависит от добросовестности того кто писал эту статью, или ну скорее всего рерайтил. Если человек основательно подошел и пересинонимизировал вообще весь текст, то это может пройти. Но такое редко кто использует, обычно чтобы там как-то побыстрее попытаться подкрутить нужный процент уникальности люди думают что вот достаточно несколько слов заменить на синонимичные и всё прокатит в таком случае у нас это всё распознаётся и так вот механика в случае с Текст ру нерабочая. Забавно, это действительно необычно, потому что если вот я заменю Samsung латинский на Самсунг русский, оно распознает т.е. если я так разбавлю? Да, да, должно распознать. Потому что на самом деле, вот с недавних пор вот то что мы рассказывали как раз в прошлом вебинаре, который проходил у нас, я говорил что поисковая система научилась это распознавать. Теперь не обязательно в Title писать Samsung латиницей, Самсунг где-то вписать в контенте ошибочное употребление, это уже не обязательно делать. Поисковые системы при помощи собственно нейросетей научились распознавать хотя бы упоминание один раз конкретного названия. И теперь если вы вбиваете допустим “ремонт стиральных машин Самсунг” по-русски и “ремонт стиральных машин” по-английски вы увидите что выдача особо не меняется. Остается тоже самое. И это есть вот собственно прорыв, теперь теперь не нужно париться по этому поводу и разбавлять ненужными ключами контент. Это так называемые синонимы с которыми уже можно не париться и не заниматься. Надеюсь собственно вы вот такие вот вещи, кстати вот тоже вот Бош и Bosh латиницей. Вот это на самом деле фактически сейчас надо делать, что это распознавать как один ключ. Более того рекомендовать сейчас нужно в инструментариях: “Старайтесь не использовать часто допустим вот такое неправильное написание бренда, потому что это только может повлечь скорее всего к падению в поисковой выдаче, с учетом новых требований поисковых систем. Вот есть такая особенность т.е. то, что раньше делал для того чтобы учесть требования поисковых систем, сейчас это действует в обратном направлении. И будет действовать и в Яндексе и в Гугле одновременно. Вот это собственно что я хотел сказать своя мысль по синонимам, потому что это тоже синонимы как ни крути и мы когда собираем семантическое ядро, мы эти два запроса объединяет вместе, т.е. само собой это однородные запросы и имеют одинаковый интент и одинаковую выдачу. Иначе глупо было бы делать на сайте 2 раздела: 1 ремонт стиральных машин Самсунг по-русски, 2 ремонт стиральных машин где Samsung написано по-английски. Это было бы глупо. Может кто-то просто не приемлет латиницу в названиях? Вот без шуток, на самом деле, есть такая ошибка и грубая ошибка до сих пор, уже устаревшая на ряде сайтов встречаю. Никита прикольный инструмент. Рад был тебя слышать. Взаимно. Всем кто слушал наш подкаст, обязательно подписывайтесь. Посмотрите наш совместный вебинар с Никитой, который прошел на нашем youtube-канале. И конечно же читайте наши статьи и пользуйтесь инструментами как нашими такие инструментами Текст ру. Всем спасибо и до новых встречь. Спасибо. Пока."

Сколько стоит продвижение сайта (в месяц) – Расчет SEO работ

Анкор Лист – Зачем нужен в SEO и как его собирать | Урок #387

Николай Шмичков1680 раз
Анкор Лист – Зачем нужен в SEO и как его собирать | Урок #387
В новом аудиоподкасте №387 Николай Шмичков рассказал про анкор лист - зачем нужен в SEO и как его собирать. Текстовая версия выступления: "Всем привет! Вы на канале SEOquick. Меня зовут Николай Шмичков. И сегодня мы обсудим такую тему, как Анкор лист. Да, мы уже говорили в наших подкастах что такое анкоры. Но никогда не спрашивали: зачем нужен вообще анкор лист. Такой специальный отчетик, который обычном можно выкачать из Google Вебмастера, из Ahrefs. Вы всё это может выкачать, изучить. Но вопрос: “Зачем?” Я начал интересоваться этой темой более детально, когда анализировал страницы, по которым мы отлично продвинулись. В частности, отдельной страницей Калькулятор качества тайтл. Наших утилит, которые мы продвигали, кластеризатора и тому подобного. Мы выстроили на него огромное количество ссылок, при этом страница, по умолчанию, контента особо не имеет. Но она начала ранжироваться благодаря тому, что мы выстроили определенное количество ссылок с разными анкорами. Да, фокус в том, что анкоры действительно местами разные. Суть заключается в том, что иногда нужно выстраивать не одни и те же анкоры, а нужно выстраивать, т.н. разбавленный анкор лист. Поэтому давайте разберем, вообще что такое анкор лист. Анкор лист – это список ключевых слов, которые были использованы для внешних либо внутренних ссылок на конкретную страницу. И непосредственно, чуть-чуть затронем такую тему, как монолитный индекс страницы. Монолитным индексом страницы является сумма всего текстового контента страницы + все анкоры, которые ведут на эту страницу, будь-то внутренние или внешние. Поэтому, монолитный индекс станицы и является, собственно, текстовой составляющей продвижения ваших страниц. Да, это довольно-таки старый показатель: про него можно найти действительно что-то в статьях 2015 года. Но я на него наткнулся, начал внимательно изучать и обратил на это внимание, что вес страниц, которые прекрасно себя чувствует, обычно зависит от того, какое количество анкоров и внешних ссылок на них ссылается. Я анализировал ряд сервисов, которые имеют очень мало контента, но имеют огромное количество ссылок благодаря именно этой методике. И если пойти чуть дальше, то анкор лист нужно составлять. Почему важен разбавленный анкор лист. Если вы сделаете сотню ссылок с одинаковым анкором, поисковик скорее всего заподозрить вас в том, что вы ссылочки покупаете. И он будет прав. Вы ничего с этим не сделаете. Вы будете под фильтром очень очень долго и нудно. Вот поэтому оптимальный вариант – это составление разбавленного анкор листа. Как это сделать? Здесь секрет полишинеля очень прост. В первую очередь, вам нужно изучить семантику, по которой вы плохо себя чувствуете. Это ключи, по которым вы получаете максимальное количество показов своего сайта, но минимальное количество кликов. Для удобства: это ключи, которые имеют позицию от 5 и ниже. И отсортируйте их по показам. Таким образом, исключите все ключи с достаточно низким CTR, которые ниже определенных значений. Почему? Потому что, на самом деле для того, чтобы занять Топ-3, вам нужно будет работать как с поведенческим фактором, так и с другими факторами. Но для того, чтобы попасть хотя бы в Топ-5, важен ссылочный фактор. Потому что из Топ-3 в Топ-1 можно подняться за счет поведенческих. Но, чтобы попасть в заветные Топ-5, вы должны уделить внимание именно ссылочному фактору и наращиванию монолитного индекса всех ваших страниц. В первую очередь разделите страницы по типу. Разделите страницы на коммерческие и информационные. Коммерческие страницы однозначно нужно будет продвигать перелинковкой. Делайте перелинковки со всех страниц, которые прекрасно себя чувствуют в ранжировании. Уделите внимание технической оптимизации. Чтобы у вас в технической оптимизации анкоры были при перелинковке. Это легко сделать при помощи хлебных крошек и упоминаний в блоговом контенте. По поводу блогового контента. Изучите статьи, которые хорошо ранжируется и посмотрите какие анкоры будут по тематике максимально релевантно использовать в этих статьях. И отмечайте те анкоры, которые вы использовали. Затем останется дело за статьями. Следует обратить внимание, что статьи, которые вы будете пытаться продвигать при помощи внешних публикаций, тоже имеют свои анкары, на которые нужно ориентироваться. И старайтесь обыграть контент так, чтобы именно на эти анкоры, вы делали ссылку на свою статью. Поэтому подбирайте контент-план так, чтобы анкор, который вы используете, был максимально релевантен написанному контенту. И вот здесь многие сыпяться: пишут статьи про что-то одно, а ссылочку лепят про что-то другое. И грамотная вставка анкора для сеошников иногда является действительно непосильной задачей. А хуже всего, когда эту работу вообще дают копирайтеру. И копирайтер который пишет текст, потом в итоге пытается, вроде как загнать в собачью будку свинью. На самом деле, пытается вставить анкор туда, куда его вставить нельзя. И копирайтеры анкоры вставляют всегда плохо. Почему? Потому что они иногда не понимают, какие вещи в сео вредны, а какие – нормальные. И потом в итоге выглядит хорошо написанная статья и ложка дегтя – явно заметный анкор, который явно тут быть не должен. Поэтому оптимальный вариант, когда вы пишите статьи, в статье сделать несколько ссылок, одна из них который будет вести на вас. Это да понимаю разбавлять ссылочный вес. Но таким образом вы избавляетесь от проблем, от того что ссылка будет неестественной. Да, соответственно за счёт разбавки ссылочного веса из-за этого все и переживаю Но если вы будете делать грамотное ссылочное, т.е. перелинковки и грамотно использовать анкор, релевантный проставлять, то у вас всё выйдет. Поэтому собственно секрет прост: вы даёте тему, копирайтер пишет текст, вы берёте текст, делаете ту самую разметку, про которую мы кстати рассказывали в вебинаре "Как делать экспертный контент по низкой цене". Когда вы добавляете вот эти триггеры внимания на статью. И обязательно добавляете те самые анкоры в нужном виде где они должны быть. И вот этом и искусство сеошника - как грамотно разбавлять текст для внешки анкорами. Ну и конечно же если мы делаем анкоры на статью, то со статьей на статью анкоры дают максимально эффективный вес и вы получаете отличный ссылочный профиль. Или таким образом закрывайте свои проблемы по анкор листу. Ну и последний вопрос: "Как часто нужно обновлять анкор лист"? Я рекомендую анкор лист обновлять каждые 2-3 месяца и смотреть чтобы получилось. То есть вы каждый квартал вы должны пересматривать свой анкор лист и каждый раз его обновлять. Отделять часть задач на перелинковку, а другую часть задач отделять непосредственно на внешние публикации. Если же вам понравилась такая тема, обязательно подписывайтесь наши подкасты. Задавайте вопросы в комментариях я на них всех обязательно отвечу. Ну и конечно же приходите каждый четверг на наших вебинары, где можно все вопросы задать в прямом эфире и я, и спикер который будет у нас в гостях на них ответим сразу же вам в чате. Мы разбираем все вопросы, которые нам задают в чате и отвечаем вам вслух. Поэтому не забывайте смотреть нас. И до новых встреч!"

Как заработать на Stories в Instagram

Николай Шмичков, Антон СабуровДата вебинара: 22.04.20211430

SEO для ключевых слов с ошибками – Орфография в продвижении 2021 | Урок #386

Николай Шмичков1676 раз
SEO для ключевых слов с ошибками – Орфография в продвижении 2021 | Урок #386
В новом аудиоподкасте №386 Николай Шмичков рассказал про SEO для ключевых слов с ошибками - орфография в продвижении 2021. Текстовая версия выступления: "Всем привет! Вы на канале SEOquick. Меня зовут Николай Шмичков. И я хочу выкопать такого динозавра, как продвижение по орфографическим ошибкам в СЕО. Это тот случай, когда вы знаете неправильно написанные слова, всевозможные названия, написание терминов, использовались в контенте непосредственно на вашем сайте. Например, писали “Apple” латиницей, и “Эпл” по-русски, “Айфон” по-русски, iPhone по-английски. Писали с ошибками ifone, как угодно перекручивали. Почему? Потому что раньше, это нужно было использовать для SEO. И самое интересное, что по этому поводу, есть большущие исследования. На одно из них я наткнулся. Оно касалась: “как неправильно написанные слова влияют на SEO”. И нашёл, действительно очень интересный момент, что таргетинг на ключевые слова с ошибками – это была действительно раньше распространённая стратегия поисковой оптимизации. И когда спросил об этом Фрэнк из Феникса в рубрике “Задайте вопросы по СЕО”, в “Search Engine Journal” публикуется соответствующая статья, собственно сказали, что когда страницы были не сверх современными, то seo-специалисты чертовски злоупотребляли этим трюком. Самое забавное, можно было там использовать по запросу “Бритни Спирс” не в зависимости от контента, пихали Бритни Спирс со всеми вариантами ошибок в теги keywords и куда угодно. Это действительно был очень заспамленный поисковый запрос. Таким образом, действительно, ловили даже огромный трафик. Вы удивитесь, но есть огромные варианты написания с “Бритни Спирс” и трафик этих с запросов просто колоссальный, всевозможных слов с ошибками. В статье рассказано примеры и как на выступление Google рассказали, как они пытаются понять орфографические ошибки и какое слово, на самом деле, имел в виду пользователь. У них существует огромный алгоритм. Вы можете легко убедиться в его работе, когда вбиваете в поиск намерено слово с ошибкой, чаще всего при наборе со смартфона такое возникает. И вы замечаете, что Google вас спрашивает: возможно вы имели в виду что-то другое и вы можете кликнуть, и перейти на нужную версию вашей страницы. Даже в Америке, есть целые штаты, в которых огромное количество пользователей действительно не знают, как правильно писать определённые слова. В Гугл Тренд в Твиттере есть соответствующее сообщение. Они публиковали его 29 мая 2018 года. Если вы обратите внимание, что орфографические ошибки действительно могут навредить вам. И эта идея писать контент специально со всевозможными ошибками, то он может только повредить качеству вашей странице. Поисковик и так прекрасно понимает, что имел в виду пользователь. А вам я бы не советовал использовать именно эту тактику. Раньше это действительно использовалось в текстах для того, чтобы продвигаться, когда словари поисковиков были несовершенны. Но буквально уже сейчас, я могу смело сказать, что даже Bing уже отлично понимает, что вы имели в виду. Яндекс прекрасно понимает, что вы имели в виду, с ошибками или без. И не нужна тулить “iPhone iFone” по-разному написанный в тайтл, дескрипшн. Это только уродует ваши тайтлы и делает их не кабельными. И однозначно уродует ваш контент, делая его нечитабельным. Когда Вы начинаете перекореживать слово Mercedes и так, и этак. Я понимаю, в контекстной рекламе нужно использовать и те, и другие ключевые слова. Контекстная реклама в этом плане более деревянная. И здесь вы можете целиться в нужную версию написания ключевого слова. И я даже иногда проверял – можно забивать слова с ошибками, они тоже работают. В контекстной рекламе этот трюк пока что жив. Но, я вижу что всё идет к автоматизации. Идет к ослаблению контроля над таргетингом. И в этом тоже есть определенная заслуга Гугла, и уже даже Яндекса. Когда вы слишком узко уже не можете настраивать привычные кампании, как мы делали это раньше. И в этом плане, действительно, я заметил, что борьба с манипуляцией орфографией идет уже и в контекстной рекламе тоже. По поводу сеошки. Да, могу сказать – это мёртвая стратегия. Она абсолютно бесполезна. И учитывая современные алгоритмы E-A-T, который реально работает... Конечно, многие скажут, что E-A-T касается медицинской части. Нет, E-A-T потихонечку приходит во все ниши и сферы бизнеса. И вы увидите, что сайтам с орфографическими ошибками светит незавидное будущее. Что я бы посоветовал вам. Взять весь контент на сайте, который у вас находится как минимум в индексе. Здесь можно смело говорить, что нужно хотя бы заняться индексируемой частью. Возьмите список страниц, которые находятся и индексе. Его можно скачать из вашего Google Веб Мастера в виде списка. Воспользуйтесь какими-то сервисами для проверки орфографии. Проверьте все эти страницы. Выпишите орфографические ошибки. Да и займитесь ошибками в вашем контенте. Это только в видимой части контента проверьте ваши ошибки. Также обязательно проверьте тайтлы и дескрипшны на орфографию. Уделите внимание именно этому. То, что находится в сниппете – должно быть без ошибок. Уделяйте внимание всему: пунктуации, орфографии, стилистике. Вы удивитесь, что это нужно. В английском, в бурж сегменте, я бы сказал это нужно большими буквами, капслоком, и с тремя специальными знаками: с орфографическими ошибками сайтам там вообще делать нечего! Автопереводные сайты там вообще себя чувствуют ужасно. Вы можете сколько угодно пытается продвинуть автопереводной сайт – у вас это не выйдет. Есть трюки как продвигать автопереводные сайты, но мы об этом не будем говорить в этом подкасте. Но орфографические, стилистические ошибки, грамматику, вам точно надо всё это исправлять. Как найти эти ошибки? Можно сделать технический аудит, подключив словари соответствующие и прогнав весь контент массово на орфографию. Затем, собственно, выписать этот список орфографических ошибок в виде таблицы контент-менеджеру, которая будет сидеть их и исправлять вместе с редактором. Те ошибки, которые являются ложными ошибками, можно смело скрыть и удалить. Потому что, все же это табличные данные. И работать с оставшимися ошибками, которые есть. Мы такой аудит делаем, по крайней мере для русского сегмента, с легкостью. Для украинского пока ещё не тестировали, но планируем тоже внедрять. Чтобы мы посоветовали вам. Если у вас есть возможность сейчас переписать и исправить ошибки в своем контенте – закажите такой аудит. Потому что есть подозрение, что E-A-T выкатят в ближайшем будущем на все сайты и орфография будет касаться тоже каждого. Почему я говорю начинать уже сейчас. Вы скажите: “Николай, этого алгоритма даже и не предвидится. Вы просто гадаете”. Я так скажу. Обычно, на исправление даже малейшего аудита уходит от 3 до 4 месяцев. Если его не выкатят в следующем апдейте, то выкатят ещё в последующем. Вы можете попросту опоздать и ничего потом не успеть. И есть примеров клиентов, крупных моих клиентов, которым мы аудиты сделали ещё в феврале, но они до сих пор еще многие из них не исправили, и упали из-за апдейтов. Есть такая тенденция, что изменения по СЕО становятся с каждым днём всё дольше и дороже. И просто так, типа: “Ой, я завтра всё исправлю, послезавтра всё будет”. Не выйдет! Это не работает так. Аудиты нужно делать заранее. Работу планировать заранее. Исполнителей искать заранее. Контент проверять заранее. Исправления внедрять заранее. Потому что, вы реально впритык к следующему апдейту только можете успеть. Мы по себе это знаем, потому что сами попадали на эту удочку. Думали что все успеем, но на самом деле не так. Скоростью мы заморачиваемся еще с лета, потому что знаем, что зимой нас ждет неприятный сюрприз. Поэтому сейчас очень сильно заморачиваемся с PageSpeed. И советуем всем уделять внимание и другим характеристикам. Орфография – это тоже тот крест, который ещё есть на сайтах и которой я замечаю. И я вижу орфографические ошибки в большинстве сайтов. И манипуляции с орфографией тоже вижу на большинстве сайтов. Поэтому, будьте добры, поисковик прекрасно знает как пишется то или иное слово. Правильно подбирайте заголовки. Не используйте ошибки и не пытайтесь манипулировать выдачей этим, уже архаичным доисторическим методом. Всем спасибо. С наступающим праздниками и до новых встреч."

Как проверить работу SEO специалиста – Проверяем SEO Продвижение

Почему Google не использует все виды Микроразметки | Урок #385

Николай Шмичков7051 раз
Почему Google не использует все виды Микроразметки | Урок #385
В новом аудиоподкасте №385 Николай Шмичков рассказал про то, почему Google не использует все виды микроразметки. Текстовая версия выступления: "Всем привет! Вы на канале SEOquick. Меня зовут Николай Шмичков. Сегодня я хочу немножко рассказать по поводу микроразметки. Почему видов микроразметки так много, а Google в справке своей выделяет гораздо меньшее количество. Почему так? На самом деле всё очень просто. Огромное количество видов микроразметки нужны были для того, чтобы различные страницы сообщали правильно свои данные непосредственно поисковику. Ведь размеченный контент сообщается поисковику очень понятно. Эти цифры – телефон или чья-то сумма. Эта надпись – название товара или просто текст-описание. Этот фрагмент текста написан пользователем или этот фрагмент текста непосредственно написан вами. Именно с этой целью микроразметка и создавалась. Для того, чтобы разметить разнообразный контент на сайте, не требуя написания бесконечного количества лишних ключевых слов, которые его как-то разграничат. Поэтому интернет-магазины мы видим сегодня такими, как они есть. Потому что они выглядят своеобразной сеткой, где каждый элемент находится на нужном месте. Вот тут карточка товара. Вот у него название. Вот у него ценник. Вот условия доставки, и тому подобное. Именно поэтому наши сайты сейчас становится все легче и проще. И мы избавляемся от большинства атавизмов, которые возникли в тот период, когда сайты только зарождались. А поисковые системы их воспринимали как текстовые страницы, напечатанные в Ворде. Теперь же, непосредственно, поисковики стали гораздо умнее. И задаются вопросы: “А почему Google поддерживает меньшее количество видов микроразметки и как Google использует эти все структурированные данные?” Началось с противоречий, потому что Google использует определенные типы структурированных данных и не использует другие. Джон Миллер ответил на это очень просто. Существует огромное количество так называемых “лишних” структурированных данных. Например, та самая микроразметка WebPage. Понятно, что это webpage и всё, типа О'кей. Всё что мы видим – мы собираем в webpage. И существует огромное количество других видов микроразметки, которые вы можете встретить. И соответственно, каждая веб-страница будет называться webpage. Google конечно же считает что эта микроразметка важна. Мы ее, как говорится, понимаем, но не используем. А что значит используем? Google выделил чётко те виды микроразметок, которые он использует для показа структурированных данных. Структурированные данные – это те данные, которые находятся непосредственно в выдаче, в виде специальных расширенных сниппетов. Поэтому всю микроразметку Google делит на два типа. Те, которые генерируют расширенный результат. И те, которые его не генерируют. Яркий пример. Вы сами знаете что есть, т.н. микроразметка статья, микроразметка новость и микроразметка инструкция. Вот эти три вида микроразметке – гарантированно могут вам дать расширенный результат для вашей статьи, либо инструкции. Но есть три микроразметки, которые не дадут никогда вам расширенного результата в поиске Google. Например: about page, checkout page и сollection page. Эти три вида микроразметки при всех раскладах не покажет вам никакой информации. Но именно микроразметка about page говорит, какая страница отвечает за этот контент about page. Т.е. какая из ваших страница отвечает “О компании”. Вы удивитесь, но мы сейчас будем обновлять все наши чек-листы. Почему? Потому что, поисковик оказывается эти страницы действительно выделяет и уделяет им колоссальное внимание. И нужно будет сейчас разметить по микроразметке все существующие страницы контента клиента по этим правилам. Этим нам придется, конечно, по всем клиентам заняться. И рекомендую это сделать вам. Универсальный чек-лист таких вот страниц, которые должны быть на сайте и микроразметок, я в будущем опубликую у нас на сайте. Это некий универсальный набор страниц, которые вам нужно реализовать. Если вам это интересно – поставьте лайки под этим подкастом, напишите в комментариях. И я тогда выпущу, думаю к концу года либо в следующем году, соответствующую страницу. И не обязательные виды структурных данных – это те, которые Google не использует для показа расширенных сниппетов. Но это не значит, что они не нужны. Они колоссально нужны. Потому что, эти данные поисковик понимает по вашему контенту, что с ним делать дальше. Вопрос только: заниматься этим или нет. Всё это действительно может занять огромное время. Но, таким образом поисковик с легкостью понимает, о чём эта страница, какой контент на ней находится и что с ним делать. Поэтому ответ на вопрос: уделять внимание микроразметке или забить на всё, и сделать только обязательную – зависит от вас. Но Джон Мюллер намекнул, что он учитывает все виды микроразметок и даже тот самый WebPage. И другие, такие, которые там есть. Поэтому есть виды микроразметок, которые обязательно нужно будет ставить, где Google будет их учитывать для понимания вашего контента. Именно для понимания. Потому что, есть такая микроразметка, которую он использует для того, чтобы вывести расширенный красивый сниппет. И вы отжали место в выдаче в пользу себя. И есть контент, который нужно правильно подать поисковику, чтобы он вытащил эти данные и учел их. Какие данные? Я думаю обновлю в ближайшее время наш универсальный список микроразметки и, действительно, сделаю такого рода статью. Ребята, если вам это было действительно интересно – поставьте лайки под этим подкастом. Ещё раз прошу! И конечно же, не забывайте ходить по четвергам на наши вебинары. Хочется видеть большую активность, больше вопросов. На вопросы я, с удовольствием, в прямом эфире отвечаю. И конечно же, не забывайте смотреть наши видео и до новых встреч!"

Чем SEO отличается от SMM – Отличия и сходства

Аналоги Geoclever – Плагин для смены Гео в выдаче Google | Урок #384

Николай Шмичков3852 раза
Аналоги Geoclever – Плагин для смены Гео в выдаче Google | Урок #384
В новом аудиоподкасте №384 Николай Шмичков рассказал про аналоги Geoclever - плагина для смены Гео в выдаче Google. Текстовая версия выступления: "Всем привет! Вы на канале SEOquick. Меня зовут Николай Шмичков. И я сегодня хотел затронуть тему: а как, собственно, делать анализ конкурентов в выдаче, если вы находитесь не в том регионе, который нужно анализировать. На самом деле, это действительно серьезная проблема, особенно в подборе конкурентов. Если я нахожусь, например, в родной Одессе и мне надо посмотреть, что же там происходит в Москве или в других городах. И здесь есть такая одна особенность, что поисковые системы очень умные, особенно Google, и не дают посмотреть выдачу из другого региона. Если же Яндекс честно предлагают поменять город в настройках, и вы можете выбрать тот город, который вам нужен. И посмотреть, что находится в том или ином городе, изучить выдачу более детально, то с Гуглом не всё так просто. Да, вы не можете по-человечески посмотреть другую выдачу. Вы мне сейчас скажете: “Но есть же такой волшебный плагин, как Geoclever”. Да, но он перестал работать, а его создатель явно забросил поддержку. И сейчас сеошники оказались на распутье: что же с этим делать. А мониторить выдачу нужно постоянно. Итак, зачем сео-специалисту такой инструмент? Ну во-первых, для того, чтобы изучить какие конкуренты ранжируются по каким запросам. Например, если вы будете пользоваться Кей Коллектором, то он конечно же будет использовать ваши настройки браузера при запросах. И вы уткнетесь в такую проблему, что он будет использовать геозависимые запросы и обходить вашу реальную выдачу. И с этим будут проблемы. Можно в таком случае, в Key Collector использовать VPN. А умные парсеры могут использовать proxy. Но иногда, мне нужно что-то посмотреть попросту в Хроме, прямо в нативном браузере, которым я пользуюсь. И здесь на помощь приходит такой плагин, который вообще выступает с другой целью. Он называется Location Guard. Именно он позволяет запретить узнавать где вы находитесь, по каким соц.сетям, на уровне чуть ли не cookie. Принцип работы этого плагина на самом деле достаточно сложный, и он предназначен был лишь для того, чтобы не сообщать где конкретно вы находитесь. Он такой своеобразный шпионский инструментарий, с которым можно скрыть свое реальное местоположение. И этот плагин легален, бесплатен, доступен в Хроме и вы можете его самостоятельно установить. Второй момент. Зачем этот плагин нужен? Он позволяет делать то волшебное, ради чего он, собственно, нужен. В нем вы можете выбрать фиксированное местоположение, ткнув в любую точку на карте. Чуть ли не в какой-нибудь Атолл посреди океана. И по нему мониторить выдачу по GPS. Самое забавное, что он действительно работает. И он работает настолько круто, что даже показывает контекстную рекламу того или иного района, который вы изучаете. Т.е., вы можете ткнуть и посмотреть, даже в пределах города, отличается контекстная реклама или нет. Особенно, если это крупный город. И возможности именно для маркетинг анализа, при помощи этого плагина, открываются тоже огромные. Во-вторых, вы можете спарсить реально локальную выдачу по ключевому запросу. Сами плагины-парсеры существуют. Любым способом сейчас можно выдачу попросту сохранить в один клик. Прогнав несколько десятков ключевых слов и сохранив выдачу, вы можете проанализировать: а что же находится там в Бишкеке по выдаче, что находится в другом городе по выдаче. И когда вы будете вести диалог с клиентом, то сможете действительно легко говорить. Зная, кто его реальные конкуренты, что по нему ранжируется и, действительно, ранжируются какие сайты у него в данный момент в регионе. Это же касается языкозависимой выдачи: вы можете смотреть, что происходит в Израиле. Вводить в Google запросы на любом языке и смотреть, как реально выглядит выдача. Здесь я могу так сказать: плагин просто обязателен к установке. Ссылочку на плагин, конечно же, я оставлю в описании подкаста. Я рекомендую обязательно всем его установить. А зачем это нужно? Если вы, например, планируете открывать филиалы, то можете изучить, что же происходит там. Какая выдача в этом филиале. Кто конкурирует в этом городе, где вы планируете открывать филиал. И, собственно, для анализа конкурентов в контекстной рекламе. Вы можете посмотреть какие объявления показываются. И вам не нужен никакой SEMrush, никакие другие сервисы, для того, чтобы изучать конкурентов в другом регионе. Просто вбили запросы и посмотрели всё что вам нужно. Собрали ключевые запросы, прогнали конкурентов, спарсили его объявления, какие у него есть. Посмотрели какие тексты объявлений конкуренты используют. И уже работаете с рекламой. Реально экономится куча времени на маркетинг анализ. И вам не нужны никакие сложные платные системы для их изучения. Конечно же, парсеры хорошие нужно написать. Нужно хороший парсер по сохранению контекстной рекламы сделать. Но это уже дело техники. Парсеры по выдаче уже существуют. Парсер для контекста можно написать. Просто пробивая ключики и собирая результаты, вы сможете сделать хорошую аналитическую работу и выдать клиенту грамотно настроенную контекстную рекламу. Или, например, хороший подбор сайтов для анализа конкурентов. Поэтому первое, с чего нужно начинать любой анализ конкурентов – это правильно изучить место. Как у Сунь-цзы: “Изучи поле битвы до начала битвы”. Вот что-то вроде этого Вы должны сделать на старте. Плагин в помощь, пользуйтесь, он абсолютно бесплатен. Как всегда я говорю – всё, что абсолютно бесплатно, мы честно публикуем и ни от кого не скрываем. Собственно, это основа нашего канала. У нас всё про то, что является бесплатным. Мы предлагаем вам на блюдечке в виде нашего контента. Ребята, кому понравилась эта идея с этим плагином – напишите как он работает, feedback. Помог ли он вам действительно в ваших задачах и какие трюки вы использовали. Функционал этого плагина мы используем в разных целях. Я описал только две из них. Если вам нравится наш подкасты, то подписывайтесь на них. И конечно же, буду рад всех вас видеть на наших вебинарах. Всех с наступающими праздниками!"

SEO-Продвижение в США – Продвижение белыми методами

Noindex не спасет. Google Учитывает Скорость Загрузки на Закрытых страницах | Урок #383

Николай Шмичков1547 раз
Noindex не спасет. Google Учитывает Скорость Загрузки на Закрытых страницах | Урок #383
В новом аудиоподкасте №383 Николай Шмичков рассказал про то, что Noindex не спасет. Google Учитывает Скорость Загрузки на Закрытых страницах. Текстовая версия выступления: "Всем привет! Вы на канале SEOquick. Меня зовут Николай Шмичков. И это обзор свежих новостей и свежей онлайн прессы, относительно Google Core Web Vitals. Того самого фильтра, который выходит буквально вот-вот скоро. На самом деле, по поводу него идут огромные споры. И первый же вопрос который задали, действительно, у всех был на слуху, но его никто не задавал. Крутился, как говорится, на языке. Это: “А если у меня страница медленная и я её закрою от индексации – это улучшит мое ранжирование? Да или нет?” На самом деле Core Web Vitals может принимать во внимание не индексируемые странице. Google утверждает, что не индексируемые страницы по-прежнему можно использовать для оценки Core Web Vitals, которые вскоре действительно станут факторами ранжирования в поиске. Иными словами: страницы, которые намеренно вы исключили из поискового индекса, могут быть использованы для оценки показателей, которые влияют на ваш рейтинг в выдаче. Конечно же, это нормальная причина для беспокойства. Потому что, мы же скрываем часто от индексации какие-то внутренние тяжелые страницы, которые находится внутри нашего сайта. И оказывается, что это будет влиять на рейтинг. И как же с этим бороться? Этот вопрос задали Джону Мюллеру 4 декабря и он на него ответил, буквально недавно. Задали вопрос, связанный с использованием в Google агрегированных данных для измерения Core Web Vitals. Google берёт страницы группы, анализирует их, использует данные для расчета Core Web Vitals вашего сайта, представляющих весь сайт. И его спросили в таком формате. Core Web Vitals учитывает не индексированные страницы и объекты, заблокированные в robots.txt. Выходит, что страницы, которые попадают в индекс анализа Search Console, получаются довольно-таки обширные. И некоторые из них могут попадать туда, даже заблокированные для robots.txt. И, собственно, Джон Мюллер ответил, что он считает что не индексированные страницы являются частью вашего веб сайта. Поэтому, если вы используете какие-то дополнительные функции, которые не индексируются, люди по-прежнему видит их как часть вашего веб-сайта. Говорят, что этот ваш сайт медленный или же сайт быстрый. На самом деле, User Experience Google считает на основе данных, которые он берёт основываясь на тех страницах, которые попали на его анализ. Вероятно, эти страницы будут проиндексированы в будущем. Либо эти страницы не проиндексированы по какой-то ошибке. И поэтому эти данные Google берёт в основу. Самое обидное, получается, что просто закрыться robots.txt или тегом noindex для того, чтобы скрыть медленную страницу, у вас попросту не выйдет. Обоснования нужны для изменения восприятия страницы. Потому что, таким образом пользователь должен знать, что есть внутренние страницы, которые находятся на вашем сайте. И на которые он может попасть, уже переходя из той страницы, которая находится в индексе. И таким образом Core Web Vitals сказывается в целом и на весь сайт, а не только по страничным факторам ранжирования. Поэтому, я бы выделил Core Web Vitals все-таки алгоритмом, который является не постраничным, а именно частично их остовом. Потому что, общий показатель сайта будет сказываться в зависимости от того, как Google просканирует и ваши внутренние страницы. Что делать дальше? Я бы прогнал весь ваш сайт на анализ PageSpeed. Прогнал бы все страницы, которые у вас есть, на скорость загрузки. Сделал бы это как-то массово. Проверил бы медленные страницы и, действительно, занялся их исправлением. Я понимаю, что в Search Console можно вытащить данные по пейджспиду, и по мобильным ошибкам. Но иногда, эти данные могут приходить не вовремя и недостаточно их просто проверять для сайта, который ещё не вышел в индекс. Поэтому, я бы в этом плане посоветовал воспользоваться какими-то сторонними сервисами анализа PageSpeed. Мы сейчас разрабатываем аналогичный, словно знали куда смотреть, где подстелить. И вы можете воспользоваться нашим инструментом “Веб-сайт аудит”. Вскоре он будет доступен для массового анализа PageSpeed для списков страниц, которые вы ему скормите. Следующее, на что я хотел бы обратить внимание – это то, что индексируемый контент, который вы отдаете в Google на анализ PageSpeed, иногда им могут манипулировать. Могут сделать страницы заглушки. Вам могут показывать красивый PageSpeed, просто за счет того, чтобы вставлять пару строчек кода, которые обманывают пользователя. Я побоялся бы сейчас экспериментировать с такими трюками, по одной простой причине. Google может всерьез взяться за этот метод обмана. Побанить те сайты, которые пользовались таким методом обхода его собственного алгоритма PageSpeed. Поэтому закрывать не индексируемый контент массово каким-то дешевыми методами, я бы точно не советовал. Лучше сделать хороший, грамотный технический аудит. Именно уделить внимание скорости загрузки. Всем этим ключевым 6 показателям, который я обсуждал в прошлом видео, по поводу скорости сайта. И действительно выписать список ошибок программисту. У вас фактически три месяца на закрытие всех этих проблем. Почему? Потому что, я уверен что Core Web Vitals выкатят в следующем апдейте ядра. Про него сейчас в основном идут только разговоры. А как мы знаем, раз Google ведет какие-то разговоры – он это выкатывает в следующем большом, либо через одно, обновлении. А про Core Web Vitals мы уже говорим полгода. Значит, если считать, условно говоря, что декабрьский вышел апдейт. Январь, февраль, март… У нас получается будет, вероятно, мартовский или апрельский апдейт. Вот он примерно выйдет в тот период. Формально, у вас три месяца на то, чтобы улучшить показатели скорости своего сайта. Нужно смотреть не только индексируемые странице, но еще и те, которые находятся внутри. Это касается странички регистрации, оформления заказа, внутреннего личного кабинета, и всего контента, который доступен только после регистрации. Всему контенту нужно будет уделить внимание: он должен быстро загружаться. И я видел сайты, который снаружи выглядят быстрыми, а после регистрации – начинают жутко тормозить и долго прогружаться. Это действительно проблема, с которой Google будет бороться. Если вам понравился разбор этих новостей, то напишите, что вы думаете по поводу этой новости в комментариях. Хотелось бы услышать ваше мнение. Мое мнение, что в целом идея достаточно разумная. Но, конечно, несправедливая для тех сайтов, у которых куча технических багов. Потому что они могут очень сильно посыпаться, если у них есть внутренние страницы, которые они забыли позакрывать, поудалять. Которые являются не индексируемыми, но являются старыми. Допустим, глюки темы после переезда, какие-то глючные страницы после загрузки. Их всех нужно, получается, выкопать и изучить. Оптимальный вариант, как выкопать список страниц, которые находятся не в индексе. Зайти в собственной webmaster, посмотреть какие там страницы находятся. Выкачать список этих страниц из Google Вебмастера. Он будет ориентироваться, в первую очередь, только на них. И конечно же разобраться с ними: либо убить, либо редиректить. Сделать с ними что-то такое, чтобы те страницы, которые являются бесполезными... А чаще всего такой мусор бесполезный там и находится – его нужно как-то убрать. Именно из-за него могут быть у вас и большие проблемы в следующем обновление ядра. Делайте технический Аудит. Вовремя исправляйте. Берете в команду толковых программистов. И, как говорится, первых мест вам и органики из Google. Всем спасибо и с наступающими праздниками!"

Профессиональный Обзор SERPSTAT для SEOшника

Николай Шмичков, Евгений ЛатаДата вебинара: 08.04.20211508

Page Expirience от Google – Замечен Новый значок в выдаче | Урок #381

Page Expirience от Google – Замечен Новый значок в выдаче | Урок #381
В новом аудиоподкасте №381 Николай Шмичков и Алёна Полюхович рассказали про Page Expirience от Google - замечен новый значок в выдаче. Текстовая версия выступления: "Всем привет! Вы на канале SEOquick. Меня зовут Николай Шмичков. Меня зовут Алёна Полюхович. Мы наткнулись на очень интересную новость: она касается СЕО. Впервые мы с Алёной разберём чисто сеошную новость. Но, на самом деле, эта новость очень интересна потому, что она влияет на внешний вид выдачи. Мы все знаем, что обычно Яндекс многие трюки там копируют у Google. Например, вот мы разбирали всякие сервисы Яндекса, которые копировались. Они же, или такая же идея, есть у Гугла. Google тоже создает кучу сервисов и хоронит их. Но на самом деле, если копнуть глубже, некоторые вещи, мне иногда кажется, что Google “тырит” у Яндекса. Забавно выглядит, но это очень похоже. В прошлых подкастах я рассказывал про декабрьский апдейт ядра, который ничем особо не отличается. Но все мы помним, что Core Web Vitals, тот самый, и Page Experience – это такие штуки, которые Google сканирует по поведению пользователя на вашей странице. Как быстро сайт грузиться. Как быстро он рендерится на браузере. Удобно ли с ним взаимодействовать. Это такой некий синтетический технический показатель, который накапливается с течением времени по вашему сайту за период. Т.е. если вам вдруг программисты выдали PageSpeed в момент сдачи сайта, там соточку, а спустя время он свалился до двадцатки – ваш показатель будет стремительно падать. И поэтому сейчас я напоминаю: сходите посмотрите ролик про скорость сайта, где я рассказывал про проблемы, как ее улучшить, как она измеряется. Что это не является статичным показателям, который есть у вас навсегда. Он меняется и Google это прекрасно научился оценивать. 80% данных скорости собирается от пользователя: от самых “бомжатских” устройств, которыми на вас заходят. Если у вас трафик с Android на самых дешевых смартфонах, будьте добры позаботиться, чтобы ваш сайт быстро грузился. Почему мы с Алёной решили разобрать довольно интересную новость? Мы изучали новости, и как вообще в целом меняется выдача, и наткнулись на эту. “Google начал тестирование визуального индикатора в результатах поиска для предстоящего обновления Google Page Experience update. Пользователи заметили в мобильной выдаче у некоторых сайтов бейджик, который похож на значки AMP, но со звездой посередине. Иконка, очень похожая на значок Яндекс Дзена, после майского апдейта в 2021 году будет раздаваться всем быстрым сайтам, которые показывают хорошие Core Web Vitals. На самом деле, значок действительно похож. Интересно, что Google по этому поводу сказал. Мартин Сплит из Google написал в своем Твиттере, что сейчас – это тест. Но после того, как в мае будет запущен Page Experience update, его должны будут получить все страницы, которые достигают пороговых значений Core Web Vitals. Внедрение бейджей – это своего рода геймификация. Каждый хочет получить отметку “Лучший” плюс направление измерения. И меняя это самое направление измерения, поисковики влияют на вебмастеров, намекая, в каком направлении надо работать вместо покупки ссылок и накрутки других сигналов. А сейчас Яндекс намекает, что магазинам обязательно нужно использовать Маркет, а Google говорит – займитесь оптимизацией производительности своего сайта. Именно это отметил Сергей Кокшаров в своём телеграм канале. А мы копнем чуть дальше. Если вы не знаете, в мае действительно выкатят апдейт 2021 года и его назовут Page Experience. Напоминаю, Core Web Vitals – это скорость загрузки, интерактивность. Это насколько быстро First Input Delay идёт задержка. И Visual Stabilityэто CLS показатель, т.е. Cumulative Layout Shift. Но Page Experience состоит еще из четырёх показателей, которые вы обычно не смотрите. Это Mobile-friendly, Safe Browsing, HTTPS ranking boost и Intrusive Interstitials. Вот эти четыре оставшихся показателя и являются ключевыми факторами Page Experience. Напоминаю: быстрая скорость загрузки, мобильная версия, безопасность протокола https и отсутствие навязчивой рекламы. Это то, что вам нужно наладить на своем сайте. Вот именно вокруг этого и будет строиться дальнейшее продвижение. И вот эту заветную галочку в виде звезды в кружочке, получить можно будет только тем сайтам, которые постараются, как говорится, продвинуться. Сергей Кокшаров – это наш партнер, с которым мы писали свою статью. Отлично отметил по поводу того, что действительно нужно уделять внимание скорости загрузки. А также не нужно забывать про то, что у Яндекса тоже есть свои тараканы в голове и вы должны знать какие трюки сейчас в сайтах нужно использовать. И всё верно он заметил по поводу наличия для интернет магазинов добавления фида. Если вы фид добавляете в свой Yandex webmaster – вы получаете больший буст к ранжированию, чем любой другой сайт. Это я лично проверил на ряде своих клиентов. Если вам интересны новости, что же нас ждет от Google и Яндекс в будущем, то не забывайте подписываться. И свеженькие новости вы будете получать каждый день на наших подкастах. Всем спасибо и до новых встреч! Всем пока."

Что такое SEO Ссылки – Отличие от Других Ссылок

Чат с клиентом в Google Картах и Поиске | Урок #380

Чат с клиентом в Google Картах и Поиске | Урок #380
В новом аудиоподкасте №380 Николай Шмичков и Алёна Полюхович рассказали про чат с клиентом в Google Картах и поиске. Текстовая версия выступления: "Всем привет! Вы на канале SEOquick. Меня зовут Николай Шмичков. Меня зовут Алёна Полюхович. И мы хотим рассказать более подробно про недавнее нововведение от Google. А именно, Google разрешил сейчас общаться со своими клиентами через приложение Google Мой бизнес, прямо из Поиска или из Карт. Об этом более детально расскажет нам Алёна. Чтобы владельцы бизнеса могли быстро отвечать на вопросы и общаться со своими потенциальными покупателями, Google добавил опцию обмена сообщениями прямо в Google Карты и в Поиске. А именно, подтвержденные в Google Мой бизнес компании, могут оставлять сообщения для клиентов, именно напрямую в приложении Google Карты. Также компания может включить обмен сообщениями в профиле организации и отвечать клиентам в разделе “Сообщения от компании”, на вкладке с обновлениями. Также Google обещают запустить возможность просматривать сообщения через меню “Клиенты” в профиле компании в Google поиске, и возможность отвечать с компьютеров. Таким образом пользователи смогут не только отправить сообщение через профиль компании, но и написать какой-то вопрос под публикацией. Или если клиент не сможет дозвониться в организацию по телефону, ему также будет предложено написать сообщение. А благодаря статистике эффективности профиля в Поиске и Картах, компании могут узнать как пользователи взаимодействовали с организациями. Чаще всего, спрашивают как обеспечить, чтобы кнопка для отправки сообщений оставалось, например, доступна в Google. Для этого все пользователи сервиса Google Мой бизнес должны отвечать на сообщение в течение 24 часов. А если вы будете отвечать позже, то кнопку могут вообще вам отключить, чтобы не вызвать негативного отношения у клиентов. Ну а если сообщение содержит спам или является неприемлемым, то вы можете пометить его как спам. Как будет вычисляться время ответа? Время ответа – это время в которое в среднем проходит от сообщения клиента до вашего ответа. Оно вычисляется на основе статистики за последние 28 дней. Если за последние 28 дней вы получили менее 10 сообщений, то при вычислении времени ответа учитываются последние 10 сообщений. А если вы получили менее 10 сообщений с тех пор, как включили обмен сообщениями, тогда будут учитываться все сообщения. Как, собственно, вычисляется время ответа. Доля ответов – это процент новых сообщений, на которые вы ответили за последние 28 дней. Учитываться будут только ответы на первое сообщение чата. То есть первое сообщение, которое будет получено после недельной паузы в общении с конкретным клиентом. Ответ будет засчитан, только если Вы ответите в течение 24 часов. Если за последние 28 дней вы получили менее 10 сообщений, то будут учитываться 10 сообщений, как я говорила уже ранее. Ну, естественно, если вы получили менее 10 сообщений с момента начала того, как выключили обмен сообщениями, то тогда будут учитываться все сообщения. Если для вашего аккаунта отклонен обмен сообщениями, то как его включить? Если такая ситуация произошла, вы можете снова попробовать включить кнопку. И чтобы кнопка оставалась доступна, вам нужно отвечать на новые сообщения именно в течение 24 часов. Вы будете получать уведомления в приложении Google Мой бизнес о входящих сообщениях. Сможете изменить приветственное сообщение, которое будет автоматически получать клиент, связываясь с вами. А если у страницы компании в сервисе Google Мой бизнес несколько владельцев или администраторов, тогда все они могут обмениваться сообщениями с клиентами. Ну и клиенты будут видеть ваше имя и фото, которые указаны на вашей странице “О себе”. Часто ещё спрашивает: исключаются ли какие-либо сообщения, при вычислении времени и доли ответов? Да, приветствия и сообщения, которые вы пометили как спам, не будут учитываться при вычислении времени и доли ответов. Кстати, забавно. Я решил проверить. У нас эта функция уже включена. Включили буквально сразу, но с 13 мая, когда она мне прислала впервые это сообщение... Я так понял, что функционал до нас еще толком не дошел. Почему? Потому что, пока что я в Украине, например, не вижу обмен сообщениями и это немножко смущает. Конечно хотелось бы увидеть полностью, что можно будет общаться с самим собой. По крайней мере самому себе написать. Но есть только в Google Картах по крайней мере статистика по просмотрам и всё. Если мы протестируем полностью функционал, то я с удовольствием расскажу, как это работает вживую. Пока только в теории. Если у вас уже работает обмен сообщениями и вы активно чатитесь – напишите нам, пожалуйста. Хотелось бы увидеть немного это и вживую, посмотреть как она работает изнутри. Поэтому не забывайте подписываться на наш канал. С удовольствием буду ждать фидбэка по этому подкасту. И, спасибо Алёна, за классную новость. Потому что, на самом деле, я решил пересмотреть, может я упустил какое-то сообщение. Не забывайте смотреть ролики, которые записываем я и Алёна на нашем youtube-канале. И до новых встреч! Все пока!"

Продвижение сайта в поисковых системах

December Core Update 2020 – Апдейт Гугла под Новый Год | Урок #376

Николай Шмичков1942 раза
December Core Update 2020 – Апдейт Гугла под Новый Год | Урок #376
В новом аудиоподкасте №376 Николай Шмичков рассказал про December Core Update 2020 или новый апдейт Гугла под Новый Год. Текстовая версия выступления: "Всем привет! Меня зовут Николай Шмичков и сегодня мы хотим поговорить про конечно же декабрьский апдэйт ядра. Я недавно написал в телеграм-канале что непосредственно Google выкатил новый апдейт. Об этом они сообщили публично. И августовский апдэйт теперь приходит по новой в виде декабрьского апдейта под ёлочку, я так написал собственно. Почему? Потому что от августовского апдэйта он особо не отличается. В твиттере, официальный твиттер аккаунт писал: “Сегодня мы выкладываем широкое обновление основного алгоритма, как мы делаем это несколько раз в год. Называется это December Core Update 2020. Наши рекомендации по таким обновлением остаются такими же как и раньше. Пожалуйста прочтите сообщения в блоге чтобы узнать об этом. Ну и давайте собственно посмотрим конечно, что же там такого изменилось и что конкретно они поменяли или вообще перечитаем еще раз августовское соглашение. Итак напоминаю августовские апдейты относительно качества контента и содержания. Вы должны ответь на следующие вопросы и желательно утвердительно. Предоставляет ли контент исходную информацию, отчёты, исследование или анализ. То есть если да - О'кей. Содержательное, полное исчерпывающее описание темы - это конечно просьба к вашим копирайтером: “а будьте добры, раскрывайте тему полностью и до конца”. Представляет ли контент содержательный анализ и интересную информацию, выходящую за рамки очевидной. Если контент основан на других источниках, то избегаете ли вы простого копирования и переписывания этих источников. Также заголовок и заголовок страницы то есть Title, даёт ли чёткое, информативное и полезно изложение содержания. Я знаю примеры обратного и буквально недавно намекал об этом нашему клиенту. Избегает ли заголовок страницы преувеличения или шока, да кликбейт вредная штука. И здесь с кликбейтом я был бы очень осторожен. Это та страница, которую вы хотите добавить в закладки, поделиться с другом или порекомендовать? Учтите Гугл четко дает понять, что в ТОПе будут находиться страницы, которые часто будут шэриться и скорее всего это будет их некий внутренний показатель. Ожидаете ли вы увидеть это содержание в печатном журнале, энциклопедии или книге. У меня серьезное подозрение что уделяется внимание не только контенту, но ещё и верстке. По экспертности: представляет ли контент информацию таким образом, чтобы вы ей доверяли? Например чёткие источники, свидетельства задействованного опыта, предыстория автора и сайта, который его публикует, например посредством ссылок на страницу автора и на страничку “О нас”. Если вы исследуете сайт на котором создаётся контент, складывается ли у вас такое впечатление, что этому сайту доверяют, его признают действительно авторитетом? Еще один момент. Этот контент написан экспертом или энтузиастам, который хорошо знает темы? Очень важно отмечать авторство контента, особенно в блоге. Это общая такая информация подытоживая эти все три пункта. То есть мы должны понимать, что контент который написан, он написан реальным человеком. Нет ли в содержании легко проверяемых фактических ошибок? Я по поводу этого говорил, что у Гугл есть сервис фактчекинга который действительно проверяет на фейки. Т.е. проверка на фейки можете погуглить, он существует и Google скорее всего это внедряет и будет внедрять это как алгоритм. Пока он работает на уровне такого тула, а на самом деле подозрение, что на уровне инструментария. И соответственно вопросы по презентации и по производству: этот контент легко написан? Т.е. собственно вы должны понимать - нет ли у контента орфографических и стилистических проблем? И на самом деле я считаю, что особенно в Бурже вот с автопереведённым контентом многие когда лезут, и он переводится коряво и теряется смысл.. Стилистические и орфографические проблемы могут стать камнем преткновения. Нужно действительно уметь грамотно писать, излагать мысли. Поэтому будьте добры, привлекайте к созданию контента редакторов, редактуру, которые будут проверять на орфографические и стилистические ошибки. Мы уже редактора несколько лет держит в нашем коллективе и это прекрасно окупается, как у нас, так и у наших клиентов. Был ли контент подготовлен хорошо или кажется небрежным и поспешным? Иногда рваная структура информации, иногда недописанность, недосказанность информации слишком заметна. Также создаётся ли контент массово или передается на аутсорсинг большому количеству создателей или распространяется по большой сети сайтов, так что отдельные страницы или сайты не получают столько внимания. Это тоже такой есть нюанс если вы балуетесь такими видами продвижения контента, когда вы создаете кучу сеток информационных, которые должны переливать трафик или ссылки на вас, то вы понимаете что Гугл начнёт пристально уделять внимание и в Рунете скорее всего тоже. Так же касательно рекламы, будьте добры не слишком усердствовать с баннерами блоками того же AdSense или других сторонних источников, переизбыток рекламы гарантирует вам понижением вас в выдаче. И именно как алгоритмического понижения, а не просто просадки по поведенческим. Также очень важно уделять внимание мобильной верстке. Да, мобильная верстка никуда не делась. Она стоит в приоритетах и апдейт ядра будет касаться её тоже. Проверяем мобильную вёрстку Shift+Control+C в Хроме. Переходим на мобилку, смотрим с разных устройств и смотрим каждую страницу из мобилки. Если у нас траблы с навигацией на мобилке, если у вас проблемы с мобилки с отображением контента, картинок, возможности оставить заявку, формы не используют автоподстановку, неправильно распознаются поля. Вот с этим всем и нужно работать. Также, собственно, я напоминаю, что многие пункты касательно E-A-T они идут еще с мартовских апдейтов и особо ничего не поменялось. Вот и самые частые вопросы, которые часто задают. Что произойдёт если вас собственно забанят? Да, как восстанавливается? И вы должны понимать основные обновления ядра происходят каждые несколько месяцев. Контент на который повлияло что-то может не восстановиться до выпуска следующего широкого обновления ядра. Т.е. вам ждать три месяца пока всё не откатиться назад. Но на самом деле много Google говорит что мы всё внедряем очень быстро, но это враньё я смотрю многие анализы когда говорят, что Google сверхбыстрый внедряет всё быстро. Он внедряет в течении месяца некоторые изменения и это реальный факт. Замедление скорости работы Гугла связано с действительно Монструозным количеством разным алгоритмов и возможно уже повышенной нагрузкой на сервера. Потому что количество сайтов и запросов растёт очень быстро, а серверов количество растет линейно. И мы понимаем что рано или поздно Гугл столкнется с теми же проблемами, которые есть у Яндекса. Ему технически нехватает возможности всё обрабатывать. И помните что улучшения внесенные владельцами сайтов для Гугла не являются гарантией восстановления страницы. Как говорится не занимают какого то гарантированного положения в результатах поиска. Если кто-то пролез с достойным контентом раньше, он уже за затвердится и застолбит свое место. Поэтому единственный способ следить за таким так называемыми тонкими статьями, тонким кантом. Вовремя у себя его нейтрализовывать и само собой обновлять. Я про трюки, про обновление контента рассказывал в ряде подкастов и даже в видеосвязи в видеоролике своем, посвященном серому продвижению. Это пункт номер один, который позволяет избавиться от проблем с тонким контентом. И он очень простой, посмотрите это видео я там рассказал, прямо первая глава этого видео - Серого продвижения сайта. Оно является серым, но этот трюк позволяет избавиться от Гугла, чтобы ваш контент хотя бы не просел на ближайшее время. На этом собственно всё я постарался быть очень лаконичным. Если у вас возникли вопросы, задавайте их, обсудим этот апдейт. На самом деле моё мнение - апдейт особо не поменялся и действительно будет влиять в дальнейшем на сайты. В нашем паблике уже пошутили, что “вебмастера всего мира направились в ожидании”, кто-то шутит, что даже скоро надо будет анализ крови оставлять на странице “О нас”, всё что угодно, с мокрой печатью, исходящими урлами на клиники, где ты это делал, дабы поддать экспертности автору. На самом деле да, шутки-шутками, но многие говорят, что принципиально ничего не поменялось. И что по этому поводу говорят другие эксперты можно тоже узнать. Другие эксперты уже по этому поводу высказались. Из Twitterа кстати очень интересный твит, Майкл Пайтон пошутил: “Всё что нужно в 2020, чтобы стало хуже от Гугла, чтобы он положил мои сайты, и я пошел в местный супермаркет работать и забросил SEO”. Действительно, унижение просто сайтов сейчас перед буквально распродажами новогодними, рождественскими распродажами выкатывание этого апдейта может действительно повлечь ужасные последствия и привезти действительно ну к фэйлу. И не только об этом говорят множество других спикеров по этому поводу и как быть дальше на самом деле США я думаю это будет сильный удар мы будем очень много сейчас информации слышать. Потому что корона плюс апдейт Гугла плюс многие сайты не всегда двигается честными методами, попросту вылетят и потеряют свой бизнес, закроются и не смогут никак поднять голову ближайшие полгода. Что будет дальше? Ну будем внимательно следить. До нас апдейт я уверен докатится где-то уже к середине января с задержкой. И этот апдейт не касается ссылочного, он касается исключительно контентной части если верить полностью информации. На этом собственно всё. Больше добавить мне нечего, пока информации мало. Будет следить и собирать информацию. Если ваши сайты затронет сейчас ситуация, напишите нам в комментариях. Мы можем обсудить, посмотреть и действительно распознать - проблема в апдейте или в чём-то другом. Может быть вы с ссылочками переборщили и тут чисто ваша вина. Не забывайте подписаться на наши подкасты. И конечно же новых встреч!"
Вверх
Popup close
Актуальные статьи по маркетингу

Мы не будем спамить!