Anatoly
Палим секреты продвижения
Подпишись на рассылку и получай уведомления о выходящих вебинарах, видеороликах, подкастах и новых статьях на нашем сайте!
Nikolai Alena

Статьи и материалы по теме SEO Продвижение

Как Пользоваться Биржей Миралинкс: Обзор

Как удалить информацию с Google – 5 советов | Урок #242

Николай Шмичков1425 раз
Как удалить информацию с Google – 5 советов | Урок #242
В новом аудиоподкасте №242 Николай Шмичков рассказал про то как удалить информацию с Google - 5 советов. Текстовая версия выступления: "Всем привет. Вы на канале Seoquick, меня зовут Николай Шмичков и мы сегодня обсудим такую тему: Как удалить свою ссылочку из поиска Google, и рассмотрим свеженький методы. На эту статейку я наткнулся на сайте ahrefs, хочу с вами поделиться мнениями. У них есть неплохая инфографика на эту тему и её можно изучить. По какому принципу она удаляется? В первую очередь вы должны задать вопросы себе, контролируете ли вы страничку и отвечайте на вопрос да или нет. Если вы контролируете страничку, то является ли эта информация полезной? Вы так же отвечаете да или нет, и по этой цепочке продолжаете. Саму картинку я добавлю в описании под этим подкастом, не забудьте на неё обратить внимание. Но я сейчас хотел поговорить непосредственно о самой статье. Какие какие методы полезные в ней рассказывают. В первую очередь, мы должны ответить на вопросы: как проверить проиндексирована ли страница, потом рассмотрим все способы удаления этой ссылочки, как научиться расставлять приоритеты при удалении, проверим ошибки при удалении, как удалить контент, которого нет на вашем сайте и как удалить изображение. Все пункты интересны. Как проверить проиндексирован ли URL - это очень просто. Заходите на сайт, копируйте ссылку, вставляйте в браузерную строку site: и ссылку на сайт и смотрите результат. Если вы что-то увидели, значит ссылочка в индексе, если увидите, что ссылочки нет, значит её нет. Второй вариант - веб мастер Гугл, если это ваш сайт или есть доступ к сайту, то в Гугл вебмастере есть функция Отчет покрытия индекса. Просто вбейте URL и увидите входит он в систему или не входит. Точно так же вы можете использовать ahrefs, например, там же поискать существует ли по ней какие-то показы по ключам - как минимум, вы можете обратить внимание на этот момент. Есть простейшие способы, как удалить страничку. Первый вариант - это удалить саму страницу. То есть, если вы удалите страницу и дадите ответ 404 или 410, страница будет удалена из индекса, вскоре после повторного сканирования. Пока она не будет удалена, страница может отображаться в результатах поиска. И даже, если сама страница останется недоступной, кэшированная страница может быть временно доступной. Если же вам нужны другие варианты, если нужно очень быстро удалить страничку, то вам нужно заходить в инструмент удаления URL веб мастера и таким образом, удалять. Если нужно объединить сигналы, то тогда вам нужно обязательно настроить каноническую страничку. Вам нужно будет настроить Canonical и таким образом, передать вес старой ссылки на новые. И если вам нужна страница доступная для пользователей, но при этом она должна отсутствовать в Гугле, то вы можете проверить и поставить статус noindex в шапке кода страницы. Второй вариант, это вариант удаления через noindex. Сообщите в заголовке xrobots поисковым системам через метатег noindex, что страничку удалили из индекса и, если поисковый робот пройдёт и увидит это так, он выкинет страничку из индекса и таким образом, она перестанет быть доступна. Пример робота noindex выглядит очень просто. META name ="robots content"noindex. Если в ответе заголовка, то http 200 ответ будет x-robots-tag noindex. Если же вам нужно, чтобы пользователи получали доступ к этим страницам, то ограничьте доступ. Если вам нужно объяснить такие сигналы, как ссылки, то мы перейдём к разделу канонизации. Третий вариант ограничения доступа. Если вы хотите, чтобы страница была доступна для некоторых пользователей, но не для поисковых систем, то вам нужно выполнить один из трех вариантов. Какую-то систему через логин, http аутентификация, где для входа требуется пароль и IP белый лист, когда разрешен вход только по определенным IP. Если контент закрыт и доступен только для разработчиков, самый оптимальный вариант использовать такого рода закрытие. Если вы сделаете такого плана блокировку, то тогда система для поисковый робот выпадет из странички и они выпадут из индекса. Если вам нужно будет действительно удалить всё, то переходим к варианту четыре. Это инструмент для удаления URL. Название инструмента немножко вводит в заблуждение, потому что оно на самом деле не удаляет внешние ссылки - это делает другой стул сервис disolve links. Этот сервис занимается тем, что он выкидывает у Гугла странички из индекса. Его нужно сделать действительно в крайних случаях, если есть такие проблемы как утечка безопасности, утечка данных, личная информация. Для Google используют инструменты Removals, а для Bing сервис блокирования url-адресов. Нужно сочетать несколько элементов и соответственно использовать несколько, чтоб запрещать доступ к старому контенту, обновлять доступ. Я порекомендовал бы для быстрого удаления URL совместить все предыдущие методы плюс этот инструмент, иначе URL обратно появится снова. Вариант пятый, который мы рассмотрим - это канонизация. Если отслеживать несколько версий страницы и вы хотите объединить сигналы, например, внешние ссылки на одну версию, то вы делаете некоторую форму канонизации. Получаете дубли страниц, вы делаете Canonical, ссылочка на одну страницу. И таким образом, проиндексированный URL в итоге будет только один, даже если пользователи будут попадать на другие. Варианты тут - каноническая метка, redirect и обработка параметров URL. В канонической метке вы указываете версию ту, что хотите показать, а если страница дублируется и очень похожа - это самый правильный вариант. Если страницы слишком разные, канонический так может быть проигнорирован, потому что это не директива, а к сожалению, лишь подсказка. Во всяком случае, нужно использовать функцию redirect, которая перенаправляет пользователя и поискового робота с одной страницы на другую. 301 redirect - самый часто использованный. Он сообщает поисковым системам, что вы хотите чтоб канонический url был тем, который показан в результатах поиска, где сигналы объединены - 302 или временная, говорит поисковым системам, что вы хотите, чтобы исходный URL оставался в индексе и объединял там сигналы, но при этом происходит перенаправление самого пользователя. Обработка параметров URL, добавляется в конец ссылки вопросительный знак и какой-то параметр. Этот инструмент Google позволяет вам рассказать, как обрабатывать URL определенными параметрами. Например, вы хотите указать будет ли параметр изменять содержимое страницы, не предназначенное только для отслеживания. Какие приоритеты по удалению страниц. Конечно же, наиболее высокий приоритет получают те страницы, которые действительно несут угрозу безопасности. Когда кто-то получил доступ к вашим личным данным и личным данным ваших пользователей. Либо контент, который несёт коммерческую или конфиденциальную информацию. То нужно использовать те методы, которые являются очень срочными. В среднем приоритете это корпоративный интернет или портал для сотрудников, чаще всего в среде подготовки и тестирования разработки. И низким приоритетом являются страницы, которые содержат дубликаты контента. Ну вот, например, когда несколько страниц обслуживается с несколькими или url-адреса с параметрами, это действительно приоритеты по удалению. Какие самые большие ошибки удаления. Первая ошибка - это когда пытаются удалить, просто прописать теги noindex в роботс. Роботс уже официально не поддерживаются Гуглом и, поэтому это неправильный метод Второе это блокировка для краулера в robots.txt, это то же самое. По факту сканирование - это не одно и то же, что индексирование. Об этом я писал в своей статье "Факторы ранжирования" - рекомендую сходить посмотреть. Это два разных процесса. Сканирование - это проход поискового робота по страницам, а индексирование - это уже сбор собранных данных, которые получил поисковик. Но поисковик может получить данные не обязательно из поискового робота. Если у вас есть внутренние или внешние ссылки, даже если вы заблокируйте вход, Google проигнорирует ваши директивы в роботсе и попросту перейдёт по внутренней ссылке на этот контент. Яркий пример: вы в роботсе заблокировали вход в страницу Б, но со страницы А, на которую робот может попасть, есть ссылка на страницу Б. Во всяком случае, поисковый робот проигнорирует robots.txt и пройдет по другому пути. Nofollow - cамый большой также косяк, который путают с новым индексом. Nofollow когда вы говорите поисковым роботам, что по этой ссылке ходить не нужно - ранее это была подсказка. Если ранее поисковый робот по ссылочкам много не ходил, то сейчас это не так. Ресурсов Гугла хватает, чтобы пройти по ссылкам Nofollow и посмотреть, куда они ведут. Почему он проверяет ссылку Nofollow, проставлена она ошибочно или нет, даже они стали игнорироваться. Раньше Nofollow использовалась для того, чтобы сохранять пейджранк, так называемое скульптурирование пейджранка, процесс, когда вы закачивали домен ссылками и все исходящие ссылки закрывали тегом Nofollow. Сейчас поисковик начал по ним прекрасно ходить. Мы заметили, что по ссылкам Nofollow действительно есть переходы. Он индексируются, поэтому поисковик будет игнорировать Nofollow при сканировании. Известная ошибка - это noindex канонический для другого URL. Этот сигнал противоречив, noindex говорит об удалении страницы из индекса. Canonical говорит, что другая страница эта версия, которая должна быть проиндексирована, это может работать за консультацией, ведь Google предпочитает игнорировать noindex и вместо этого использует канонические основы сигнала. Тег noindex может быть подсчитанным сигналом. Если это так, страницы не будут правильно объединяться, поэтому сочетание noindex и каноникал могут навредить. Если вы можете проверить сочетание в ahrefs при помощи анализа page Explorer и проверить, допустим, совпадение noindex - yes и self Canonical - no, если вы найдёте такие страницы, то увидите, что они тоже могут индексироваться. Когда поставите noindex и когда робот уже просканировал, страница будет заблокирована, но проиндексирована. Люди будут добавлять тег noindex и таким образом, поисковик уже успеет пройти по сканированию и уже его закинуть в индекс. Как удалить URL, если этого контента нет на вашем сайте. Это один из вопросов, что нам задавали и на него, пока к сожалению, только один ответ. Есть инструмент удаления авторских прав Google, есть закон о защите авторских прав в цифровую эпоху DMCА и есть инструмент по удалению авторских прав, что позволяет удалить контент. Если этот контент действительно является вашим. На чужом сайте из поисковика, например там, ваши фотографии. Это самый простой метод. Если вы докажете, что вы автор. Размещение файлов, которые являются коммерчески значимых для вас, на сторонних сайтах, вы можете таким образом подать запрос через этот бесплатный сервис и таким образом, он будет рассмотрен. Если вы хотите в процесс ускорить, то будьте добры, платите. И стоит это недорого. Если этот контент наш, но не на вашем сайте, то если вы находитесь в Европейском союзе, вы можете удалить контент содержащий информацию о вас, благодаря постановлению суда о праве удаления. Можно запросить удаление личной информации через специальную форму удаления конфиденциальности и Евросоюза. Если вам нужно удалить изображение допустим из Гугл картинок. Просочились ваши личные картинки с вашего личного сайта по ошибке. Тогда нужно будет для одного изображения делать googlebot image disallow на конкретное изображение, а для всех изображений нужно будет googlebot image сделать disallow, тогда из Гугл картинок выпадут все картинки с конкретного сайта. Что бы посоветовал напоследок - это, если вы хотите на удалить что-то из поиска, надо продумать стратегию. Очень полезно понимать за что браться, в каких процедурах за какие вещи нужно цепляться. Если вы хотите удалить информацию, которая касается вас лично, но вы не живёте в Евросоюзе, то попробуйте написать email владельцу сайта и попросить его удалить. Это иногда действительно работает. Например, если это допустим, ваш контент и это вы можете на него доказать права, то через форму DMCA, конечно блокируйте его и просите избавиться. Картинку на это я оставлю под описанием этого подкаста на нашем сайте. Рекомендую сходить посмотреть и там очень четко расписана стратегия. На этом сегодня всё, не забываем подписываться на наш канал, задаём вопросы в комментариях. Я буду рад любому мнению, которые можно задать в нашей телеграм группе, на нашем youtube-канале. До новых встреч."

Scholarship Стратегия – Что это и как она работает?

Что такое HTTPS. Словарь SEO | Урок #240

Николай Шмичков1626 раз
Что такое HTTPS. Словарь SEO | Урок #240
В новом аудиоподкасте №240 Николай Шмичков рассказал что такое HTTPS. Текстовая версия выступления: "Всем привет. Вы на канале Соквик/ Меня зовут Николай Шмичков и мы поговорим про https. Это наше предложение рубрики словарь seoшника. Мы расскажем, что это такое и почему мы решили об этом сегодня рассказать - Ахрефс обновил свою статью, которая рассказывает, что такое https и как он работает, как он помогает в сео, как его настроить и как проверить ключевые ошибки относительно миграции на https. Что такое https. Это расширение протокола http, для проверки шифрования данных в целях повышения безопасности. Данные в протоколе https передаются поверх криптографических протоколов TLS и устаревшего в 2015 году SSL. Вы расскажете: Коля, что это за китайский? А я скажу, ребята, коротко - http трафик обычно не шифровал данные между собой. То есть он проходил по прямой, в то время, как соединение https шифруется. Таким образом идёт передача от клиента к серверу зашифрованной информацию. Вы делаете запрос и вам отправляет сервер ответ. Так во, если условно говоря, сайты, которые будут работать через http протокол, то данные могут быть перехвачены и полностью забраны. А https протокол используется для того, чтобы защитить данные. Например, если вы используете например VPN или используете публичный wi-fi сеть. Они могут использовать ваш трафик, если он не зашифрован - попросту перехватывать ваши логины, пароли, данные банковских карточек. Поэтому будьте добры, если вы пользуетесь публичными вайфаем, вы сами отвечаете за т, что ваши банковские данные и ваши личные данные могут быть перехвачены, в то время как и логины и пароли. Единственный способ включить https на своём сайте - это получить сертификат ETLS и установить его на свой сервер. Он ставится на сервер вашего сайта, и он еще называется сертификат SSL или SSL-TLS. Но это одно и то же. Используют SSL до сих пор, продают его как SSL сертификат. Но на самом деле, все используют его преемник TLSе. Он выдаются специальными центрами сертификации. Они заключаются в том, чтобы быть доверенно стороной в отношениях между клиентом и сервером. Можно проверить сертификат на каждом сайте или кто его дает, если вы нажмете на замочек в вашем браузере и он выведет окошко и вы можете увидеть, кто выдал информацию по сертификату. Есть разные сертификаты DV, OV, EV, бесплатные сертификаты, которые входят в комплект вашего хостинга и платно выполняет только проверку домена. Это подтверждает, что владельца сертификата может контролировать только данное доменное имя. Такая база в плане канонизации хороша для блогов и сайтов, которые не обрабатывают конфиденциальную информацию, но не идеальна для тех, кто это делает. Сертификаты формата бесплатные они пригодятся только если у вас бесплатный блог - во всех остальных случаях они будут бесполезны. Сертификаты которые используют DV TLS выглядят безопасными, но вы не увидите строку и issue to при нажатии на значок блокировки. Наиболее распространенным сертификатом DV TLS исходит от некоммерческого центра сертификации, который называется letsencrypt. Поэтому, если у вас бесплатный блог и вы не хотите тратиться на дорогой сертификат letsencrypt это то, что вам поможет. Также вам нужны другие сертификаты, если ваш сайт использует личные данные. Яркий пример: если ваш сайт разрешает вход в систему или платежной системы, вы должны инвестировать в сертификат, который предлагает проверку организации OV или расширенную проверку EV. Эти два типа отличаться в процессе: один более строгий, чем в другой. Если вы хотите купить только один сертификат, я бы рекомендовал покупать сразу EV - это самый надёжный, он стоит не так много и дорого как OV, тоесть это оптимальный вариант wildcard issan тела сертификаты, тоесть есть и другие варианты сертификации. Постановочные сертификаты и используются для защиты нескольких поддоменов одновременно, если вы купили стандартные сертификаты EV TLS, то вам нужно будет покупать отдельный сертификат EV TLS для допустим своего блога на поддомене. Но сертификаты формата wildcard используется для покупки сразу всех поддоменов, которые у вас есть. В этом плане не очень удобно, если вы планируете создавать много поддоменов, стоит покупать сразу два wildcard сертификата, ещё называют их сертификаты SAN. Как они помогают SЕО. Практически все преимущества https напрямую связаны с сео продвижением. Вы получаете более высокое ранжирование, более высокое качество конфиденциальности и безопасности, также сохраняются все данные которые вводят, сохраняет реферальны данные и конечно, позволяет использовать современный протокол, который повышает безопасность и одновременно скорость сайта. В 2014 году Гугл объявил, что https станет важным фактором ранжирования. То есть никто еще не знал, что он действительно является ключевым, но мы замечаем, что Google ранжирует сайты https гораздо сильнее. С сео прямой прямой связи нет. Он дает только безопасность и конфиденциальность. Но у нас заходя на ряд сайтов, вы можете увидеть что некоторые сайты не являются безопасными, то есть и теперь уже эффект пользователи заключается в том, что он видят не защищеное https и стараются их избегать. Это сказывается на поведенческий фактор. Всего лишь надпись Небезопасно в строке браузера уже заставляет насторожиться. Я бы обратил внимание как настраивать https. Процедура очень проста - вы запрашиваете сертификат, который вам выдается, передаете его вашему программисту, который настраивает его на вашем сервере. Есть специальные инструкции, которые можно сделать прямо на вашем хостинге. Он настраивает его на вашем сервере, где он применяется к вашему домену, либо домену и всем поддоменам одновременно, в зависимости от того, какой сертификат и поставили. Если ваш сайт работал на формате http, то вам обязательно рекомендуется подготовить переезд по 301 redirect. У нас есть большая статья, рекомендую почитать про все возможные виды редиректов. 301 redirect это первое, что нужно сделать. Какие ошибки могут быть. Например в 2016 году Ахрефс проанализировал около 10.000 доменов с самым высоким рейтингом, на предмт различных https ошибок и обнаружил 90% доминов не имели оптимальную реализацию https. Также https не работал правильно на 65% доменов и 23% доменов использовали 302 redirect вместо 301. С этого времени уже прошло почти четыре года, но какие ключевые ошибки делаются? Первое, что нужно сделать это проверить нет ли ни на одной странице вашего сайта на старом протоколе http. Я бы рекомендовал обязательно использовать проверку сайта screaming frog или ахрефсом, в том же окне можно проверить посмотреть какие странички имеют формат http и выловить их, настроить миграцию на https. Второй вариант это https страница с http контентом. Её ещё называют mixed Content ошибка. Суть в чём? Чаще всего, ваши картинки могут находиться по прямому абсолютному адресу, по формату http и ссылка на картинку. Этого чаще всего касается изображения, CSS, Java скриптов, потому что иногда не очень опытные программисты могут действительно не настроить. Ошибка 3. Ошибка это внутренние ссылки, не обновлённые до Https. Если вы настроили редирект, но без ничего, лишнего внутренние редиректы усложняют работу сайта и сканирование сайта. Поэтому мы рекомендуем проверить все внутренние ссылки на наличие http протокола вашего внутреннего домена. Это сделать тоже можно через Screaming frog, проанализировав все внутренние ссылки. Такие ссылке имею формат http домен, а не https домен. Ну и конечно же это очень легко выловить. Вы иногда можете по ошибке сделать неудачные redirect. Кто-то может сделать очень странные цепочки редиректов, когда несколько редиректов срабатывает по очереди. Такие цепочки редиректов нужно обязательно выловить, в этом может помочь вам и Ахрефс, а может и screaming Frog. Яркий пример: у вас была одна страница, которая переводила 301 редиректом на http версию, потом снова на https. Это пример типичной цепочки редиректов. На текущий момент 60% сайтов по случайной выборке используют https. Гугл говорит, что 99% времени просмотра тратиться на https сайты. И вдумайтесь, еще 40% сайтов попросту не перешли и эти 40% сайтов практически не получают трафика. Если вы до сих пор думаете что ваш сайт на https протоколе является некой белой вороной, исключением, то у меня для вас плохие новости - это действительно высокий фактор ранжирования и заменить его стоит не так уж и дорого и обновлять раз в год стоит его не так уж и дорого. Поэтому, если на вашем сайте до этих пор стоит http протокол, не забудьте его обновить. На сегодня всё. Я бы хотел чтобы вы поблагодарили меня, подписавшись на наш youtube-канал, не забудьте подписаться на наши подкасты. Также не забываем посмотреть классные ролики моей коллеги Алены Полюхович по поводу контекстной рекламы. Ну и конечно же, буду всех вас ждать снова и до новых встреч."

Продвижение сайтов БЕСПЛАТНО с реальными примерами (Эффективные методы SEOquick)

Как Google и Яндекс (и Mail.ru) помогают бизнесу в карантин | Урок #238

Как Google и Яндекс (и Mail.ru) помогают бизнесу в карантин | Урок #238
В новом аудиоподкасте №238 Николай Шмичков и Алёна Полюхович рассказали о том, как Google и Яндекс (и Mail.ru) помогают бизнесу в карантин. Текстовая версия выступления: " Всем привет. Вы снова на канале Сеоквик. Меня зовут Николай Шмичков. Мы снова вместе с Алёной будем сейчас разбирать очень интересные новости. Что у нас сегодня за новости, расскажи коротко. Сегодня мы поговорим о том, как google ads, ну и не только он, поддерживает бизнес рекламодателей во время этого сложного времени коронавируса. Правительство толком не поддерживает малый бизнес, мы знаем что правительство сейчас массово поддерживает крупный бизнес. Обратите внимание - рынки закрыты, супермаркеты работают. Какие-то мелкие магазинчики закрыты, большие магазины работают и торговые центры работают и продуктовые вот эти все. Но при этом, малые базары торговать практически не имеют права, там под жесткими ограничениями, либо вообще их закрывают. Малый бизнес действительно запирается. он не может работать, ему неудобно приезжать даже на работу, банально, он не может себе позволить какие-то крупные телодвижения. Как вот ещё и конкурировать с крупным бизнесом на данный момент. Потому что неизвестно насколько карантин затянется. Мы знаем только информацию, что 11 мая только в нашей стране карантин сняли, но мы прекрасно понимаем, что он будет длиться ещё до 22 Мая. А к этому времени мы так четко понимаем, что крупный бизнес будут продолжать себя прекрасно себя чувствовать, а мелкому бизнесу будет доставаться медвежья лапа на долгое время. Алёна, давай поконкретнее сколько Google нам даёт денег? 30 марта Google пообещал направить более 800 млн долларов на поддержку как малого, так и среднего бизнеса. Он также пообещал помочь организациям здравоохранения и правительственным организациям. В сумме 800 млн долларов в целом он выделяет на помощь, и как он конкретно их поделит: 340 млн долларов он предоставит в качестве кредитов Google ads. Они будут доступны всем представителям малого и среднего бизнеса, у которых аккаунты были активные на протяжении последнего года. Уведомления о появлении таких кредитов должны появиться в самих аккаунтах. Использовать можно в любой момент до конца 2020 года на всех рекламных платформах Google. 250 млн долларов Google решил отдать в виде грантов для помощи всемирной организации здравоохранения и подержать более 100 правительственных учреждений по всему миру. Данные средства должны быть направлены на распространение информации о предотвращении распространения covid-19 и других мерах по оказанию помощи населению. Из 800 млн долларов - 20 млн долларов должны пойти на рекламные гранты местным финансовым учреждениям и неправительственным организациям, чтобы они могли разместить объявление с официальной информацией о фондах помощи и других ресурсов для малых и средних предприятий. Также 200 млн долларов должны пойти на поддержку неправительственных организаций и финансовых учреждений по всему миру, которые помогают малым бизнесам получать доступ к капиталу. Google Cloud предоставит кредиты в размере 20 млн долларов для научно-исследовательских учреждений, чтобы они могли использовать вычислительные мощности, инфраструктуру компании для изучения потенциальных методов лечения и вакцин, а также отслеживания критически важных данных и выявления новых способов борьбы с коронавирусом. Ну так, а конкретно, сколько денег сейчас и как получить эти деньги? Ну конкретно 340 млн долларов, которой он не потратит непосредственно на рекламу в Google - это с 1 января 2019 года можно получить напрямую или через агентство в течении 10-12 месяцев, либо же в январе феврале 2020 года. Должно появится соответствующее уведомление непосредственно в вашем аккаунте. Не сразу, а поэтапно. Они будут водиться, начиная с конца мая 2020 года и соответственно, будет уведомление об этом, а предоставленные средства можно будет использовать для любого канала - КМС это или YouTube или поисковая кампания - это будет не важно. Использовать все эти кредиты можно будет вплоть до 31 декабря 2020 года, а то, что вы не успеете использовать, этот остаток он будет удалён. Даётся один кредит, даже если вы запускаете рекламу с нескольких аккаунтов. Размеры непосредственно самого кредита будет зависеть от суммы предыдущих ваших расходов в Google, а также вашего местоположения. Нужно следить за почтой. Я пересмотрел - ничего свеженького мне не падало пока. Я обратил внимание, что появилась возможность настроить, если даже сейчас вы до этого работали, если бы у вас был интернет-магазин, могу подсказать, Google начал рассылать такие сообщения недавно, что они ввели программу, которая работала ранее только в США. Эта программа была доступна только владельцам мерчант центра США и она позволяла в бесплатной выдаче показывать товары из вашего фида Google. Вы не платите за эту рекламу вы просто имеете фид товара в Гугл мерчант центре, активные товары. Главное, чтобы карточки товара были правильно заполнены. Ну с описанием товара, с названием товара, картинкой и актуальной ценой и наличием. Если в поиске будет вбиваться товар, ваши товары могут показываться бесплатно. В Google поиске и Гугл картинках. Не в видеорекламе, что очень удачно. В выдаче могут показываться ваши товары, но не сверху как обычно реклама, а в середине выдачи и если у вас сейчас не пришли купоны, всё-таки ждите. Вы можете уже проверить для вашего интернет-магазина стоит ли фид, подгружаются ли туда правильно товары и уже хотя бы получать трафик бесплатно. Недавно мы получили это письмо, вчера, пятого числа. Хотелось бы посмотреть, что делают в России. Google это хорошо, но давайте о России. У них малому и среднему бизнесу дарят 500 млн рублей. Компания получит бонусы на два месяца размещения рекламы в Директе, чтобы привлечь клиентов, а также воспользоваться бесплатными инструментами для организации удаленной работы. До 30 апреля компании могут подать заявку... до 30 апреля, а уже 6 мая. Кто успел, тот успел. 15 тыс. бонуса можно было получить. Инструменты для удаленной работы, бесплатное использование сервисов для бизнеса. Лимита бесплатно пользователя телефонии Яндекс диска малому бизнесу предоставлена возможность бесплатно пользоваться трекером. Яндекс в этом плане выделил немного. А вот mail.ru группа выделила 1 млрд на поддержку малого и среднего бизнеса, это правда новость тоже довольно старенькая, она с 26 марта. И компаниям и предпринимателям помогло в целом соцсети ВКонтакте, Одноклассники удвоили бюджеты на продвижение малого и среднего бизнеса в мобильных и рекламных кабинетах. Также сервис объявлений Юла открыл бесплатное размещение до 200 объявлений в месяц. Компании, которые были вынуждены перейти для работы в онлайн, для них бесплатный пакет услуг от платформы mail.ru для бизнеса. Ресторанному бизнесу также помогло Delivery Club - снизит комиссию для всех новых партнеров. Кстати, кто пользуется действительно этим сервисом, это очень важно, потому что доставка активно развивается. ВКонтакте выделил гранты на первые продвижения для кафе и ресторанов. Компаниям, работающим в сфере недвижимости, цифровое агентство недвижимости 33 слона откажется от своей доли в комиссии в пользу риэлторов и агентств. На самом деле, мейл.ру пошли на гораздо более гибкие льготы, которые нужны действительно тому бизнесу которому досталось больше всего из-за коронавируса. Даже водители такси, агрегаторы такси Ситимобил компенсирует водителем доход за упущенное время в простое. Даже если причиной стало заболевание коронавирусом или контакт с заболевшим пассажиром. Они обеспечивают таксистов масками, антисептиками и дезсредствами. На самом деле, mail.ru Group в этом плане очень активно поработал по компенсации. Следите за почтой и следите за уведомлениями. Уведомление о купоне Google должно быть скоро, с дня на день. А по поводу фида, проверьте почту, вам должно было прийти такое же письмо как и нам. Обязательно уделяйте внимание новостям, которые рассылает Яндекс, потому что та новость достаточно старая. Если вы успели воспользоваться, то вы просто свою почту не проверяете. Или не смотрите наше видео. Мы тоже можем не успевать по скорости, но мы успели вовремя всем напомнить. Не забываем подписываться на наш канал, на наши подкасты не забывайте подписываться. Заходите к нам в Телеграм канал, в Инстаграм, там очень много кейсов интересных. Я буду всех рад вас видеть на прямых трансляциях. Вы сможете мне задать вопросы в прямом эфире. До новых встреч, всем пока.

Анализ и Проверка сайта ОНЛАЙН: Обзор бесплатных утилит от Google

Что такое Ранжирование – Словарь SEOшника | Урок #236

Николай Шмичков620 раз
Что такое Ранжирование – Словарь SEOшника | Урок #236
В новом аудиоподкасте №236 Николай Шмичков рассказал о том, что такое ранжирование из словаря SEOшника. Текстовая версия выступления: "Всем привет. Вы на канале Seoquick. Это тоже рубрика сеошника. Я думаю, вы уже к ней привыкли, и я сегодня расскажу про термин - что такое ранжирование. Ранжирование - это слова, которые вы часто можете слышать, когда общаетесь сеошником. Многие спрашивают, что такое некоторые не понимают, что это такое и отвечу - ранжирование это сортировка результатов выдачи по запросу пользователя, который применяют поисковые системы. Это тот самый алгоритм, ради которого всё делается. Это именно сам процесс. По факту, вы задаете вопрос в поиске, система выбирает все максимальные варианты, которые возможны и рассортировывает их по определенному порядку. И вот этот самый порядок - пейдж ранк, который присваивается каждой странице по соответствию контенту оно и выводит. Стоит помнить, что выводится сначала по умолчанию все результаты, а потом степени родства к запросу, по ранжированию они выстраиваются. Есть несколько показателей ранжирования, условно говоря, рейтинг самой страницы и соответствие страницы запросу. Поэтому поисковая система анализирует релевантность по трем параметрам. Смысл содержания, формальность и ссылочное ранжирование. Содержание это текст сайта проверяется на соответствие смысла запроса. Насколько степень родства запрос исходно с контентом. Формальность - на сколько webresource отвечает алгоритму поисковой системы. Есть или нет на них каких-либо санкций или фильтров. Ссылочное ранжирование, если два первых пути пройденные, то рейтинг идёт уже исключительно по тому сайту, на которого действительно больше всего ссылок и страниц, на которых больше всего ссылок. Для работы с релевантностью выдачи существует понятие ранжирования. Давайте посмотрим, какие алгоритмы ранжирования в Яндексе и в Гугле. Есть общие алгоритмы, внутренние и внешние факторы. Внутренний фактор - это соответствие контента запросу, это качество текстов и других материалов, уникальность, естественность и актуальность. Срок существования интернет-страницы с текстами сайта в целом. Степень доверия в поисковых системах прямо пропорционально возрасту. Чем старше сайт, тем больше доверия. И срок существования системы отсчитывают не с начала момента создания ресурса, а от первой индексации, когда сайт в индексы попал. Это тоже очень важно. Вы домен можете зарегистрировать 10 лет назад по факту, а а индексе его не было, поэтому вот эти трюки, когда там домен делают и маринуют, а потом на него внезапно открывают сайт - это раньше работало, сейчас это может сыграть дурную службу и об этом я расскажу чуть попозже - по поводу как создавать молодые сайты. Внешние факторы - это входящие ссылки, ссылки на страницы сайта, находящихся на других ресурсах. Я говорил в прошлом подкасте - это те самые бэклинки, которые идут на сайт влияют на ранжирование этого сайта. Есть такое понятие как тематичность и авторитетность, поведенческие факторы. Система уже может прекрасно собирать все данные: как пользоваться себя ведет на сайте после входа в него, сколько страниц смотрит, сколько покинуло ресурс - это делается за счет всем известных сервисов аналитики, система изучает очень внимательно всю информацию, которая происходит на вашем сайте. Вебмастер видит только как ваш сайт находится в плане взаимодействия с поисковой системой до того момента как он на ваш сайт войдет. А сервисы аналитики типа как Яндекс Метрика и Гугл Аналитика уже поисковой системе сообщают всё, что происходит за пределами поисковой системы, но внутри сайта и как пользователь себя ведёт. Так формируется полная информация о веб ресурсе, поисковик его правильно ранжирует. Если у вас не стоят счётчики, информацию о поведенческих факторах поисковик не получает, а если вы будете накручивать, но забыли счётчик поставить, то поисковик просто их не знает и ранжирует по предположению, по тому как считает полезным. Примерно прикидывает, какой у вас должен быть поведенческий фактор. По поводу ранжирования. Например, Яндекс делятся своими алгоритмами ранжирования, он об этом рассказывает, он называет как он работает. Система в Яндексе проверяет форму машинного ранжирования, так называемого Матрикснет. Алгоритм строится на оценках асессоров, специалистов, выполняющих задачи по заданию разработчиков, поисковика, оценка того, насколько соответствует запросу найденный документ. Используется ручная работа, которая моделируется через искусственный интеллект. И таким образом, модифицируются формулы. Программа же не может понять, какой хороший, какой плохой сайт и оценка асессора является отправной точкой, на которую ориентируется сам алгоритм. Работа асессора исключительно контролируется вручную. Сегодня уровень точности оценки сайта асессорами составляет почти 100%. Есть мнение, что асессор может повлиять на поисковую выдачу по своему желанию и вывести сайт на первую строчку. Это невозможно, потому что на самом деле, асессоры только помогают программе, никакого влияния на выдачу он не оказывает. В Яндекс имеет выше 1000 положительных и отрицательных характеристик. Большая часть работает в совокупности. Если на сайте присутствуют отрицательные факторы, поисковая система начинает тормозить продвижение и сообщает об этом в вашем вебмастере. С Гуглом ситуация такая - все знают, Google вообще ничего не рассказывает, о том, как проводит алгоритм. Он проводит какие-то общие анализы, общие рекомендации, рассказывает на что не обращать внимания, пишут примерно одинаковые гайдлайны. Но поисковая система, как многие знают, оценивает с одной стороны гораздо меньше факторов при построении выдачи. При этом она учитывает гораздо больше факторов, но многие заметили, что реально учитывает гораздо меньше. В самом популярном движке результаты автоматической выдачи могут оказаться непредсказуемыми и действительно, немногие вещи они регулируют практически вручную и поэтому мы не можем точно сказать, на что точно Google обращать внимание. Google однозначно обращает внимание на ссылки. Google конечно же, обращает внимание на качество контента. Например, я в своей статье рассказывал факторы ранжирования Google, мы взяли до 200, изучили факторы ранжирования и их влияние на выдачу. Да, не все они одинаково влияют. Приоритетность оказалась следующей. Ссылающиеся домены, то есть, сколько уникальных доменов ссылается на ваш сайт. Уникальность доменов ключевое, не ссылок, а именно уникальные домены. Второе - это органический CTR. Это на втором месте однозначно по ранжированию, поэтому уделяем внимание тайтлам. Третье - авторитетность домена. Если домен не засветился в черных методах продвижения, то с этим проблем нет. Само собой, не забываем про HTTPS и тому подобные вещи. Мобильный сайт - сайт нужно рассматривать сначала с мобилки, а потом уже с десктопа. Google именно так смотрит на ваш сайт. Затем берет ту информацию, которую получает из Google аналитики - это продолжительность визита. Чем дольше пользователей сидит на основе аналогичных сайтов конкурентов, тем лучше общее количество ссылок идёт на ваш сайт. Да, некоторые сайты могут ссылаться на вас дважды и трижды. Да, это тоже учитывается, но ссылающиеся домены, конечно, в приоритете. Когда ссылается одна ссылка - один домен, это выглядит неестественно. Качество контента - здесь нужно обращать внимание на то, что мы рассказывали в прошлом аудиоподкасте - это фильтр Панда. Я не буду пересказывать всю информацию про качество контента, сходите - послушайте. СЕО данной страницы - это микроразметка, потому что она влияет на органический CTR, H1 - потому что он влияет на соответствие релевантности контента и многие другие факторы. Если у вас возникли вопросы по ранжированию, сходите на статью, почитайте это всё очень детально я рассказал. Буду рад комментариям, задаем их прямо под этой статьей и конечно же, я вас жду у нас на YouTube канале в четверг. Там постоянно проходит прямой эфир. Если вы хотите записаться на трансляцию, зайдите к нам на блог и там найдите трансляцию, которую хотите посмотреть на нажмите Включить напоминание. Я рад буду вас видеть, когда вы будете мне писать комментарии, буду всегда на них отвечать. И до новых встреч."

ССЫЛОЧНЫЕ Аудиты сайтов со Светланой Величко

Что такое Google Panda – Словарь SEOшника | Урок #235

Николай Шмичков622 раза
Что такое Google Panda – Словарь SEOшника | Урок #235
В новом аудиоподкасте №235 Николай Шмичков рассказал о том, что такое Google Panda из словаря SEOшника. Текстовая версия выступления: "Всем привет. Вы на канале Seoquick и это рубрика словарь сеошника. Мы сегодня поговорим про фильтр Google Панда, что это такое за алгоритм. Этот алгоритм предназначен для того, чтобы бороться с некачественными сайтами и он проверяет некачественные сайты по проверке качества контента. Про этот фильтр сейчас уже очень много известно, сеоэксперты, которые анализируют его говорят, что это фильтр за плохой контент. Не стоит путать с пингвином. Да, panda отвечает исключительно за некачественный контент и некачественно написанный сеотекст. Мы сейчас пойдём немножечко в историю по поводу такого алгоритма как Google Panda, когда он появился и мы хотим немножко рассказать про него. Я нашёл эту статью на НетПике и хочу поделиться с вами, если вы не читали её ещё. Гугл все выкатил этот алгоритм 2.2 Panda как пообещал, чтобы можно было забанить мусорные сайты. И это было обновление алгоритма Гугла, потому что в ручном режиме это делать уже очень трудно. Сеошники очень активно приспособились к ним. В прошлом выпуске говорили о том, что алгоритм Панда фундаментально изменил лучшие сеотехники. Это действительно алгоритм, который называют ещё по-другому Фермер, алгоритм запущенный в марте одиннадцатого года. Он преобразовал результаты поиска: некоторые сайты повысились при ранжировании, очень многие понизились. Алгоритм несколько раз обновлялся, каждый раз людей задавались вопросом о том, что происходит с выдачей. Некоторые технические особенности были освещены на блоге. В этом выпуски небольшой экскурс в историю. Google нанимает инженера по имени Навнит Панда. Этот парень делает огромную работу, он был этой частью патента, в который заглянул Билл Славский и разглядел отличный вариант усовершенствовать самообучающиеся поисковые алгоритмы. До Панды были они конечно, куда похуже. И он этот алгоритм развил. Название не в честь зверька, а в честь фамилии инженера, который его придумал. Теперь пользователь может выражать интерес к отдельным сайтам. Сео специалисты должны переквалифицироваться с типичных сео специалистов в веб стратегов, что действительно правильно, потому что всё, что вы делаете может влиять на сео. Это связано с алгоритмом Панда. За счёт этого внешние ссылки потеряли немного, сменилась их роль в ранжировании сайтов. Множество сайтов, у которых было большое количество ссылок, но при фильтре Панда, они прилично просели. Как работает отбор. Google принимает во внимание интересы пользователя, он определяет сайты которые нравятся или не нравятся. Он подразумевает параметр качества, который вёл Google. При этом алгоритм самообучается. Идея в том, что пользователи получили возможность выражать интерес или симпатию к тем или иным сайтам. Три простых вопроса:
  1. Доверите ли вы сайту информацию о вашей кредитной карте?
  2. Доверяете ли опубликованной на сайте информации медицинской тематики?
  3. Считаете ли вы, что дизайн сайта действительно хорош?
Если на эти вопросы вы получаете положительные ответы, то вы получаете более высокий уровень качества. Качество надежность и доверие - это собственно то EAT, которая потом станет известна в будущем. Panda это был первичный алгоритм этого самого EAT. Что собственно сказывается на ранжировании. Давайте чуть-чуть пройдемся по самой Панде, узнаем, что нужно менять. В первую очередь, нужно исправлять контент, который написали вы, которые пишутся для сео специалистов, а именно скотекст. Это тот контент, который разбирают в первую очередь. Мы столкнулись с этим по одному из наших клиентов, который пришла к нам в семнадцатом году, его сайт внезапно рухнул. У него был огромный трафик, у него было большое количество кликов и показов, он обычно в месяц получал 42000 кликов по Гуглу, по органике. И после этого позиции безумно рухнули и бизнес, который приносил безумные деньги просто упал. Мы расписали этот кейс у нас на сайте и искали ответы, мы написали на форум Google и получили ответ, что это действительно проблема с контентом. Ну начали контентом, нужно переписать весь контент на сайте, тот писался непрофессионалом. Для этих целей были наняты авторы, которые являются специалистами и которые начали писать хорошие тексты. После этого сайт вырос, позиции поднялись и трафик просто вырос до огромных уже чисел. Там до 3 до 4 тыс. посетителей в день. Что мы говорим по этому поводу. Если вы занимаетесь собственным сайтом, собственным контентом и пишите все тексты самостоятельно, как профессионал, то Панда не грозит вам. Но если вы ходите на биржи копирайтеров, нанимаете авторов студентов, нанимается фрилансеров, которые нанимают студентов перекупают ваш заказ, потому что по факту, фрилансер, который продаёт тексты на любую тематику, не пишет их, он просто ищет авторов на любую тематику. Таким образом, страдает качество контента и вы можете получить тот самый фильтр Панда, потому что вам будут писать ерунду. Ну и конечно сеошники старой школы могут до сих пор выделять текст жирным, наполнять страницы ключевыми словами и, таким образом, рисковать, подходя к тому, что могут действительно сайт загнать под этот фильтр. По поводу алгоритм Панда, я бы рекомендовал однозначно еще уделять внимание не самому тексту, а уделять внимание архитектуре сайта. Представитель 2017 это подтвердил. Важно уделять внимание структуре категорий и вложенности. У меня есть примеры сайтов, которые имели действительно сложную структуру, когда контент дублируется и непонятно вообще как им пользоваться, как с ним работать и Панда наказывает такие сайты и они просто никогда не могут продвинуться. Собственно, как проверить попал ли сайт под фильтр Панды. Если падение органического трафика произошло внезапно, вы скорее всего попали на него. Если количество внешних ссылок у вас нормальное, ссылочный трафик нормальный, но вы рухнули, то скорее всего Панда вас зацепила. Даже если вы будете просто писать напрямую на форуме вебмастеров, вам будут отвечать такие же пользователи, вам не будет отвечать сам Google. То есть, если падает действительно трафик с Гугла, вот у молодых сайтов очень долго 0 трафик. То нужно искать способы проверки, сравнивать себя. Есть конечно сервисы, которые позволяют оценить онлайн те ли фильтры, которые были на сайтах и в этих сервисах такой позволяют проверить сайты на наличие фильтров. Мы хотели бы уточнить по поводу как выходить из-под фильтра санкций. Во-первых, посмотрите, какой контент приводит трафик к вам на сайт. Проверьте соответствие запросам содержимого страницы. Изменяйте и удаляйте контент очень аккуратно, то есть не удаляете тот контент, который приводил до этого еще трафик даже после падения фильтра. Я бы обратил внимание на страницы, которые имеют нулевую видимость, хотя раньше давали хороший трафик, а сейчас рухнули. Это серьёзный знак того, что Google посчитал эти страницы мало интересными и понизил их позиции. В первую очередь надо выстроить этот список. Возьмите список всех страниц на вашем сайте, спарсите каким-нибудь паучком и посмотрите постранично статистику ключей за один период, и за другой период. Посмотрите какие страницы однозначно просели. Ну и методом Экселя формулы можно легко посмотреть, какие странички чётко просели. Очень важно, если вы считаете низкокачественным, просто обновить его. Удалите абзацы, которые устарели, дополните абзацами, которые новые. Текстерра так делает постоянно и очень просто. Если у вас на самом деле, есть спам, однозначно удаляйте его, удаляйте навязчивую рекламу, уведомления. Учтите, фильтр Панда он выглядит как фильтр постраничный, потому что обычно Пингвин сажает весь сайт. Весь сайт сыпется. При Панде падают только какие-то одни страницы, а другие могут остаться. Панда это то, что может вас ожидать в любой момент и по факту, если вы заметили, что у вас упало органика, но вроде бы сайт стоит на месте по большинству страниц, следите какие страницы перестали давать трафик. Изучите причины, насколько они просели. Если они просели на 2-3 позиции, то вряд ли это Панда, а если просели на 40 позиций - это Панда. Займитесь контентом. На сегодня всё. Я думаю вам я дал много формации. Я хотел бы чтобы вы задавали вопросы в комментариях. У нас есть комментарии на YouTube, у нас можно задавать вопросы в телеграм группе нашей. Также не забываем, что у нас есть на YouTube канале трансляции по четвергам. Мы всегда приглашаем туда гостей. Так что задавайте вопросы прямо в прямом эфире, мы будем в прямом эфире вам на все их отвечать. Время по четвергам можно узнать на нашем youtube-канале, там запланированы все трансляции. Всех вас жду и до новых встреч."

Внешние ссылки – NOFOLLOW или SPONSORED? Требования Gooogle / Яндекс

Что такое аффилиат сайты – Словарь SEOшника | Урок #234

Николай Шмичков611 раз
Что такое аффилиат сайты – Словарь SEOшника | Урок #234
В новом аудиоподкасте №234 Николай Шмичков рассказал, что такое аффилиат сайты из словаря SEOшника. Текстовая версия выступления: "Всем привет. Меня зовут Николай Шмичков. Вы сегодня слушаете подкасты на канале Сеоквик - школа рекламы. Мы продолжаем тему словарь сеошника и зацепим такую тему как аффилиат сайты. Я заметил, что я про это даже ни слова не написал в своём блоге и конечно же, буду исправлять это недоразумение, но начнем мы с нашего аудиоподкаста и постараемся на этот вопрос ответить. Что такое аффилиат - это сайты, чаще всего принадлежащие одной компании и продвигаемые по одинаковому списку запросов. По факту, аффилиат сайты - это те, которые действительно являются копиями друг друга в формальном смысле. Они могут иметь разный дизайн, но семантически они могут иметь одинаковый контент и принадлежать одной компании. Аффилиатами иногда называются партнеры интернет-магазинов или платные сайты. Такие сайты не продают товары и услуги, на их площадках размещается партнерская внешняя ссылка. При переходе по такой ссылке, покупки совершают посидели, а партнер получает определенную прибыль от продажи товара или услуги. Это другое понятие, но мы будем сейчас говорить именно про аффилиат сайты, а не аффилиат партнеров. И про affiliate фильтр Яндекса. В частности Яндекса, у Гугла он есть тоже. Аффилиат фильтр Яндекса - это реакция поисковой системы на появление большого числа аффилированных ресурсов, единственная цель которых, заполнить поисковую выдачу. В 2010 году был тренд создавать огромное количество сайтов с разными названиями, которые имели практически одинаковый контент, который был вроде бы как уникализирован, но формально имели примерно одинаковые адреса. За счет этого выдача заполнялась просто массово по низкоконкурентным нишам, заполнялась множеством сайтов. Плюс заодно, таким образом, иногда создавая 10 сайтов одинаковых сайтов один выстреливал и работал. И впервые я столкнулся с такой серой тематикой, это были права для лодок, права для спецтехники и пользователь, который продавал эти права создавал десятки, несколько десятков сайтов, которые ранжировались по одному и тому же запросу. Смысл в том, что рано или поздно один выстрелит. У них всех были разные контактные данные, само собой. Почему он обходил этот аффилиат фильтр? Есть такая техника, люди так работают, пытаясь заполнить нишу, потому что один из сайтов может выстрелить и ты уже будешь в него вкладываться. Есть такой трюк, сеошники его знают, это когда ты пытаешься выйти на рынок, но не знаешь, какой формат сайта действительно залетит и сеошники пытаются стрелять, как говорится, в молоко, делают такой своеобразный бета тест, создавая потом эти самые сайты, чтобы не попасть под аффилиат фильтр. Он накладывается при условии, если у сайтов совпадает хостинг, данные who is у домена, тематика, адрес и название фирмы и ip-адреса. Это ключевые показатели, по которым можно распознать, отметить, что сайты сходны. Одинаковые контактные данные, там телефоны, там Скайпы, IСQ, службы поддержки - это сразу знак, что сайты являются афиллиатами. Во-вторых, расположение компании, разные номера офисов бизнес-центра, но тоже может навлечь, что это аффилиаты и может с этим наложить санкции, но не точно. Совпадение информации сайта, я говорил - это по данным who is, общий хостинг, ещё очень важным фактором определения является исходная ссылочная масса. Поэтому, если будете просто копировать ссылочную массу с конкурента, вы можете даже схлопотать affiliate фильтр, не являясь им. Тоже есть такая система, поэтому занимаетесь сео оторвано от конкурентов, излучая их стратегию, но не повторяясь. Само собой, одна и та же дата регистрации или совсем небольшой промежуток регистрации между доменами, чтобы не нарвались на такую ситуацию, если её вы делаете всё-таки, эту методику, должны выкладываться с большим интервалом. Ну и конечно CMS, одинаковые шаблоны, не копируйте никогда у конкурента точь-в-точь тематику, тему, потому что на аффилиат фильтр можно попасть с легкостью. Если дублировать один и тот же контент, это особенно касается всяких сайтов по продаже запчастей, которые используют общий контент из общих каталогов, они больше всего подвержены этому фильтру, то однозначно, я бы занимался тем, чтобы изначально строил логику уникализации этого контента на сайте. Сравниваются либо все параметры, либо какая-то из них комбинация. Поисковая система, если сочтет что сайты, пусть даже не явно, дублируют друг друга, все копии могут быть исключены из результатов выдачи. Останется только тот ресурс, который система сама решит, что является наиболее полезным для пользователя. Не путаем аффилиаты и зеркала. Про зеркала, я думаю, мы расскажем в следующем аудиоподкасте, что это такое. Не стоит путать, поэтому зеркала обычно в роботсе прописан. Там же мы указываем, какой являться должен главным. В то же время, абсолютно это разные сайты, которые находятся на разных участках. По поводу аффилиатов. Например, на нашем сайте вы обратите внимание, что наш сайт доступен по двум доменам seoquik.ru и seoquick.com.ua. Но эти два сайта не являются аффилиатами друг другу. Но в прямом смысле, можно их назвать даже аффилиатами. Тоесть прямо под эти формально данные, те же адреса, те же телефоны, то же название компании, тот же хостинг на этих сайтах. Но там нету ссылок друг на друга, что очень важно. На этих сайтах реализовано тегами размечено гео. seoquik.com.ua мы считаем оптимальным сайтом для Украины, seoquik.ru оптимальным сайтом для России. Именно благодаря этому разделению, один сайт показан в Украине, а второй в России. Как мы это сделали Анатолий рассказывал в последнем видео, рекомендую всем посмотреть. Там при помощи простейшего тега мы сделали этот трюк. Мы разделили сайты на разные регионы просто за счёт того, что мы делали разные домены под разные регионы. И так делает множество сайтов, я про это рассказывал в прошлом подкасте, я рекомендую послушать его. Задавай мне вопросы вопросы. Можно задать мне в прямом эфире на трансляции, когда у нас проходят вебинары. Вопрос можно мне задать в Инстаграме, вопрос задать в нашим чатике на нашем сайте, где я на все вопросы отвечаю. Всех благ вам и до новых встреч."

Фриланс Биржи: Какие профессии выгоднее? Обзор бирж

Что такое хлебные крошки – Словарь SEOшника | Урок #232

Николай Шмичков1605 раз
Что такое хлебные крошки – Словарь SEOшника | Урок #232
В новом аудиоподкасте №346 Николай Шмичков рассказал о том, что такое "хлебные крошки" из словаря SEOшника. Текстовая версия выступления: "Всем привет. Вы снова на канале Сеоквик. Меня зовут Николай Шмичков и это аудиоподкаст - словарь сеошника. Мы сегодня будем говорить про "хлебные крошки". Самое забавное, что "хлебные крошки" название пришло изначально позже, чем появился непосредственно этот феномен, сама эта цепочка. На самом деле она и называется в Википедии навигационная цепочка. Если вы зададите вопрос сеошнику, что такое навигационная цепочка, возможно, он будет смотреть на вас, как баран на новые ворота. То есть, по факту, может не знать этого. Эта цепочка и еще у неё есть название дублирующее меню, это элемент интерфейса в компьютерных системах, программа веб-сайта, которая показывает путь от некоего начального элемента, корня файловой системы, главной страницы сайта, до того уровня иерархии, которую в данный момент просматривает пользователь - рабочий файловый менеджер, открытая рабочая страница. Ярким примером навигационной цепочки в старых файл менеджерах была адресная строка, которая выглядела, как там c:/папка1/папка2/папка3. Это и была вот эта система: имя диска, папка, подпапка текущая подпапка. Это и была навигационная цепочка типичных файловых менеджеров. Ну и по факту, уровень файлового менеджера в этой навигационной цепочке и определял уровень вложенности. Потом когда спрашивают, что такое этот уровень вложенности это и есть этот уровень вложенности в иерархии данных папок системы, папок и подпапок. Если вы посмотрите, "хлебные крошки" - это элемент навигации по сайту, которые представляют путь от корня сайта до текущей страницы, на которой в данный момент находится пользователь. Это полоса в верхней части страницы под шапкой сайта, где каждый элемент является кликабельным и позволяет вернуться на предыдущий уровень назад, зависимо от того, на какой этап вы нажали. Дословный перевод хлебные крошки - breadcrumbs, он пришёл из известной сказки. Сказка была Гензель и Гретель, если вы помните, Братья Гримм. Дети, которые разбрасывали в лесу хлебные крошки, чтобы отметить путь для возвращения домой. И собственно, хлебные крошки так оно и называется, когда вы проходите, вы оставляете вот этот вот некий след пути. Все элементы хлебных крошек, кроме последнего являются ссылками, которые можно использовать для быстрого перемещения пользователя, в интересующий раздел сайта. И также можно определить тот самый уровень вложенности просматриваемой странички путем подсчета количества крошек. Но самое забавное, не это является реальным уровнем вложенности. "Хлебные крошки" могут создавать виртуальный уровень вложенности, товары на сайте могут быть по умолчанию в одном уровне вложенности. Конкретный товар можно найти во всей категории, в рубрике все товары, в другой рубрике вложенности и только они отображаются лишь на сайте виртуально, поэтому для поисковой системы это улучшает навигацию, это дублирует меню. Это так и называется дублирующим меню, потому что вы можете как через каталог пробраться в "хлебные крошки", так попав на товар, вернуться в любой раздел просто по дублирующему меню, кликнув на соответствующую рубрику. Использование "хлебных крошек", на самом деле, является необязательным. Даже на нашем сайте, в нашем блоге "хлебных крошек" нет. Но их наличие полезно для улучшения юзабилити и повышения поведенческих факторов. Что по этому поводу собственно пишут в СМИ, у других сайтов. Что есть такое понятие динамические "хлебные крошки" - это когда навигационная цепочка отражает вложенность страниц в зависимости от пути пользователя, а не от иерархии страниц. То, что я сейчас вам сказал - это когда товары и папки лежат в одной системе на самом деле, а визуально товары находятся по другому пути. То есть, например, иногда может оказаться, что одна и та же рубрика может находиться в разных папках, в зависимости как попал на неё пользователь. Один и тот же товар может находиться действительно по-разному пути и навигационная цепочка может даже быть разной для одного и того же товара, такое тоже может быть. Возможно, что цепочка будет выпадающим списком - это более расширенный функционал, допустим при наведении на предыдущий уровень, вываливается просто меню всех остальных уровней и пользователю можно, при помощи навигации легко попасть на другие рубрики. Допустим, сидя на товаре, посмотреть другие разделы, выбрать другую, рубрику смежных разделов, какой-то категории. Также встречаются варианты - это слишком длинные "хлебные крошки" сокращаются, удаляются очевидные подразделы, наоборот добавляя в них подходящие элементы, например, с брендом товара. Известный пример это Розетка, которая как бы иногда добавляет дополнительную "хлебную крошку", хотя на самом деле вы не проваливались в этот уровень, а просто она её добавляет. Бывает навигационная цепочка начинается не с главной страницы сайта, а каталога. Потому что и так понятно, что она главная. Сразу идёт каталог, потом рубрика, потом подрубрика. Так реализовано в российском Эльдорадо. И хлебные крошки нужны не только большим интернет-магазинам. Они помогают с навигацией по сайту, который действительно имеет сложную структуру, огромное количество категорий. То есть это информационные порталы, форумы, блоги, корпоративные ресурсы. Там очень нужна навигационная цепочка. Главные критерии ресурса тут не вид, а действительно вложенность страниц и контента. Если на вашем сайте линейная структура с максимум двумя уровнями, например, у нас на блоге. Тогда в "хлебных крошках" нет потребности. Но если уровней как минимум больше двух, то хлебные крошки помогают улучшить навигацию, чтобы пользователям было проще путешествовать по вашему сайту, по обширному контенту. Более того, тогда можно будет красивые сниппеты выловить из поисковой системы. Почему бы и нет, навигация действительно попадает непосредственно в поиск. Давайте делать выводы. Почему "хлебные крошки" нужно любить. Во-первых, это улучшает юзабилити, на больших сайтах действительно проще ориентироваться. Можно в один клик перемещаться куда угодно. Интернет-магазинам позволяет при помощи различных кнопок путешествовать по сайту и легко делать покупки. Во-вторых, решается проблема с перелинковкой. Так как это навигационные элементы, то эти элементы поисковые роботы видят, они изучают сразу все страницы. Робот легко проходит по всем внутренним ссылкам. И таким образом решается проблема с перелинковкой и в принципе, установив "хлебные крошки" на многоструктурный сайт, вы лишаетесь проблемы, решаете сразу проблему перелинковки. Все страницы будут грамотно сразу сделаны, так что каждая ссылка будет учитываться нужное количество раз. Ну и конечно третья причина, почему стоит любить "хлебные крошки", это прокачанный сниппет, увеличение кликабельности, увеличение роста. Сниппет с хлебными крошками выглядит гораздо симпатичнее, у него хлебные крошки идут подсвечены, то есть они переведены, не идут транслитерацией, как фрагмент, и поэтому вы получаете более расширенный сниппет, увеличивайте кликабельность, увеличивайте позиции. Как сделать "хлебные крошки". На главной странице "хлебных крошек" быть не должно в принципе. Если они там есть, бейте по рукам вашего программиста. Мы привыкли видеть хлебные крошки сразу под шапкой в верхнем левом углу - это стандартное расположение, под структурным меню веб-ресурса. Можно их дублировать при желании и внизу. Микроразметка "хлебных крошек", оно так и есть, breadcrumblist, её можно использовать без всяких проблем. Есть гайдлайн от Гугла и таким образом, это легко сделать. Если же у вас сайт на ВордПрессе, вы можете использовать два плагина. Они решают задачу ручками. Без плагинов придется повозиться в коде, написать кое-что хлебные крошки у вас есть. Если у вас возникли вопросы, задаём вопросы у нас в телеграм-канале. У нас там есть группа, где можно пообщаться. Также можно пообщаться, нам написав просто на нашем чате на нашем сайте. Также не забываем, что есть Youtube канал, каждый четверг у нас там проходят вебинары в прямом эфире. Можете задать вопросы прямо в прямом эфире мне и моему гостю, которые будут на вебинаре и мы также на них ответим. А пока не забываем подписываться на наши подкасты и до новых встреч."

Почему увольняются SEO специалисты? Обзор причин

Ссылки и JavaScript – Рекомендации от Google | Урок #231

Николай Шмичков601 раз
Ссылки и JavaScript – Рекомендации от Google | Урок #231
В новом аудиоподкасте №231 Николай Шмичков рассказал про ссылки и JavaScript, а так же рекомендации от Google по этому поводу. Текстовая версия выступления: "Всем привет. Вы снова на канале Seoquick. Меня зовут Николай Шмичков и мы поговорим про новое сообщение от мастеров Google. Мартин Сплитт рассказал как нужно правильно делать ссылки на ваших веб приложениях или веб страницах, так будем называть. Заказывать работу у опытных программистов стало модно, которые превращают ваши сайты в полноценные веб приложения и вы создаете огромное количество контента на них, который является интерактивным. И мы доходим до момента того, что зачем вообще нужны ссылки. Ссылки появились очень давно, ссылки нужны для того, чтобы пользователь переходил из одного документа в другой и ссылки конечно же, важны не только для пользователя, но и для ботов поисковых систем. Переходя по ссылкам поисковые бот получает представление о структуре сайта, его информационной архитектуре. И благодаря этому, поисковик понимает, какая страница больше соответствует заданной теме. Собственно как можно правильно сделать ссылку. Ну и вот Мартин Сплитт говорит как нужно делать правильно ссылку. Самый классический тег в скобках ahref stuff рядом какой-то показывает, это хорошая ссылка, где вы показываете просто через атрибуты ahrefs равно на конкретную ссылку. Он имеет в виду он стоит сразу относительно ссылки, никаких абсолютных ссылок. Если же вы делаете ahrefs stuff, потом делаете onclick go to operator stuff, это говорит типа О'кей, ещё вариант типа может и сойдёт. Но преимущества даётся, конечно же, первому варианту без события onclick, но если вы вы устраиваете другие варианты, здесь он перечисляет вариант, когда вы делаете без атрибута ahref, например, через события onclick или все-таки используйте ahref, но ведёте не на конкретную ссылку, а используете JavaScript, то это точно не требуется. Еще не требуется делать в формате кнопки событие onclick go to, зачем это тоже делать, это неверно. Ну и имитировать ссылку нижним подчёркиванием тоже не стоит, это тоже не стоит делать. Поэтому ссылка будет работать только в этом случае и если вот этого будет работать JavaScript, а поисковые роботы не смогут определить, куда она ведет. Ссылка становится ненадежной, поэтому этого лучше избегать. Ссылки когда вы делаете атрибут без пригодного URL то, что я говорю, псевдо URL JavaScript, то результат такой же как и будет ссылки без атрибутов ahref. То есть поисковый робот её не увидит, не стоит так делать. Ну и хорошим решением будет являться использования кнопки, но тоже не стоит этого делать. Почему? Потому, что если это всё в рамках одной страницы, кнопка нормально. Не нужно делать ничего другого, но если переход идёт на другой контент, на другой странице, вам однозначно нужна ссылка. Ну и конечно же, не стоит имитировать ссылки, когда вы там используйте другие элементы html - подчеркивания. Потом добавляете рабочих кликов JavaScript, потому что не стоит этого тоже делать. Всё это говорит о том, что нужно использовать семантическую разметку HTML ссылки и направлять ссылку на правильный URL. Что значит правильный URL, собственно это мы исключили псевдоурлы, например, ссылки с кода JavaScript. Давайте посмотрим на саму ссылку в целом. Собственно типичные примеры ссылки которые мы знаем это ссылка когда идёт там site.com/page1 или /сome/page# и допустим там якорь один. Это примеры типичных ссылок, которые используются. То есть или протокол доступа конечно же, у нас варианты это http и https. Google конечно же, вы знаете, любит https больше всего. А сайт.ком это наше доменное имя, имя на которое реагирует компьютер, группа компьютеров и во внутренних ссылках мы обычно домен не используем, используют абсолютные ссылки. Ну и самое главное, в ссылке должен быть путь к определенному контенту на данном компьютере. На что нам нужно обратить внимание, какие варианты идентификатора фрагмента. Идентификатор фрагмента указывает на конкретную часть документов и поисковая система не использует идентификатор фрагмента и определение этого контента. Поисковые роботы попросту его игнорируют. Поэтому, если у вас на странице все ссылки сделаны через якоря, через решетку, такие ссылки не видны. И я видел примеры сайтов, действительно веб-сервисы, у которых доступ к контенту предоставлялся через решетку и это действительно является серьезной проблемой когда допустим ссылочка site.com /#/раздел. Такая ссылка не будет индексироваться, будет индексироваться только фактически главная страница. Поисковый робот не будет переходить по ссылкам сделанные через якорь. Собственно, по этому поводу я рекомендую всем сходить на YouTube, посмотреть полное видео - это серия планирует выходить активно на канале Google webmasters и фактически рекомендую всем к просмотру. Задумайтесь над тем, какие сайты делают вам ваши программисты, делают ли они вам правильно, или сделают вам ерунду, которая никогда индексироваться не будет. И если вы этого не будете знать, скорее всего, программисты вам создадут продукт, который вы будете потом переделывать. На этом сегодня всё. Не забываем подписываться на наш канал, задаем мне вопросы в нашей телеграм группе. Я буду также ждать вас по четвергам на нашем youtube-канале на прямых эфирах, которые мы проводим с различными знаменитостями в мире SEO и контекстной рекламы. Я хочу видеть вас всех в подписчиках на наших аудиоподкастах и на нашем youtube-канале, в наших соцсетях. Я буду безумно рад. Всем хорошего дня и до новых встреч."

ССЫЛОЧНЫЙ Аудит сайта с Игорем Рудником

Что такое семантический анализ текста – Словарь SEOшника | Урок #230

Николай Шмичков796 раз
Что такое семантический анализ текста – Словарь SEOшника | Урок #230
В новом аудиоподкасте №230 Николай Шмичков рассказал про то, что такое семантический анализ текста из словаря SEOшника. Текстовая версия выступления: "Всем привет. Вы на канале Сеоквик и сегодня мы продолжаем нашу рубрику словарь сеошника. И сегодня я решил ответить на какую тему - что такое семантический анализ текста. Для многих это может словосочетание казаться таким сложным, какой-то там там замудренной задачей, которую делают только гуру сео и новички понять не могут. Но на самом деле, всё куда проще. В общем, семантический анализ текста, это когда вы создаете искусственный интеллект, который распознаёт соответствие написанного текста непосредственно к поисковому запросу. Семантический анализ это последовательность действий алгоритма автоматического понимания текстов. Она заключается в выделении семантических отношений, формирования семантического представления текстов. Это структуры состоящие из текстовых фактов. Семантический анализ в рамках одного предложения называется локальным семантическим анализом. Это так говорит об этом Википедия. В SEO семантический анализ это чуть-чуть другое. В сео семантический анализ это когда вы анализируете текст на определенные ключевые слова. Когда вы хотите понять, какие ключевые слова являются смысловыми, какие ключевые слова являются ненужными, на какие не нужно обращать внимание. И по этому анализу вы должны определить насколько качественно написанный текст. Самое сложное, это установить содержательное семантическое соотношение между элементами текста, потому что как бы мы пишем не одним словом, мы добавляем литературные определённые обороты, мы добавляем какие-то предыстории для того, чтобы удержать пользователя и поэтому наша задача бороться между удержанием пользователя, облегчения контента и изложения тематики по сути. Семантический анализ это показатель качественности текста, который составляется размещать на страницах сайта, с целью его продвижения. Написание текста для оптимизации, требует у него наличия ряда показателей, которые не должны превышать соответствующие нормы. Есть определённый анализ, который позволяет проверить не переспамлен ли текст, насколько велика его тошнота, не преобладает ли в нём вода и какие слова являются в нём подавляющими. Таким вот образом, копирайтеру нужно найти баланс между тем как писать тексты как для поисковой машины, так и для человека. Этот абзац является ключевым, потому что в сео в написании текстов, мы должны балансировать между тем, чтобы учесть, что семантика не расползалась мыслями по древу, что вы должны четко удерживать себя в определенных рамках тошноты, в определенных рамках переспама, и определенного анализа и ключевых слов, но и при этом конечно же, писать как для людей, потому что в противном случае, вступит другой алгоритм, который мы знаем как Баден Баден или Google Фред, как его еще называют, тот самый алгоритм, который определяет бессмысленные тексты и понижает позиции. Поэтому мы пройдемся по темам семантического анализа. Первая тема - это тошнота ключевых слов. Это частота употребления ключевых слов, которые составляют семантическое ядро. Если вы слишком часто упоминаете ключевые слова, которые у написаны и являются вашим семантическим ядром, то есть их плотность по соотношению к тексту высокая, значит тошнота высокая. Метод борьбы с тошнотой - увеличить объем контента, либо исключить определенные повторы ключевых слов, знаменив их на LCI синонимы. Второй термин - это стоп слова. Это слова, которые не несут смысловой нагрузки, в стоп слова входят предлоги, местоимения, наиболее часто употребляемые в интернете существительные и глаголы. Стоп слова при индексации, поисковики практически не учитывают, определённым исключением. Новый алгоритм Гугл Берт внимательно учитывает соотношение этих самых стоп-слов в составе ключевого предложения. Надо рассматривать предложения пытаясь довоссоздать дополнительный контент. Предлоги тоже имеют значение в запросе и в контенте, которые вы пишите. Так что на самом деле, когда вычисляется процент плотности ключевых слов, должны понимать, что предлоги в ходе большинства сервисов не учитывает, поисковики не очитывают, но наличие предлогов в определенных ключевых словах являются важным и поэтому здесь нужно писать по делу. Вода - это процент незначимых слов и выражений. Есть некая база слов, которые являются повторяющимися, например, слова-паразиты. Соотношение воды и общего количества слов в тексте, не должно превышать определённо значение. Путем несложного анализа большинства текстов, вычислили, что соотношение воды нормальное это 30-40% процентов. Соотношение тошноты не более 6%, ну а стоп-слова не учитывают. Существует целый вагон программ для семантического анализа. Самое известное это Адвего. Про Адвего мы писали большую статью, рекомендую сходить почитать. Она называется "Как заработать на Адвего". Адвего позволяет анализировать количество символов в тексте, общее количество слов в тексте. Я закинул свой свеже написанный текст, написал его на 3000 символов, или 2600 без пробелов, на 440 слов. Из уникальных 256 слов, система не распознала 158 значимых слов. Нашла у меня 64% воды Я просто много предлагов пишу обычно, это факт. И акадамическая тошнота у меня получилось 6.8%, что в принципе довольно таки высоко. Но на самом деле, я этот текст написал без разбавления, просто изложил мысли и получилось такое соотношение. Количество грамматических ошибок 23, но причина заключается в том, что это грамматические ошибки, которые не являются ошибками. Это слова Google, ранжировать, система не очень понимает их. Конечно же он помогает исправить тест, но не является панацеей. Мне Адвего очень нравится, он позволяет разбить слова по группам, это очень удобно. Он разбивает сразу по семантическому ядру, написанный текст, разбивает его по отдельным словам, выделяют отдельно стоп-слова, можно посмотреть, какие стоп-слова он увидел. И вы можете от них избавиться, перефразировать предложение, уменьшив эти показатели. Это очень удобно. Второй сервис, для семантического анализа это текст.ру. Текст.ру больше заточен на анализ именно доли документа. Он не разбивает документ по семантическому ядру и он больше нужен для анализа уникальности. Но для семантического анализа Адвего в этом плане лучше и мне пока больше всего нравится. Если у вас возникли вопросы, задаём их пожалуйста у нас в телеграм группе, я буду рад на них ответить. Также у нас есть чатик непосредственно на нашем сайте, можно задать вопросы. Приходите к нам по четвергам, к нас есть вебинары на нашем youtube-канале, где мы рассказываем те или иные фишки по сео продвижению, обычно у нас в гостях кто-то есть. Вы можете задать вопрос как мне, так и нашему гостю, и мы в прямом эфире на них конечно же ответим. Не забываем читать статьи на нашем блоге, там много чего интересного. До новых встреч."

БЕСПЛАТНЫЙ Аудит сайта ОНЛАЙН | В Гостях Иван Палий

Что такое доноры – Словарь SEOшника | Урок #229

Николай Шмичков572 раза
Что такое доноры – Словарь SEOшника | Урок #229
В новом аудиоподкасте №229 Николай Шмичков рассказал про то что такое доноры из словаря SEOшника. Текстовая версия выступления: "Всем привет. Вы снова на канале Соквик и мы в нашем аудиоподкасте разберем, что такое донор, в частности, что такое донор для SEO. Давай не будем путать доноры в других тематиках. Донор в сео это называется сайт, который предоставляет возможность размещения обратной ссылки или бэклинка на ваш сайт. Это всё называется донором и вот правильно отбирать доноры - это собственно и искусство сеошника. Как их отбирали раньше? Ну если интересно, доноры сайты это непосредственно такие сайты, которые мы выбираем по определенным критериям, например, раньше мы просто могли там какой-нибудь программой типа пикчекером или PR чекером каким-то или другими сервисами, или там Чектрастом узнать его pagerank или ТИЦ, его там заспамленность, его траст и по этим золотым показателям, условно говоря, брали бэклинки конкурентов отсилали все самое интересное и вот мы получали ссылочный профиль для работы и по нему просто работали не напрягать. Но после обновления Панды и Пингвина, многие компании особенно на западе, бросились подчищать это портфолио отказываясь от линков, у которых резко понизился pagerank. А в России все были помешаны на ТИЦ, сейчас он называется ИКС. Ссылка с большим ТИЦ это круто и поэтому надо выбирать все ссылочки с высоким Тиц и на них только и смотреть. Но после этого малина уже давно закончилось и с недавних пор, как вот сейчас, сеошники работают практически без каких-либо абсолютных показателей по факту. Нет уже этих волшебных показателей, которые позволяют отличить хорошего донора от плохого донора. Теперь, чтобы оценить хорошего донора, нужно оценивать полностью в комплексе икс факторы. Это посещаемость, заспамленость, социальные показатели и большую часть работ действительно приходится делать практически вручную, особенно, изучать донора ручками, перед тем как на нём разместиться. Поэтому о массовом размещении ссылок через доноры уже можно забыть. Давайте пройдемся вообще что такое-то донор. Это ресурс, на котором размещается внешняя ссылка, которая передает весь свой вес вашему сайту, который мы называем акцептором. От наличия донора зависит позиции сайта акцептора. По этой причине все оптимизации, способ продвижения при помощи размещения внешних ссылок, до сих пор считается самым ценным. Я на этом уже остановливался в предыдущих подкастах. Ну и собственно, очень важно определять сайты доноры, чтоб у них была высокая репутация в поисковых системах. Построение ссылочного профиля, на котором размещается ссылка состоит из трех этапов. Поиск сайта донора, где разместится ссылка, заключить договор с владельцем сайта, либо напрямую списаться с ним, либо через биржу, если он работает через биржу, например miralinks. И также разместить ссылку на сайте донора в каком-либо контенте. Либо контент создаст сам донор, либо вы ему его пришлёте, либо ссылка будет размещена в уже размещеном в контенте. То есть очень важно выбирать качественные доноры, иначе можно попасть под фильтры и результаты работы спустить в трубу. Как отбирать доноры. Мы изучили несколько СМИ. В первую очередь, на что нужно обращать внимание это тематика сайтов доноров. Тематика должна напрямую или косвенно быть связана с вашей нишей. Вот это очень важно. Напрямую - это значит вы, если занимаетесь продажей кросовок, то находите сайты, которые занимаются обувью или сайты, которые занимаются спортивной одеждой и размещайте на них ссылку. Это называется рямые по тематике сайты. Косвенные по тематике связь, это менее очевидная связь, например, когда вы пишете блог о здоровом питании, то ссылайтесь на спортивные мероприятия, и упоминаете кроссовки. Формально уже далекие друг от друга сайты, но ссылка может быть вполне себе косвенной. Второй вариант примера косвенных доноров, это когда вы создаете страницу, которая имеет внутри вашего сайта, косвенную тематичность. Например, вы на сайте по продаже кроссовок, запускаете социальный проект по привлечению студентов. И студенты, которые напишут зайти на ваш сайт становятся участниками этого конкурса. Второй вариант - вы можете создать страничку по поиску вакансий на вашем сайте. Допустим, вы ищете сотрудников, которые будут заниматься продажей кроссовок и у вас получились две страницы, которые косвенно связаны с вашим сайтом. Но для этих страниц вполне себе можно найти прямых донооров. Для первой страницы это будут сайты ВУЗов, на которых вы разместите эту программу, а для сайта вакансий это сайты поиска вакансий. При помощи доноров, вы сможете растм. Какие использовать параметры траста сайта донора. Раньше это был икс и pagerank из разных источников. Можно использовать попугаев. Попугаи - критерии по которым условно говоря, не понимает их Гугл, но они пользуются крупными сервисами, которые зарекомендовали себя в сео. Хорошие по оценке попугаи являются DLrating, URLrating и Ahrefs. И показатель видимости в Серпстата. Видимости, конечно же в разных вариантах pagerank поисковиков. Во вторых, для оценки донора, очень важно изучать публикуемый контент сайта, оцените публикацию, по качеству контента, насколько он хорошо ранжируется, в какой тематике публикуется контент. Выдержана ли тематика, нет ли запрещенного контента, эдалт тематики, я бы избегал такого донора. Проанализируйте структуру контента, актуальнность веб-сайта, уникальность - очень важно насколько этот контент уникален, впжно изучать давность, ведь статья может быть опубликована давно. Медиа контент, графические файлы, насколько контент визуализирован, а не просто написан. Даже новостные ресурсы чередуют графику с абзацами новостной тематики. Нет ли спама в других ссылках на казино, бесплатные фильмы, скачивание взломанных программ. Проверяйте через различные сервисы нет ли у этих сервисов каких-либо более-менее стареньких фильтров, типа АГС, мы рассматривали их в прошлом подкасте. Для этого можно использовать различные сервисы. Я бы обратил внимание на то, что качество донора можно всегда проверить, если у вас есть доступ к определенному ряду сервисов, тот же Ахрефс, как я уже сказал. Это Адвего, Текст.ру и другие. Этих сервисов вам будет достаточно, чтобы выбрать хорошего донора, проверить его и решить размещаться на нём или нет. На сегодня всё. Не забывааем подписываться на наш канал, задаём вопросы в комментариях, не забываем задавать вопросы у нас есть телеграм группа, можно задавать комментарии на YouTube канале и в нашем сообществе, прямо на чатике. В четверг в прямом эфире у нас проходят вебинары. На них мы приглашаем знаменитостей в мире сео и контекстной рекламы. Мы им задаём вопромы и вы можете сами задать вопросы в прямом эфире и на них будут даны ответы. Также мы сможем рассмотреть даже ваши сайты в прямом эфире и дать им соответствующую оценку и порекомендовать стратегии, проведя бесплатный аудит. Не забываем подписываться на нас и до новых встреч."
Вверх
Popup close
Актуальные статьи по маркетингу

Мы не будем спамить!