Технический аудит сайта: Обзор бесплатных сервисов (Чек-лист) | Урок #156

Николай Шмичков 09.02.2020 517 раз Дата обновления: 27.01.2021
1X
Длительность: 33:11

Технический аудит сайта: Обзор бесплатных сервисов (Чек-лист) | Урок #156
SEO

&nbsp
 

00:00 / 33:11
 

1X

 

В новом аудиоподкасте №156 Николай Шмичков рассказал про технический аудит сайта: обзор бесплатных сервисов (Чек-лист).

Текстовая версия выступления:

“Всем привет.

Сегодня я буду рассказывать про технический аудит сайта.

Зачем он нужен, как он проводится, на какие вещи нужно обращать внимание и это будет большой обширный чек-лист всех пунктов технического аудита.

Мы приступаем ко всем пунктам, которые нужно изучать и анализировать при техническом анализе сайта.

Первое, на что нужно обращать внимание при техническом аудите – это на домен.

В первую очередь к какой региональной привязке принадлежит домен.

Все знают, что у доменов есть так называемые зоны, которая определяет его тип сайта, например, есть известные всем домены для правительственных сайтов, для образовательных сайтов, для общественных организаций, а также есть и типичные коммерческий домены для каждой из стран.

Google, в частности, ранжирует каждый домен предусмотрительно, принимая определенный вид домена заранее.

Например, все домены ru по умолчанию ранжируются в России, все домены com.ua по умолчанию ранжируются в Украине.

Второй пункт, на что нужно обращать внимание при анализе домена – это срок его действия.

То есть, если домен вероятно будет не продлён, он возможно вылетит из хостинга, возможно пропадут позиции, поэтому мы всегда обращаем внимание до какой даты продлен домен.

Третье на что обращай внимание – это с какого времени этот домен появился в поиске.

Чем больше домен имеет возраст, тем больше это важно для Яндекса.

Поэтому возраст домена является критически важным для продвижения сайта в Яндексе.

Также мы проверяем следующее – это наличие систем веб-аналитики.

По факту существует несколько систем известных вебаналитик: это Google webmaster, Yandex webmaster, Google Аналитика и Яндекс Метрика.

Для американских сайтов и украинских сайтов Яндекс мы обычно не проверяем.

Для русскоязычных сайтов проверяем наличие всех аналитик.

Для американских сайтов мы отдельно проверяем наличие webmaster Bing.

Зачем это нужно.

Наличие в мастеров и аналитик сказывается положительно на индексации ресурса.

Более того, гораздо обширный анализ из мастеров и из аналитики можно произвести просто непосредственно прямо из этих утилит и вытащить большую часть ошибок, которую при стандартном парсинге мы не увидим.

Найти веб аналитики на сайте достаточно просто – для этого очень удобные плагины, которые используются для поиска счетчика Яндекс Метрики и Google Аналитики, а также можно попытаться найти в коде по тегу верификация наличие вебмастеров Яндекса и Google и Bing.

Это тег верификация позволяет определить, существует ли, привязан ли этот сайт какому-то веб мастеру, был привязан или нет.

Следующее, на чтобы стоит обращать внимание – это оптимизация структуры ссылок.

То есть оптимизация урла и, на что нужно обращать внимание при техническом аудите урла.

В первую очередь, это в каком формате записаны ссылки на вашем сайте.

Если все ссылки записаны в формате ЧПУ – это очень хороший знак, что ссылка содержит ключевое слово прямо в себе.

ЧПУ позволяет положительно ранжировать такие страницы в поиске, но можно и допустить даже с ЧПУ ошибки.

Что нельзя использовать в урле? В первую очередь, нельзя использовать нижнее подчёркивание, заменяйте его на дефис.

Также старайтесь избегать не аски кодов символов.

Это символы, которые не принимаются в кодировки аски.

Следующее, что нельзя использовать в ссылках – это большие буквы.

Непосредственно в самом теле ссылки все буквы должны быть строчными, избегайте прописных букв, если это возможно.

Еще одной ошибкой является наличие параметров индексируемой ссылки.

Если эта ссылка индексируется, старайтесь, чтобы параметр в ссылке отсутствовал.

Параметр – это вопросительный знак в теле ссылки, которые формируются как запрос.

То есть, если допустим вы пытаетесь найти что-то в поиске на вашем сайте или сделанную комбинацию при помощи сложных фильтров, такая страница создается при помощи запроса.

Поэтому параметр негативно влияет на ранжирование такой ссылки.

Следующий пункт технического аудита – это мультиязычность.

Мультиязычность – это возможность переключения между разными языковыми версиями на вашем сайте.

В связи с недавним изменением в Украине, мультиязычность стала обязательным параметром для украинских сайтов.

Теперь по закону Украины, каждый коммерческий сайт обязан иметь украинскую версию на своем ресурсе, иметь переведенный контент.

И здесь легко допустить ошибку, потому что мультиязычность рекомендуется реализовывать несколькими способами и некоторые способы достаточно трудоёмкие в реализации и достаточно трудоемкие в продвижении.

Мы рекомендуем метод мультиязычности, который рекомендуют Google как подпапки, который позволяет сделать папки с разными языками и перевести с легкостью контент для этих для этих языков.

Для этого используется атрибут hreflang и rel alternate для разных версий разных языков одной и той же страницы.

Следующая ошибка, которую мы изучаем – это ошибки в sitemap.

В первую очередь, sitemap должен быть в вашем robots.

Во-вторых, он должен присутствовать в корневой папке сайта.

В-третьих, к нему применяется множество требований касательно размера, типов ссылок и прописанных данных: периодичность обновления и тому подобное.

И следующее мы проверяем sitemap, сравниваем его по ошибкам в мастерах, мы проверяем sitemap в Мастере Google, какие ошибки индексации с ним вышли, проверяем sitemap вебмастере Яндекс, смотрим, а также проверяем количество страниц в индексе при помощи запроса site:url в поиске и смотрим, сколько страниц реально в индексе, а сколько в сайтмэп.

Также следует знать, что абсолютно все ссылки должны быть двухсотыми, не может быть ни одного redirect, ни одной битой ссылки и ни одной ссылки, которая является неканоничной.

Об этом дальше.

Следующий пункт, который является важным для продвижения – это региональность.

Так как я говорил, Google делает привязку региона по домену, в то время как в Яндексе и в целом можно в Гугле доказать свою региональность для конкретных городов и конкретных областей.

Как же это сделать?

В Яндекс вебмастере, региональность прописывается в разделе региональность.

Вы указываете регион, система верифицирует наличие этого региона, проверяет страничку контакты.

Вы должны сослаться на ту страничку, где указан ваш реальный адрес, затем нужно доказать свою региональность в справочнике.

У Яндекса- это Яндекс Справочник, у Гугла – это Google My Business.

Верификация же в Google мой бизнес, проходит несколькими методами, она может пройти по звонку, либо по бумажному письму.

По бумажному Вам нужно будет ждать практически 20 дней, чтобы оно пришло к вам, по звонку – доступно только для заведений, которые на находятся в крупных бизнес центрах, где с проверкой места нет никаких проблем и есть реальные данные наличия магазина, например, витрины.

В сервисе Google тогда могут вас проверить просто по звонку, иногда верификация места проходит даже и без звонка.

Если ваше место достаточно известно и к нему высокий уровень доверия.

Теперь мы переходим непосредственно к самой важной части технического аудита и здесь мы будем разбирать каждый пункт отдельно.

Здесь будет работа исключительно для вашего программиста.

Ошибки, которые мы будем выявлять, я буду говорить является насколько критичными, либо нет.

Первая ошибка, которую следует выявлять – это наличие зеркал сайта.

Проверяем ваш сайт через http Site, https Site, http www сайт, https www сайт.

Если все эти странички редиректят на одну из них, на любую одну из этих, значит никакой ошибки нет.

Если же при вводе, вы попадаете и остаетесь на одной из версий этих страниц, у вас есть проблемы с зеркалами и её нужно решать редиректом.

Конечно, это решается через ht аксесс или любыми другими методами.

Также нужно проверять и так называемого ошибку дурака.

И мы её так называемом в своих кругах.

Это берём ваш сайт и дописан Index PHP, Index HTML и смотрим происходит ли редирект на главную страницу в вашей странице.

Если же редиректа не происходит, эту ошибку тоже нужно искоренять.

Следующая ошибка – она имеет меньшее значение, называется бесконечная страница.

Если к вашему сайту можно дописать урл и redirect не происходит, значит это ошибка.

Если же остаётся у вас сайт присутствует по двум версиям, с слешем и без флеша, это считается ошибкой.

Если же вы записываете несколько слов, при этом при входе вам всё равно выдается 200 ответ, не происходит редирект, на эту страницу без слешей, то это называется бесконечная страница.

Это значит, что в индекс могут попадать все версии с одной и той же страницей, с бесконечным количеством слешей.

Следующая ошибка, которая проверяется это robots.

Файл robots.txt рекомендуемый файл для любого сайта, который требуется продвигать.

В роботс указывайте директивами те папки, которые можно проходить поисковому роботу и показывать эти папки, которые он должен пройти в обязательном порядке.

Также роботу нужно указать sitemap.

С недавних пор, известная всем директива Host, прекратила своё существование.

Теперь её прописывать не нужно и необязательно.

Если она у вас осталось прописанной, Вы можете смело убрать, чтобы не путать поисковый робот.

Также следует знать, что робот привязывается к конкретному домену сайта, то есть, если у вас сайт с разными поддоменами, для каждого поддомена идёт свой robots и это же касается и карт сайта.

Затем мы проверяем внешние ссылки на вашем сайте.

Что нужно выявить в первую очередь?

Ссылки, которые исходят из вас не должны быть битыми.

Однозначно все битые ссылки следует заменить.

Во-вторых, если ссылка отдаёт 301 redirect, лучше пересмотреть их и изменить их на 200, сделав их более актуальными.

Ну и в-третьих, для сквозных ссылок, тех самых ссылок, которые присутствуют на каждой странице, постарайтесь закрыть эти ссылки тегом nofollow.

Значит эти ссылки передают вес каждой из страниц и это может навлечь на вас фильтр.

Если же у вас сложный многостраничный сайт, для выявления внешних ссылок конечно поможет Yandex webmaster, либо Google webmaster и при помощи соответствующего отчета можно вытащить все домены и все урлы, с которых вы ссылаетесь.

Ну удобнее всего с этой задачей, конечно, справляется screaming Frog, либо НетПикСпайдер.

Они позволяют просканировать все страницы вашего сайта и выложить все внешние урлы на всех страницах, которые они увидят.

Затем эти ссылки следует изучить, посмотреть, на кого вы ссылаетесь, их тематичность и разобраться нужны Вам эти ссылки или нет.

Если у вас ресурс имеет сотни тысяч страниц, такой анализ очень важен для того, чтобы определить ненужные страницы и закрыть эти внешние ссылки тегом nofollow, если они не являются нетематическими.

Затем следует обратить внимание на внутренние ссылки.

В первую очередь, следует знать, что обычно внутри тегом nofollow закрывают только те ссылки, которые закрыты от индексации.

То есть, если у вас идёт ссылочка на личный кабинет, на корзину, в таком случае ссылочка закрывается тегом nofollow.

Во всех остальных случаях, внутренние ссылки должны передавать вес на все остальные страницы.

Это касается страниц каталогов, внутренние ссылки блога и тому подобное.

То есть, если ссылочка у вас передается на раздел, который у вас естьв индексе, она должна быть индексируемой.

Это можно тоже проверить непосредственно утилитой screaming Frog.

Затем мы обращаем внимание всегда на сайты старой закалки – это которые создавались при помощи сложной семантики с множеством уровней.

В итоге создавали сайт с огромным количеством страниц, которые являлись вложенными друг в друга.

Все знаем, что вложенность – это тоже критичный параметр и для прохода от главной страницы до вашей страницы, обычно проходов должно быть минимально немного.

Если есть страницы, до которых нужно проходить до 5 – 6 проходов, это может сказаться негативно на ранжирование.

Как проверить количество проходов, есть соответствующий раздел в screaming Frog, который позволяет проверить количество проходов от главной.

Если вы видите такого рода картинку, значит у вас проблемы для сайтов, которые имеют огромное количество контента с высоким уровнем вложенности, существует понятие хлебных крошек, при помощи которых, можно вернуться на предыдущий уровень страницы.

Это позволяет легко улучшить навигацию, поисковые роботы относятся положительно к хлебным крошкам, их так и называют.

Эти хлебные крошки для индексации они должны быть открыты для индексации и на них должна ставиться соответствующая микроразметка – микроразметка схема breadcrumb. Позволяет положительно анализировать хлебные крошки на вашем сайте.

Обычно сайты, которые содержат большое количество товара имеют так называемые разделы.

Это называется pagination, даже в Гугле есть pagination – это страница 2, страница 3, страница 4.

Так вот к пагинации тоже применяются свои требования.

Во-первых, все страницы пагинации 2-3-4 и так до конца, должны иметь тег rel Canonical, который ведет на страницу, которая не имеет таким образом вот этих страниц 1234.

Более того, страница Page 1 тоже должна иметь тег Canonical, которая ведет на страницу без этого пейдж 1, является корневой страницей этого каталога.

И в-третьих, все страницы, которые являются пагинацией, они должны быть индексируемыми.

Не нужно закрывать страницы пагинации от индексации, наличие тега Canonical позволяет положительно относиться к поведению пользователей на индексируемой странице, но при этом, в сайте в индекс не попадают страницы, являющиеся вот этими страницами 1234, являющиеся дублями существующей страницы каталога.

В итоге, в поиске находится только одна страница каталога – вверх.

Следующая ошибка, которая возникает – это ошибка самих тегов Canonical.

В первую очередь теги Canonical должны вести на те страницы, которые являются идентичными дублями.

Ни в коем случае нельзя делать тегом Canonical с одной страницы на другую, контент которых отличается.

Во-вторых, запрещено делать так называемые циклические Canonical, когда страница А ведет на страницу Б в Canonical, а страница Б ведет на страницу А.

Это запрещено.

В-третьих, нельзя делать так, чтобы страница имела 2 каноникала.

Все эти ошибки можно легко выявить screaming Frog SEO Spider.

Нормальным считается, когда индексируемая страничка в теге Canonical может прописана быть сама на себя.

По поводу пагинации я уже вам говорил требования к страничкам Canonical.

Нельзя, чтобы страничка Canonical ссылалась на неиндексируемый контент и самое важное, чтобы странички, которые являются неканоническими, не присутствовали в карте сайта.

Следует перейти непосредственно к страницам, на которых присутствуют ошибки, дать список этих страниц программистам, расписать, какие ошибки встречаются на каких страницах и попросить их исправить.

Какие же нужно исправлять в первую очередь?

Это битые ссылки, которые отдают 404 ответ, 403 ответ и 500 ответ.

Такие страницы можно выявить при помощи так называемых скраперов Screaming Frog, Нетпик Спайдер, Веб Сайт Аудит – все эти сервисы хорошо позволяют находить битые ссылки.

Находить их и передавать целыми списками в Excel в формате, затем нужно проверить вашу 404 страницу, отдаёт ли она 404 ответ, иногда делают страницы с 404, но они отдают так называемый 301 ответ, либо вообще 200.

Это является неправильным.

Затем мы всегда проверяем все страницы на предмет валидации.

Валидацию проводим по CSS и HTML, выписываем списки урлов и какое количество ошибок найдено.

Обычно для этих целей используется валидатор v3c орг, и по этим ссылкам можно всё проверить, если зайти по этим сервисам забить каждую страничку, посмотреть какие в html присутствуют ошибки.

Следующий пункт, который нужно изучить – это скорость загрузки контента вашего сайта.

Для этих целей используйте в первую очередь это Page Speed insights от Google, в которой можно посмотреть все ошибки существующей страницы.

Во-вторых, это отдельно сервис lighthouse, который присутствует в Хроме, сейчас он влился полностью в Page Speed, правда в более урезанном варианте.

В то время как lighthouse позволяет более тщательно проверить страницу с разным user-agent.

И в-третьих, это классный сервис JTmetrics, которым можно посмотреть, как работает сайт по Page Speed и по сервису, который уже недоступен, это сервис YouSlow.

Раньше я ним активно пользовался.

И ещё есть один сервис это ToolSpeedDom.com, в котором можно проверить скорость загрузки и очередность загрузки каждой страницы.

Я считаю, что этот сервис очень полезен непосредственно программистам для выявления таких слабых мест в каждой странице.

Ведь иногда может оказаться, что сжимая картинки, выигрываете 2%, но иногда всё решает твой хостинг, который даёт безумно долгий ответ.

Затем нужно обратить внимание на https протокола, так называемый SSL сертификат сайта.

В зависимости от типа, сайт является мультидоменным или однодоменным.

Интернет-магазинам, финансовым сайтам, нужно выбирать разные сертификаты.

Производителей существует много, самый известный это Comodo, тот самый, у которого есть антивирус.

Непосредственно у него выбор сертификатов достаточно огромен.

Цель сертификата – защитить ваш сайт от подделки, а данные кражи и с этим сертификаты должны и справляться сейчас в интернете.

При выборе сертификата, мы проверяем в первую очередь на соответствие типа установленного сертификата с типом сайта.

Во-вторых, мы проверяем срок его изготовления. Обычно, если он практически заканчивается, мы рекомендуем его заменить заранее до того, как он отвалится.

Потому что, если сертификат отвалится, страницы сайта будут недоступны.

Затем рекомендую проводить сресс-тест хостинга.

Проводите так называемые массированные запросы на ваш ресурс и проверяйте, какую нагрузку он может выдержать.

Зачем это нужно?

Если ваш сайт не справляется с пиковой нагрузкой более 50 запросов пользователей в данный момент, на Новый год у вас будут с сайтом серьёзные проблемы.

То есть, если сайт грузится долго, при этом, если на него подрастет пиковая нагрузка, некоторые пользователи не будут видеть контент, и таким образом, это скажется негативно на продвижении вашего ресурса.

Ну и, конечно же, мобильная версия.

Нужно проверять наличие мобильной версии, скорость загрузки, качество отображения.

Для этого существует много сервисов, мы как минимум перечислим несколько из них.

В первую очередь, это стандартный сервис проверки мобильной версии от Google.

Второй – это сервис, который проверяет мобильную версию Test My Site with Google, который проверяет нагрузку при 3G сетях и так называемый lighthouse, который я уже перечислял.

В lighthouse возможно тоже посмотреть, как выглядят ваша мобильная версия.

Ну и конечно же, в Chrome, если нажать Shift Control І и выбрать Mobile, выбрать отдельное устройство, можно посмотреть, как ваш сайт выглядит на мобильном устройстве.

Если же ко мне на продвижение приходит интернет-магазин, я всегда стараюсь проверить есть ли ли он в Яндекс Маркете или в Гугл Мерчант, добавлены ли все товары в эти сервисы.

Наличие сайта в этих сервисах положительно сказывается на ранжировании и обычно, если у сайта нет никаких технических проблем по интеграции своего магазина в эти сервисы, обычно он более легко продвигается.

Для сайтов, которые делают постоянно новости, очень важно ранжироваться именно по новостям.

К новостям же, все знают, особые требования.

Они должны быть свежими, они должны часто публиковаться и к ним есть технические требования.

У вас должен быть соответствующий rss фильтр, который должен быть интегрирован в Яндекс Новости, в Google Новости и в его все известные другие агрегаторы новостей.

При попытке добавить свой сайт в соответствующие разделы, вам сразу поисковики скажут свои требования.

Как правильно добавить свой сайт, затем нужно перейти к проблемам индексации, здесь могут быть самые глубокие проблемы и без вебмастеров их просто не выявить.

В первую очередь проверьте, сколько реально страниц в индексе находится в вашем ресурсе.

Во-вторых, сравните это с количеством страниц в sitemap и примите меры по ошибкам индексации, непосредственно в вебмастерах, вы можете увидеть там все причины, все ошибки, которые мешают вашим страницам индексироваться.

Следующее, что нужно конечно же проверить – это является ли ваш сайт под фильтром.

В Яндексе это увидеть очень просто – наличие сообщений о фильтрах прямо в главной странице webmaster своего сайта.

В Гугле же это спрятано вот здесь и, если Вы получили какие-то штрафы от Гугла, вы увидите там соответствующие сообщения.

Но Google вам не скажет, если он применил к вам так называемый младший, малый апдейт.

И здесь единственный способ выявить наличие фильтра – это резкое падение вашего сайта в индексе.

Если видите, что резко упало количество страниц, резко упали позиции вашего сайта, резко упали показы вашего ресурса без видимых технических причин, например, упали только в Гугле, но в Яндексе ничего не менялось, однозначно вы схватили какой-то фильтр.

И здесь нужно копать, ведь фильтр может быть разный.

Если с вашим сайтом случилось что-то похожее, после просмотра этого видео, и вы заметили такого рода ошибку, напишите мне в комментарии – я постараюсь выяснить причину, какой фильтр на вас попал.

Ну и последнее, что может быть – это так называемое наличие сайтов аффилиатов.

Сайты аффилиаты – это не стандартная ошибка, которая возникает иногда по незнанию владельцев сайтов.

Часто они бывает, имея свой собственный корпоративный сайт, создают лендинг и на лендинги делают те же телефоны, ту же почту, те же адреса, которые есть на основном сайте.

В итоге, в индексе находятся оба сайта и, если на этот сайт новый начинают попадать старые ссылки, может резко потерять позиции.

Потому что его давно не обновляют, на него давно не ссылаются, поисковик увидел новый ресурс, увидел, что на него появились какие-то внешние ссылки и он может выбросить ваш многостраничный старый ресурс и, в итоге, вывести в индекс только ваш одностраничник.

Таким образом, вы потеряете в СЕО просто всё.

Как быть?

В первую очередь, нужно проверить не существует ли таких дублей сайтов в интернете на вас, а во-вторых, нужно убедиться в том, что все данные принадлежат вам.

Верифицируйте свой сайт в ВебМастере и проверьте наличие аффилиатов в интернете.

Все последующие аффилиаты даже если будут создаваться, они никак не повлияют на ваш продвигаемый ресурс.

Следующий раздел технического аудита нужно проводить вместе с копирайтером, контент-менеджером и программистом.

Если у вас это делается на ваши многостраничнике программно.

Что в первую очередь нужно исправлять?

Это сам контент.

Проверьте наличие дублей вашего контента, для этого есть несколько сервисов, при помощи него можно проверить пословарное совпадение вашего контента на ресурсе.

Да, это не точно, он может просто проверить какие-то блоки.

Но, если у вас есть огромное повторение целых страниц, значит у вас проблемы в контенте.

Нужно его переписать.

Во-вторых, нужно проанализировать Ваши заголовки.

Мы создали утилиту для описания качественных заголовков – калькулятор title.

Но при создании тайтлов, нужно не допускать типичных ошибок, в первую очередь, тайтл не должен быть определенной длины.

Это считается 65 символов норма, но мы рекомендуем 60.

Во-вторых, тайтл должен не повторятся c h1 и быть уникальным.

В-третьих, тайтлы не должны повторяться на вашем сайте априори.

То есть все тайтлы должны быть тоже уникальными.

Тайтл, в первую очередь мы рекомендуем делать уникальными для всех индексируемых страниц.

На неиндексируемые страницы тайтлы можно делать какие угодно, также старайтесь избегать, чтобы на ваших страницах тайтлы не отсутствовали вообще – это является критичной ошибкой и при перепосте этих страниц в социальных сетях у вас будут определенные проблемы.

Следующий важный тег – это дескрипшн.

Как показала практика, отсутствие дискрипшн никак не влияет на продвижение ресурса, но его наличие оказывает всё равно небольшое, но положительное влияние, в частности, для интернет-магазинов при помощи определенных тегов, которые запрещают замену дескрипшн в поисковой выдаче.

Можно сделать так, чтобы он всегда отображался.

В него можно прописать УТП ваших страниц.

В первую очередь он должен быть уникальным, либо его не должно быть вообще, либо он должен быть уникальным для каждой страницы.

То есть, таким образом подчеркивать, что дескрипшн помогает поисковой системе понять о чём страница.

Во-вторых, никогда не делайте дескрипшном копии вступления в вашей странице.

Постарайтесь написать реальную выжимку, не больше чем 140-150 символов про ваш сайт, много старайтесь не писать, потому что иначе он будет в любом случае, обрезаться.

Следующее, что проверяем – это заголовок H1.

Наличие H1 у тех страниц сайта является обязательным параметром, но при этом Джон Мюллер сказал, что заголовков H1 может быть сколько угодно, но первый H1 должен соответствовать главному ключевому запросу в вашей странице, поэтому старайтесь сделать так, чтобы H1 не совпадал с тайтлом.

Во-вторых, он был не длиннее 70 символов и, в-третьих, чтобы H1 не являлся дублем другого H1.

Проверить массово все заголовки и описание h1 можно при помощи утилиты screaming Frog SEO Spider, либо того же Нетпик Спайдер – какой вам больше нравится.

Затем следует перейти к анализу изображений.

В первую очередь, старайтесь сделать так, чтобы все они не превышали 100 килобайт, которые попадают в индекс.

Во-вторых, чтобы все изображения на вашем сайте имели тег Alt.

Ну и старайтесь сделать так, чтобы тег был уникальным для каждой картинки на вашем ресурсе.

И завершающий блок, который нужно будет исправлять, чаще всего исправляется либо в cms вашего сайта, либо вручную вашим программистом.

Но требует тщательного контроля от вас, как от владельца сайта.

В первую очередь это интеграция сайта с поисковыми системами.

С поисковой системой сайт хорошо интегрируется при помощи микроразметки схема орг.

Если же у вас сайт стоит на нормальной известный cms, например, WordPress или opencart или даже Джумла, разметка ставится схема орг для каждой из страниц разная.

Например, для сайта локального бизнеса на главной странице ставится микроразметка Local Business, для интернет-магазина можно поставить веб-сайт, либо Corporation для корпоративных сайтов, действующих на всю страну и если же у вас в школа или университет, Вы можете поставить Organization.

Микроразметка, которая не требует никаких ввода коммерческих данных.

Для страниц блога незаменима микроразметка article, для раздела вопрос-ответ есть соответствующая микроразметка question-answear и для хлебных крошек, я говорил, breadcrumb. Документация там довольно сложная, программисту будет полезно.

Новостные сайты ставят в отличие от article – News article, совсем другую микроразметку с совсем другими особенностями.

Микроразметка позволяет вашей выдачи выводить элементы именно так, например, для страницы продукта ставится соответствующая микроразметка и позволяет увидеть отзывы, цены и наличие товара прямо в поисковой выдаче.

Кликабельность в таком случае повышается в разы.

Затем мы проверяем наличие разметки опенграф – это микроразметка используется в Фейсбуке.

Как оказалось, и в других социальных сетях.

При окне перепоста, ваша страничка может выглядеть симпатично, либо нет.

Это зависит от правильности, прописанной Open graph.

В нормальных cms эта микроразметка ставится по умолчанию и для всех тем контента прописано сразу.

Если же у вас сайт конструкторный или самописный, вы писали сами, либо собирали уже изготовленный, поменяли полностью, либо сами писали микроразметку, требуется установить и микроразметку.

Она позволяет превратить окно репостов в симпатичное продаваемое окошечко, где будет выписан весь контент, правильно подтягиваться описание и правильно подтягиваться изображение.

Даже у нас практически несколько месяцев была ошибка, связанная с репостом страницы, у нас неправильно подтягивалось изображение и мы это заметили не сразу.

Когда правили наш ресурс, заметили, что одна из наших главных страниц, на которых были услуги фактически не имела никакого изображения вообще.

Затем следует внимание обратить на социальные кнопки и виджеты на сайте.

Самая ошибка – это наличие кнопки Google Plus.

Связано с тем, что все ставили один и тот же плагин устаревший уже больше чем на год.

Система Google Plus прекратила существование и теперь все ссылки Google Plus отдают четыреста четвёртую страницу.

Мы рекомендуем обновить ваши плагины по соцсетям, которые сделают репост, например, в статьях, и убрать ненужный элемент.

Также следует обратить внимание на наличие вообще соцсетей на вашем сайте.

В первую очередь ссылки на соцсети должны быть ноу Follow, рабочие, вывести на ваши официальные соцсети, не на страничку профиля, а на страничку вашего бизнеса для Facebook, для ВКонтакте и на бизнес профиль Инстаграм.

Последнее, что должно быть на вашем сайте это симпатичный фавикон, который является размером 16 на 16 вашего логотипа.

Фактически – это ваш логотип, сжатый до размера 16 на 16 в формате ico, с прозрачным фоном.

Проверить свой favicon, либо создать favicon можно в очень удобном сервисе, он очень удобен.

Если же у вас favicon не отображается корректно, рекомендую его заменить.

Вот и короткий гайд по техническому аудиту ресурсов.

Какие ошибки ищите вы первую очередь, на что вы обращаете внимание, какими утилитами пользуетесь, какие вы считаете утилиты хорошие, а какие плохие.

Напишите мне в комментарии.

Я постараюсь дать экспертное мнение каждому вопросу и расскажу возможно какие-то лайфхаки, которые делаю сам.”

Popup close
Актуальные статьи по маркетингу


Чаще используешь Facebook?

наверх