box2
Анатолий Улитовский 785 просмотров 10 комментариев Поделиться:

Как автоматизировать множество ручных SEO процессов с помощью Scrapebox

Сегодня хочу поделиться с Вами полезной программой Scrapebox.

Этот софт помогает автоматизировать множество процессов.

Здесь собрано большое количество SEO инструментов, которые автоматизируют ручной труд.

В основном этот софт используют для черных методов продвижения сайтов, но в нем также много полезных функций для белых методов.

Итак давайте разберем вопросы, на которые отвечает программа Scrapebox.

  • — Как собирать большое количество данных: семантическое ядро (поисковые подсказки и ключи), список сайтов для комментариев, гостевого постинга?
  • — Как покупать дроп-домены (сайты, которые не продлили регистрацию)?
  • — Как анализировать бэклинки (внешние и внутренние ссылки)?
  • — Как оставлять тематические комментарии?
  • — Как автоматизировать множество ручных процессов?

Изучаем все шаг за шагом.

СОДЕРЖАНИЕ

1. ПОКУПКА SCRAPEBOX СО СКИДКОЙ 30%

2. УСТАНОВКА ПРОКСИ (БЕСПЛАТНЫХ И ПЛАТНЫХ)

3. ПРОВЕРКА ИНДЕКСА (СПИСОК ПОИСКОВЫХ ОПЕРАТОРОВ)

4. МАССОВЫЙ СБОР ДАННЫХ

5. ПОИСК КЛЮЧЕЙ

6. ДРОП-ДОМЕНЫ

7. ПОИСК МЕСТ РАЗМЕЩЕНИЯ КОММЕНТАРИЕВ

8. ГОСТЕВОЙ ПОСТИНГ

9. МАССОВОЕ РАСПРОСТРАНЕНИЕ КОММЕНТАРИЕВ

10. ДОПОЛНИТЕЛЬНЫЕ ВОЗМОЖНОСТИ

11. ПРЕМИУМ-АККАУНТЫ

ВЫВОД

1. ПОКУПКА SCRAPEBOX СО СКИДКОЙ 30%

Scrapebox — платная программа, стоимость которой составляет $67, если Вы используете URL — http://www.scrapebox.com/BHW (скидка для пользователей форума Black Hat World).

После перехода скрольте вниз, пока не найдете следующий модуль.

price-scrapebox

После оплаты Вам предлагают скачать версию для Windows 32, 64 или Макбука.

variant-of-scrapebox

При первом запуске программы нужно ввести код покупки (id transaction), Ваш e-mail, ФИО.

Активация софта занимает до 12 часов, поэтому пока отложите работу с ней в сторону.

activation-of-scrapebox

После того как дождались авторизации, переходите к следующим пунктам.

2. УСТАНОВКА ПРОКСИ (БЕСПЛАТНЫХ И ПЛАТНЫХ)

Ваша цель сбора данных из поисковиков.

Множество автоматизированных запросов с одного IP будут заблокированы.

Поэтому использование прокси-данных обязательно для ускорения процесса работы.

proxy-scrapebox

Прокси бывают двух видов: купленные и бесплатные.

С бесплатными, как правило, много проблем — они могут работать, могут не работать 🙂

Ваши прокси могут требовать логин и пароль, а бывает достаточно IP и Port.

Формула для логина с паролем Формула без логина и пароля
IP:Port:Username:Password IP:Port

Для теста попробуем изначально поработать с бесплатными американскими прокси.

free-us-proxy

Я выкачал список из 450 прокси и вставил их в Scrapebox.

Для этого нажимаем на кнопку “Manage” в нижнем левом углу программы.

manage

В открывшемся окне кликаем “Load Proxies”, затем “Load from Files”.

load-from-file

Добавил файл с простой текстовой формой, где сохранил свой список прокси.

Дополнительная классная функция в Scrapebox дает возможность протестировать работоспособность прокси.

Для этого кликаем “Test Proxies” и проверяем результаты прямо в этом окне.

test-proxies

Большое количество нерабочих прокси убираем с помощью функции “Filter”, затем “Keep Proxies which passed the Google / Custom Test”, оставляем только живые.

google-pass

После этого список нужно обязательно сохранить, для этого кликайте “Save proxies” и “Save all to the ScrapeBox Proxy List”.

save-all-to-Scrapebox-proxy-list

В результате из 450 тестируемых бесплатных прокси рабочими оказались только 5, которые Гугл быстро забанил.

Все-таки лучше купить частные прокси. Цены на рынке на них от 5$, что не так дорого.

3. ПРОВЕРКА ИНДЕКСА (СПИСОК ПОИСКОВЫХ ОПЕРАТОРОВ)

 
Не все страницы и не весь контент на них индексируются поисковыми машинами.

Как правило, они выбирают только тот, который несет пользу для интернет-пользователей.

Всю эту информацию можно найти в поисковиках.

Не проиндексированный или забаненный контент невозможно отыскать через поиск.

Смысла размещать ссылки в таком контенте нет для получения поисковых позиций, если конечно Вы не создаете новый.

Scrapebox выполняет хорошо эту работу, для поиска проиндексированного контента.

Для поиска необходимо использовать операторы поиска в Гугле.

Лучше потратьте время на изучение вариантов поиска, что сэкономит время в будущем.

Много поисковых вариантов мы добавили в калькулятор поиска каталогов, форумов, комментариев, гостевых постов.

Для поиска мест размещения достаточно ввести ключевое слово, выбрать язык и кликнуть “ИСКАТЬ”.

calculator-blog

Давайте рассмотрим самые популярные операторы поиска в Гугл (множество других поисковых операторов для Яндекса и Гугла проверяйте тут).

Оператор Для чего его использовать
allinanchor: Эта комбинация позволяет искать страницы, содержащие анкоры с заданным текстом. Например:

allinanchor: продвижение сайта

Вы получите в результатах поиска только те страницы, у которых есть активная гиперссылка с текстовым анкором, включающим следующие слова: “продвижение” + “сайт”.

Причем ссылка может быть внешняя и внутренняя. Текст иногда используется с другими окончаниями или словами: продвижение сайтов, поисковое продвижение сайтов.

Примечание. Анкор — это текст ссылки. Она бывает двух видов: безанкорной и анкорной.

inanchor: В данной комбинации можно использовать слова, которые встречаются в контенте + поиск с заданным анкором.

инструменты inanchor:семантическое ядро (не ставьте пробел между “:” и поисковой фразой)

В результатах получим страницы, которые включают слово “инструменты” и анкор “семантическое ядро”.

allintext: С помощью этой формулы отсекаются страницы, не содержащие указанных слов.

allintext: трафиковое продвижение сайтов

В результатах поиска будут страницы, в которых есть слова: “трафик” + “продвижение” + “сайт”.

intext: Оператор позволяет найти заданные комбинации в тексте на странице и определенные слова, которые могут быть упоминаться где-либо на странице.

бесплатно ссылки intext:трафиковое продвижение сайтов (не ставьте пробел между “:” и поисковой фразой)

Получаем результаты, которые содержат слова: “бесплатно”, “ссылки”, “трафиковое”, “продвижение”, “сайтов”.

Комбинации равны между собой:

allintext: трафиковое продвижение = intext:трафиковое intext:продвижение.

allintitle: Данный оператор показывает сайты, у которых в title (основной метатег — заглавие страницы) присутствуют заданные слова.

allintitle: купить лабутены в Москве

В результатах поиска будут только сайты с такими словами в title: “купить” + “лабутены” + “в” + “Москва”.

Причем заданные комбинации также работают в поиске по картинкам, Гугл новостям.

insubject:
или эквивалент
intitle:
Комбинации “insubject:” и его эквивалент “intitle:” позволяют ограничить выдачу по заданным словам в title.

Перед самой комбинацией можно использовать слова, которые Вы хотите получить в контенте.

осенние insubject:»зеленые платья» (не ставьте пробел между “:” и поисковой фразой)

осенние intitle:»зеленые платья» (не ставьте пробел между “:” и поисковой фразой)

В результате получаете слова в тайтле: “зеленый” + “платья”, в контенте слово “осенний”.

Комбинации равны между собой:

allintitle: купить лабутены = intitle:купить intitle:лабутены

allinurl: С помощью этой комбинации можно получить сайты, в URL (адрес страницы) которых включены указанные слова.

Основная масса страниц на английском языке, поэтому лучше всего использовать англоязычные слова или транскрипцию.

allinurl: weight loss reviews

В результатах получаем страницы, в URL которых есть слова: “weight” + “loss” + “reviews”.

inurl: Данный оператор дает возможность искать определенное слово в URL и другие слова где-либо в контенте.

inurl:weight loss reviews (не ставьте пробел между “:” и поисковой фразой)

В Вашем URL обязательно должно быть слово “weight”, слова “loss” и “reviews” где-либо в контенте.

Комбинации равны между собой:

allinurl: weight loss reviews = inurl:weight inurl:loss inurl:reviews

cache: Этот оператор позволяет проверить, как запомнил заданную страницу Вашего сайта Гугл.

cache:https://seoquick.com.ua/seo-full-guide/ (не делайте пробел между “:” и URL)

В результатах Вы получите дату и время последней проиндексации.

Если Вы обновили контент, лучше закиньте его в адурилку, чтобы поисковик обновил кэш-версию.

define: Поиск определений заданных слов.

define: seo

В результатах — получение страниц сайтов, которые рассказывают про SEO.

filetype: Данный оператор позволяет отбирать проиндексированные документы: pdf, doc.

К примеру, Вы хотите прочитать pdf-файл о Тайланде.

тайланд filetype:pdf

В результатах поиска получите только проиндексированные pdf с информацией о Тайланде.

info: Поиск по четко заданному URL или домену.

info:https://seoquick.com.ua/utilities/ (не используйте пробелов между “:” и URL)

Выдача покажет только ту страницу, которую вы задали в поиске.

link: Данная функция позволяет найти сайты, которые ссылаются на заданный ресурс.

link:seoquick.com.ua (не используйте пробелов между “:” и доменом)

Если Вы хотите в результатах поиска убрать свой сайт, оставить только другие, используйте следующую комбинацию:

link:seoquick.com.ua -site:seoquick.com.ua (не используйте пробелов между “:” и доменом)

location: Поиск по заданному региону ограничивает показ сайтов, не представленных в нем.

ремонт холодильников location:москва (не используйте пробелов между “:” и URL)

По данному запросу слова “ремонт” + “холодильников” будут искаться на страницах, которые предоставляют услуги для Москвы.

movie: Данный запрос ограничивает результаты фильмами.

movie:сталинград (не используйте пробелов между “:” и URL)

То есть результаты поиска будут соответствовать фильмам про Сталинград.

related: Показывает сайты, похожие на заданный URL.

related:devaka.ru (не используйте пробелов между “:” и URL)

В результатах получите много других блогов о SEO.

site: Это довольно-таки известный поисковый оператор, который позволяет проверить проиндексированные страницы.

site:seoquick.com.ua (не используйте пробелов между “:” и URL)

В результатах поиска увидим страницы сайта, которые проиндексировались.

Также используйте в других комбинациях. К примеру, Вам надо найти медицинские страницы с доменом .edu

медицина site:edu

В результатах получаем страницы о медицине с доменом .edu

source: Работает для поиска в Гугл новостях. Ограничивает показы только по одному ресурсу.

выборы source:lenta.ru (не используйте пробелов между “:” и URL)

В результатах получите только страницы lenta.ru

С помощью данных операторов Вы существенно сэкономите время на поиск проиндексированной информации.

4. МАССОВЫЙ СБОР ДАННЫХ

 
Для массового сбора данных Вам придется оставить Scrapebox включенным на несколько дней.

При этом программа будет забирать часть интернет-трафика, загружать процессор и оперативную память.

Некоторые устанавливают программу на VPS (Virtual Private Server или другом компьютере).

Возможностей по установке VPS в интернете много — от 8 долларов в месяц за 20 ГБ жесткого диска и 512 ОЗУ.

Если же Вы решили установить на своем компьютере, желательно иметь мощную оперативную память.

Тогда Вы сможете параллельно выполнять другую работу.

Какие параметры важны для массового сбора данных:

  • — количество прокси;
  • — качество прокси (частные или публичные);
  • — скорость прокси;
  • — количество подключений;
  • — количество запросов;
  • — задержки между каждым запросом.

Программа по умолчанию регулирует стандартные настройки.

Если Вам важно проверить в поиске большое количество разных ключей, используйте много прокси, желательно платных.

Вставлять ключи необходимо в соответствующее поле с операторами от поисковиков (смотри п.3).

К примеру, нам надо собрать информацию по ключам “nutrisystem”, “nutrisystem review”.

Для поиска выбирайте функцию “Custom Footprint” и “Start Harvesting”.

Custom_Footprint

Убедитесь, что прокси используются.

searching

Софт спросит Вас, по каким поисковым системам.

Results (результаты) показывают, как глубоко нужно искать сайты по запросам.

Стандартно стоит 1000, это ТОП-100 сайтов.

Если по Вашей тематике много мусора, уменьшите это количество.

После запуска выбрал для примера Гугл, самое интересное Яндекса — нет, зато есть Rambler.

detailed-harvester

В результате получаем список страниц сайтов, которые используют данные ключи.

remove-filter

С помощью Remove / Filter можно удалить дубли URL.

Некоторые удаляют и дубли доменов, все зависит от Ваших целей.

По запросу “nutrisystem reviews” более 175К запросов.

nutrisystem-reviews

Чтобы урезать всякий мусор, нужно использовать стоп-слова, такие как “there”.

nutrisystem-reviews-stop-words

Если же Вы закинули огромный список ключей, лучше всего оставить включенным компьютер на ночь.

Также Вы можете оставить процесс и вытащить существующие результаты.

Scrapebox за одну сессию, время в течении которого программа открыта, сохраняет не более 1 млн URL.

Чтобы урезать бесполезные URL, используйте бесплатное приложение Duperemove.

Оно может разбить файлы на несколько частей, к примеру, по 100К URL.

Установить просто: зайдите в Addons (верхняя часть меню) и нажмите “Установить все приложения”.

ADDONS

Другие фильтры:

  • — разбить по одинаковым доменам,
  • — минус-слова,
  • — обязательное использование слов,
  • — длина URL,
  • — удаление субдоменов.

other-filters

Вроде все по функциям массового сбора данных, теперь переходим к поиску ключей.

5. ПОИСК КЛЮЧЕЙ

 
Все, вступление закончилось, переходим от скучной настройки к действительно полезной информации.

Поиск ключей можно разбить на 2 категории: сбор поисковых подсказок и точные результаты.

5.1. ПОИСКОВЫЕ ПОДСКАЗКИ

С помощью Scrapebox можно генерировать до 1000 поисковых подсказок, которые подходят под Ваше ключевое слово.

Для этого выбираем “Scrape” и переходим на “Keyword scraper”.

suggestions

Вводите Ваши ключи, которые необходимо проверить, выбираете поисковую систему и нажимаете “Start”.

settings-suggestions

Вы также можете удалить в программе выбранные полученные результаты.

correction-of-list-suggestions

Еще одно полезное действие: закинуть выбранные ключи с помощью “Transfer Results to Left Side” для первичного списка.

Потом повторно искать полученные результаты.

5.2. ТОЧНЫЕ ЗАПРОСЫ

Для подбора точных запросов необходимо использовать “Addons” и выбрать “ScrapeBox Google Competition Finder”.

addons-google-exact-match

Следующий шаг — выбрать, откуда импортировать ключи: Вам нужен “Exact” формат.

import-keywords

Я проверял 2 ключа и получил такие результаты.

exact-weight-loss-results

Если результатов нет, скорей всего Гугл забанил Ваши прокси или IP.

503-errors

Результаты можно собрать в excel, txt или перекинуть в основное окно Scrapebox.

6. ДРОП-ДОМЕНЫ

 
Создание сайтов с дроп-доменов — рабочая стратегия продвижения.

У этих ресурсов готовые позиции в поисковиках и даже небольшой трафик.

6.1. СОЗДАНИЕ PBN (Private Blog Networks)

Создание ссылок с PBN (сетки сателлитов) — черный метод продвижения.

У этих ссылок есть свой вес и траст, которые значительно влияют на Ваши позиции в поисковиках.

Важно не засветить свою сетку. В такой ситуации данные по ней обнуляются, ссылки перестают работать.

Чтобы не спалить сетку необходимо:

  • — использовать множество разных IP и хостингов;
  • — использовать разные темы, структуру категорий, постоянные ссылки, с www и без;
  • — изменять домены .com, .com.ua, .info, .org.ua и т.п.;
  • — использовать разные регистраторы: godaddy, imena.ua, reg.ru;
  • — делать релевантные ручные ссылки.

6.2. СОЗДАНИЕ НОВЫХ САЙТОВ

Регистрация нового домена, создание контента и получение ссылок — это длительный процесс.

Его можно ускорить, если найти уже готовый сайт с готовым контентом и классными ссылками.

Преобразовать готовый контент проще, чем создавать новый.

Если Вам посчастливилось купить классный домен, проверьте его старый контент.

Возможно его необходимо откорректировать или просто создать новый.

6.3. 301 РЕДИРЕКТ

301 редирект передает ссылочный вес и возраст продвигаемому сайту.

Его использование позволяет не восстанавливать сам сайт.

Давайте рассмотрим все шаг за шагом:

  • 1. Приобрести просроченный домен.
  • 2. Повторно запустить домен.
  • 3. Восстановить старый контент или настроить 301 редирект.

В брошенных доменах 1 из 10 достоин внимания.

Как определить качество доменов, читайте здесь.

Самое главное — у них должны быть бэклинки, параметры ahrefs качества выше 15, позиции в ТОП-100.

Для поиска классных доменов необходимо использовать расширение (addon) “TDnam Scraper”, которое работает только с Godaddy аукционами.

Следующий шаг — вставить ключи или прописывать их вручную и нажать“Start”.

results

При проверке 3 ключей (все слова пишите вместе, так как поисковик ищет совпадение в названии домена) мы получили 1112 результатов.

После этого выгружайте результаты в excel или google excel и упорядочивайте по трафику.

filter-by-traffic

Для более детальной проверки можете использовать Moz, Majestic, Semrush, Serpstat, я предпочитаю пакетный анализ Ahrefs.

bunch-analyze-ahrefs

После этого анализа можно определить, какие домены достойны Вашего внимания: есть позиции в ТОП-100, трафик, DR (domain rating).

Следующий этап — проверь archive.org, какой контент был на этом сайте.

archive.org

Посмотрите, какие внешние ссылки уже есть у дропа (брошенного домена), возможно он ими активно торговал.

Вариант почистить и убрать всегда есть.

Только не удаляйте ссылки на высокотрастовые ресурсы: Википедия или с доменами gov, edu.

Такие ссылки несут больше пользы.

Выбрали домены, которые хотите купить?

Принимайте участие в аукционе.

Лучше всего делать ставку в последнюю минуту, потому что основная масса ленивых пользователей не будет так делать.

Если пытаться переплюнуть чью-то ставку задолго до окончания, обязательно найдутся те, кто переплюнет Вас.

Установите в календарь напоминание — за час до конца аукциона, дополнительно установите напоминалку в мобильный телефон.

Повторный сигнал сделайте за 15 минут до окончания.

Если этот процесс для Вас сложный, используйте такие ресурсы, как Freshdrop, которые автоматизируют многие действия.

7. ПОИСК МЕСТ РАЗМЕЩЕНИЯ КОММЕНТАРИЕВ

 
Перед созданием ссылки необходимо найти подходящее место.

Как происходит это вручную?

Вводите Ваш ключ в поисковик и пересматриваете выдачу.

К примеру, на 5-й странице находите форум, регистрируетесь, создаете большое количество сообщений.

Поднимаете карму и в какой-то момент создаете ссылку на продвигаемый сайт со скрытой рекламой.

Как же этот процесс автоматизировать?

Необходимо использовать поисковые операторы, которые мы раскрыли в пункте 3.

Есть 2 основных подхода для использования этой техники.

7.1. Анализируйте URL, которые можно сопоставить с Вашим ключами

Для этого вводим список запросов, выбираем настройки по умолчанию и кликаем “Start harvesting”.

Далее удаляем дубликаты URL и просматриваем результаты.

resultishe

Полученный список необходимо очистить от высокотрастовых сайтов, таких как pinterest.

7.2. Поиск страниц с возможностью оставить комментарий

Этот метод работает, если сайт на WordPress.

Запускаем сканирование Вашего списка URL с помощью “Addons” и “Scrapebox Page Scanner”.

page-scanner- addon

Собираем список сайтов на WordPress.

list-of-wordpress

Кликаем внизу “Edit” и оставляем в настройках только WordPress, а в левом углу — только строчку с кодом комментариев.

wordpress-comments

Данные экспортируются в текстовый документ на компьютер.

И снова импортируем их в Scrapebox.

import-list

Мы получили список сайтов, где можно оставить комментарий.

8. ГОСТЕВОЙ ПОСТИНГ

 
Многие зарубежные блоги рекомендуют вручную вводить запросы для поиска мест размещения гостевых постов.

Список поисковых операторов с Вашими ключами можно объединить в нашем калькуляторе.

На самом деле такая работа:

  • блокирует IP в поисковиках;
  • смертельно скучная;
  • зря потраченное время и деньги;
  • я уже говорил смертельно скучная?

Для автоматизации процесса скопируйте список ключевых слов из калькулятора и добавьте в программу.

list-of-keywords

Соберите список и удалите дубли.

Далее запускайте поиск и собирайте список сайтов.

remove-duplicate

Затем проверьте метрики сайтов, удалите мертвые и высокотрастовые ресурсы.

В Scrapebox это можно проверить с помощью Moz, если у Вас есть аккаунт, мое предпочтение — Ahrefs.

Быстро почистить мусор легко с помощью “Scrapebox Alexa Rank Checker”.

alexa-rank-addon

Кликаете “Import urls” и “Start”

alexa-rank-checker

Это будет полезно, чтобы отсеять жесткий шлак. Сайты с показателями, допустим, выше 1 миллиона по Alexa.

Когда собрали список, начинайте процесс outreach.

Конечно, лучше всего посещать каждый сайт для поиска рабочих контактных данных.

С помощью Scrapebox можно собрать список e-mail, если они добавлены в информацию на сайте.

list-of-emails

9. МАССОВОЕ РАСПРОСТРАНЕНИЕ КОММЕНТАРИЕВ

 
Вручную комментарии создают крауд-маркетологи, автоматически это делает Scrapebox.

Конечно, отнести эти комментарии к очень эффективным сложно, больше их используют для усиления индекса и получения минимальной трастовости.

Для запуска процесса Вам необходимы:

9.1. Генерация анкоров (текст ссылок).

9.2. Фейковые сгенерированные e-mail.

9.3. Генерация комментариев.

9.4. Список сайтов, которые автоматически подтверждают комментарии.

9.1. Для генерации анкоров выбираете “Tools”, “Bulk Anchor Text Creator”.

Вставляете список ключей вручную, из основного меню Scrapebox или из файла.

anchors-generator

9.2. Для генерации e-mail выбираете “Tools”, “Name and Email Generator”.

Настройки простые: выбрать мужские или женские имена, добавить фамилию.

Следующий шаг — кликаете “Generate” и “Transfer to Poster Name”.

То же самое с e-mail, только выбираете почтовый ящик: gmail.com, hotmail.com, yahoo.com.

Кликаете “Generate” и “Transfer to Poster Emails”.

generate-emails-and-names-scrapebox

9.3. Генерация комментариев — не сложная задача.

Перед размещением комментариев проверьте настройки Scrapebox.

connections

Я, как правило, ставлю “Poster” — 25, остальное зависит от количества используемых Вами прокси.

poster-25

Другие настройки можно оставить по умолчанию.

Далее работаем с нижним блоком Scrapebox, в котором 4 поля: Fast Poster, Manual Poster, Trackbacks, Contact Forms.

Начнем работу с Fast Poster.

comment-poster

В пункте 9.2 мы сгенерировали e-mails, имена, далее нам нужно вставить список продвигаемых страниц.

ist-of-pages

Открываем и сохраняем файл с продвигаемыми страницами.

list-editor

Если Вам нужно отображение других анкоров, используйте URL и в скобки берите анкоры:

Пример: https://site.com/page1 {weight loss reviews|weight loss|weight loss supplements|weight loss study}

Далее идем в “Comments” и вставляем комментарии, которые можно сгенерировать.

for-example-comments

Формула генерации простая, в скобки берете слова, которые нужно сгенерировать и разделяете их символом.

Пример: best supplements {survey|study|research|consider} you {will|can} {buy|get} there

В последнем пункте добавляете список сайтов, собранных Вами ранее.

Всю работу можно проверить в модуле “Test Comments / Messages”.

test1

Следующий этап — нажимайте “Start Poster” и ждите результаты, которые можно перенести в txt-формат.

export-success-results

Все неуспешные варианты можно постить с помощью contact forms или вручную.

Процесс везде похож, кроме ручного постинга, где будут открываться сайты в окне Scrapebox.

10. ДОПОЛНИТЕЛЬНЫЕ ВОЗМОЖНОСТИ

 
У Scrapebox много дополнительных функций.

Некоторыми, такими как пакетный анализ ссылок, я предпочитаю пользоваться в интерфейсе Ahrefs.

Если у Вас есть Moz-аккаунт и это Ваш инструмент для анализа, тогда пользуйтесь им.

analyze-backlinks

Другие бесплатные модули Вы найдете в “Addons”.

Addons2

Предлагаю рассмотреть самые ценные, на мой взгляд, Вы можете проанализировать весь список.

10.1. Addon Social Checker

С помощью Addon можно находить контент, которым чаще всего делятся в социалках, не обязательно покупать аккаунты Buzzumo.

Как правило, такие материалы самые полезные с точки зрения пользователя.

Их лучше всего брать за основу при создании Вашего контента.

Addon-Social-Checker

10.2. Alive Check

Показывает, существует URL или нет, а также — настроены ли 301 или 302 редиректы и на какую страницу.

10.3. Google Image Grabber

Собрать список URL с картинками по заданным ключам, можно задавать размеры и качество.

10.4. Mass URL Shortner

Сделать список урлов в короткой форме, чтобы не создавать вручную по одной ссылке.

10.5. Whois Scraper

Массовая проверка данных по сайту: возраст, владелец, IP.

Другие модули изучайте по мере необходимости.

10.6. Broken Links Checker

Помогает массово искать битые ссылки по заданным URL.

Не выделял модуль игры в шахматы и онлайн-музыка, хотя некоторые активно практикуют.

11. ПРЕМИУМ- АККАУНТЫ

 
Есть 6 премиум-плагинов, за которые необходимо доплачивать.

premium-plugins

11.1. Article Scraper собирает статьи на разных каталогах статей, переводит на 65 языков и размещает на других площадках.

Еще любой машинный перевод делает должного качества.

Плагин больше будет полезен для сбора данных и ручной корректировки копирайтером.

11.2. Automator автоматизирует работу по существующим аддонам: сбор ключей, постинг комментариев, проверка ссылок.

11.3. Rank Tracker действительно полезный плагин, который позволяет проверить позиции заданного сайта в Яхо, Гугл, Бинг по выбранным ключам.

То есть не надо платить за такую возможность большому количеству платных сервисов.

При этом сохраняется история введенных данных.

11.4. Yellow Pages Scraper помогает собрать полные данные с сайтов желтых страниц: yell.com, yellowpages.com, yellowpages.ca, yellowpages.com.au.

Это такая информация, как телефон, адрес, веб-сайт, индекс, юридическое название.

11.5. Expired Domain Finder позволяет искать дроп-домены и проверять их метрики.

В пункте 6 мы говорили про аддон “TDnam Scraper”, который сканирует базу Godaddy.

С помощью премиум-плагина можно искать в заданном списке URL.

11.6. Metrics Plugin позволяет проверять данные Moz, Majestic, Alexa, Facebook, Pinterest, Google Page Speed, Google индекс.

ВЫВОД

 
Scrapebox — это действительно полезный софт, который помогает автоматизировать рутину.

Преимущество заключается в том, что можно запустить много процессов одновременно.

  • Поиск ключей, поисковых подсказок, анализ их метрик.
  • Сбор выдачи по заданным ключевым словам.
  • Поиск битых ссылок для проведения аутрич.
  • Массовый поиск мест размещения гостевых постов.
  • Рассылка комментариев.
  • Множество других функций.

Большое количество белых сеошников в своих блогах рассказывает про ручные методы, но с помощью Scrapebox Вы можете автоматизировать сбор данных.

Этот инструмент полезен как для черных, так и для белых методов продвижения.

Автор: Анатолий Улитовский
Поделиться:
  • DONATELLO

    Ознакомился со статьей. Спасибо Анатолий.
    Реально полезная софтина, нужно будет попробовать. Думаю сама важная функция — это «Поиск ключей, поисковых подсказок, анализ их метрик.»

    • Ulitovskyi Anatolii

      Спасибо за Ваш комментарий, мне софт больше полезен для массового сбора списка сайтов

  • Natali

    очень интересная статья, хочется потестить

    • Ulitovskyi Anatolii

      спасибо за Ваш комментарий

  • Владимир Кованский

    Отличная статья Толя 😉 Начинаешь плюшки сливать)

    • Ulitovskyi Anatolii

      Спасибо, Вова, за комментарий. Вот следующие статьи будут плюшки, это разминка ))

  • Анастасия Шелестова

    я так понимаю, что процесс до воли длительный согласно сбору той же семантики.
    не всегда удобно грузить свой ноут или ПК дополнительно и не всегда есть время ждать, что в целом можно отнести к минусу. + жалко, что не реализован Яндекс, и по сути работа только через прокси
    хотя в целом инструмент интересен.

    • Ulitovskyi Anatolii

      Спасибо, Анастасия, за Ваш комментарий. Для нас очень ценно Ваше внимание.

  • Alexa

    Интересный софт, только смущает то, что нужно использовать большое количество прокси. Это не совсем удобно.

    • Ulitovskyi Anatolii

      Спасибо, за Ваш комментарий. Заметил, чем неудобней, тем меньше конкурентов, тем лучше работает инструмент )))

ул. Люстдорфская дорога, 92/94 Украина, г. Одесса +38 (048) 704 80 10

наверх

Получить

коммерческое предложение