Scrapebox: Обзор, настройка программы, автоматизация. (Гайд)

Сегодня хочу поделиться с Вами полезной программой Scrapebox.

В основном этот софт используют для черных методов продвижения сайтов, но в нем также много полезных функций для белых методов.

Итак давайте разберем вопросы, на которые отвечает программа Scrapebox.

Сегодня хочу поделиться с Вами полезной программой Scrapebox.

Этот софт помогает автоматизировать множество процессов.

Здесь собрано большое количество SEO инструментов, которые автоматизируют ручной труд.

В основном этот софт используют для черных методов продвижения сайтов, но в нем также много полезных функций для белых методов.

Итак давайте разберем вопросы, на которые отвечает программа Scrapebox.

  1. Как собирать большое количество данных: семантическое ядро (поисковые подсказки и ключи), список сайтов для комментариев, гостевого постинга?
  2. Как покупать дроп-домены (сайты, которые не продлили регистрацию)?
  3. Как анализировать бэклинки (внешние и внутренние ссылки)?
  4. Как оставлять тематические комментарии?
  5. Как автоматизировать множество ручных процессов?

Изучаем все шаг за шагом.

Что, опять? Упал трафик и нет продаж? Так SEOquick тебе поможет всё вернуть

Привлечем органический SEO-трафик на ваш сайт из поисковых систем Google и Bing

Проведем работы по внутренней оптимизации и SEO-продвижению. Улучшим репутацию, контент. Сделаем аудит и нарастим ссылочную массу.

Никакой черной магии – только белые методы SEO!

Покупка Skrapebox со скидкой 30%

Scrapebox является платной программой, но если Вы хотите узнать, как получить скидку на ее приобретение, читайте следующую главу.

Scrapebox – платная программа, стоимость которой составляет $67, если Вы используете URL – http://www.scrapebox.com/BHW (скидка для пользователей форума Black Hat World).

После перехода скрольте вниз, пока не найдете следующий модуль.

После оплаты Вам предлагают скачать версию для Windows 32, 64 или Макбука.

При первом запуске программы нужно ввести код покупки (id transaction), Ваш e-mail, ФИО.

Активация софта занимает до 12 часов, поэтому пока отложите работу с ней в сторону.

После того как дождались авторизации, переходите к следующим пунктам.

Вы хотите получать бесплатный трафик?

Вас интересует продвижение сайтов в Москве, Киеве, Одессе?

Заполните форму ниже и я лично свяжусь с Вами и мы обсудим план по раскрутке вашего бизнеса!

    Установка прокси

    Какой прокси выбрать – платный или бесплатный?

    И как его установить?

    Подробная инструкция на примере.

    Ваша цель сбора данных из поисковиков.

    Множество автоматизированных запросов с одного IP будут заблокированы.

    Поэтому использование прокси-данных обязательно для ускорения процесса работы.

    Прокси бывают двух видов: купленные и бесплатные.

    С бесплатными, как правило, много проблем – они могут работать, могут не работать :-)

    Ваши прокси могут требовать логин и пароль, а бывает достаточно IP и Port.

    Формула для логина с паролем Формула без логина и пароля
    IP:Port:Username:Password IP:Port

    Для теста попробуем изначально поработать с бесплатными американскими прокси.

    Я выкачал список из 450 прокси и вставил их в Scrapebox.

    Для этого нажимаем на кнопку “Manage” в нижнем левом углу программы.

    В открывшемся окне кликаем “Load Proxies”, затем “Load from Files”.

    Добавил файл с простой текстовой формой, где сохранил свой список прокси.

    Дополнительная классная функция в Scrapebox дает возможность протестировать работоспособность прокси.

    Для этого кликаем “Test Proxies” и проверяем результаты прямо в этом окне.

    Большое количество нерабочих прокси убираем с помощью функции “Filter”, затем “Keep Proxies which passed the Google / Custom Test”, оставляем только живые.

    После этого список нужно обязательно сохранить, для этого кликайте “Save proxies” и “Save all to the ScrapeBox Proxy List”.

    В результате из 450 тестируемых бесплатных прокси рабочими оказались только 5, которые Гугл быстро забанил.

    Все-таки лучше купить частные прокси.

    Цены на рынке на них от 5$, что не так дорого.

    Рекомендуем для чтения:

    1. Обновление Google Maccabees: как избежать падения трафика, даже если с сайтом все в порядке?
    2. SERPSTAT: Полный Обзор

    Проверка индекса

    Как искать проиндексированный контент с помощью Scrapebox?

    Самые популярные операторы поиска в Google.

    Подробная инструкция по поиску – далее.

    Не все страницы и не весь контент на них индексируются поисковыми машинами.

    Как правило, они выбирают только тот, который несет пользу для интернет-пользователей.

    Всю эту информацию можно найти в поисковиках.

    Не проиндексированный или забаненный контент невозможно отыскать через поиск.

    Смысла размещать ссылки в таком контенте нет для получения поисковых позиций, если конечно Вы не создаете новый.

    Scrapebox выполняет хорошо эту работу, для поиска проиндексированного контента.

    Для поиска необходимо использовать операторы поиска в Гугле.

    Лучше потратьте время на изучение вариантов поиска, что сэкономит время в будущем.

    Много поисковых вариантов мы добавили в калькулятор поиска каталогов, форумов, комментариев, гостевых постов.

    Для поиска мест размещения достаточно ввести ключевое слово, выбрать язык и кликнуть “ИСКАТЬ”.

    Давайте рассмотрим самые популярные операторы поиска в Гугл (множество других поисковых операторов для Яндекса и Гугла проверяйте тут).

    Оператор Для чего его использовать
    allinanchor: Эта комбинация позволяет искать страницы, содержащие анкоры с заданным текстом. Например:

    allinanchor: продвижение сайта

    Вы получите в результатах поиска только те страницы, у которых есть активная гиперссылка с текстовым анкором, включающим следующие слова: “продвижение” + “сайт”.

    Причем ссылка может быть внешняя и внутренняя.

    Текст иногда используется с другими окончаниями или словами: продвижение сайтов, поисковое продвижение сайтов.

    Примечание. Анкор – это текст ссылки. Она бывает двух видов: безанкорной и анкорной.

    inanchor: В данной комбинации можно использовать слова, которые встречаются в контенте + поиск с заданным анкором.

    инструменты inanchor:семантическое ядро (не ставьте пробел между “:” и поисковой фразой)

    В результатах получим страницы, которые включают слово “инструменты” и анкор “семантическое ядро”.

    allintext: С помощью этой формулы отсекаются страницы, не содержащие указанных слов.

    allintext: трафиковое продвижение сайтов

    В результатах поиска будут страницы, в которых есть слова: “трафик” + “продвижение” + “сайт”.

    intext: Оператор позволяет найти заданные комбинации в тексте на странице и определенные слова, которые могут быть упоминаться где-либо на странице.

    бесплатно ссылки intext: трафиковое продвижение сайтов (не ставьте пробел между “:” и поисковой фразой)

    Получаем результаты, которые содержат слова: “бесплатно”, “ссылки”, “трафиковое”, “продвижение”, “сайтов”.

    Комбинации равны между собой:

    allintext: трафиковое продвижение = intext:трафиковое intext:продвижение.

    allintitle: Данный оператор показывает сайты, у которых в title (основной метатег – заглавие страницы) присутствуют заданные слова.

    allintitle: купить лабутены в Москве

    В результатах поиска будут только сайты с такими словами в title: “купить” + “лабутены” + “в” + “Москва”.

    Причем заданные комбинации также работают в поиске по картинкам, Гугл новостям.

    insubject:
    или эквивалент
    intitle:
    Комбинации “insubject:” и его эквивалент “intitle:” позволяют ограничить выдачу по заданным словам в title.

    Перед самой комбинацией можно использовать слова, которые Вы хотите получить в контенте.

    осенние insubject:”зеленые платья” (не ставьте пробел между “:” и поисковой фразой)

    осенние intitle:”зеленые платья” (не ставьте пробел между “:” и поисковой фразой)

    В результате получаете слова в тайтле: “зеленый” + “платья”, в контенте слово “осенний”.

    Комбинации равны между собой:

    allintitle: купить лабутены = intitle:купить intitle:лабутены

    allinurl: С помощью этой комбинации можно получить сайты, в URL (адрес страницы) которых включены указанные слова.

    Основная масса страниц на английском языке, поэтому лучше всего использовать англоязычные слова или транскрипцию.

    allinurl: weight loss reviews

    В результатах получаем страницы, в URL которых есть слова: “weight” + “loss” + “reviews”.

    inurl: Данный оператор дает возможность искать определенное слово в URL и другие слова где-либо в контенте.

    inurl:weight loss reviews (не ставьте пробел между “:” и поисковой фразой)

    В Вашем URL обязательно должно быть слово “weight”, слова “loss” и “reviews” где-либо в контенте.

    Комбинации равны между собой:

    allinurl: weight loss reviews = inurl:weight inurl:loss inurl:reviews

    cache: Этот оператор позволяет проверить, как запомнил заданную страницу Вашего сайта Гугл.

    cache:https://seoquick.com.ua/seo-full-guide/ (не делайте пробел между “:” и URL)

    В результатах Вы получите дату и время последней проиндексации.

    Если Вы обновили контент, лучше закиньте его в адурилку, чтобы поисковик обновил кэш-версию.

    define: Поиск определений заданных слов.

    define: seo

    В результатах – получение страниц сайтов, которые рассказывают про SEO.

    filetype: Данный оператор позволяет отбирать проиндексированные документы: pdf, doc.

    К примеру, Вы хотите прочитать pdf-файл о Тайланде.

    тайланд filetype:pdf

    В результатах поиска получите только проиндексированные pdf с информацией о Тайланде.

    info: Поиск по четко заданному URL или домену.

    info:https://seoquick.com.ua/utilities/ (не используйте пробелов между “:” и URL)

    Выдача покажет только ту страницу, которую вы задали в поиске.

    link: Данная функция позволяет найти сайты, которые ссылаются на заданный ресурс.

    link:seoquick.com.ua (не используйте пробелов между “:” и доменом)

    Если Вы хотите в результатах поиска убрать свой сайт, оставить только другие, используйте следующую комбинацию:

    link:seoquick.com.ua -site:seoquick.com.ua (не используйте пробелов между “:” и доменом)

    location: Поиск по заданному региону ограничивает показ сайтов, не представленных в нем.

    ремонт холодильников location:москва (не используйте пробелов между “:” и URL)

    По данному запросу слова “ремонт” + “холодильников” будут искаться на страницах, которые предоставляют услуги для Москвы.

    movie: Данный запрос ограничивает результаты фильмами.

    movie:сталинград (не используйте пробелов между “:” и URL)

    То есть результаты поиска будут соответствовать фильмам про Сталинград.

    related: Показывает сайты, похожие на заданный URL.

    related:devaka.ru (не используйте пробелов между “:” и URL)

    В результатах получите много других блогов о SEO.

    site: Это довольно-таки известный поисковый оператор, который позволяет проверить проиндексированные страницы.

    site:seoquick.com.ua (не используйте пробелов между “:” и URL)

    В результатах поиска увидим страницы сайта, которые проиндексировались.

    Также используйте в других комбинациях. К примеру, Вам надо найти медицинские страницы с доменом .edu

    медицина site:edu

    В результатах получаем страницы о медицине с доменом .edu

    source: Работает для поиска в Гугл новостях. Ограничивает показы только по одному ресурсу.

    выборы source:lenta.ru (не используйте пробелов между “:” и URL)

    В результатах получите только страницы lenta.ru

    С помощью данных операторов Вы существенно сэкономите время на поиск проиндексированной информации.

    Массовый сбор данных

    Важные параметры для массового сбора данных.

    Пошаговое руководство в этой главе.

    Для массового сбора данных Вам придется оставить Scrapebox включенным на несколько дней.

    При этом программа будет забирать часть интернет-трафика, загружать процессор и оперативную память.

    Некоторые устанавливают программу на VPS (Virtual Private Server или другом компьютере).

    Возможностей по установке VPS в интернете много – от 8 долларов в месяц за 20 ГБ жесткого диска и 512 ОЗУ.

    Если же Вы решили установить на своем компьютере, желательно иметь мощную оперативную память.

    Тогда Вы сможете параллельно выполнять другую работу.

    Какие параметры важны для массового сбора данных:

    • количество прокси;
    • качество прокси (частные или публичные);
    • скорость прокси;
    • количество подключений;
    • количество запросов;
    • задержки между каждым запросом.

    Программа по умолчанию регулирует стандартные настройки.

    Если Вам важно проверить в поиске большое количество разных ключей, используйте много прокси, желательно платных.

    Вставлять ключи необходимо в соответствующее поле с операторами от поисковиков (смотри п.3).

    К примеру, нам надо собрать информацию по ключам “nutrisystem”, “nutrisystem review”.

    Для поиска выбирайте функцию “Custom Footprint” и “Start Harvesting”.

    Убедитесь, что прокси используются.

    Софт спросит Вас, по каким поисковым системам.

    Results (результаты) показывают, как глубоко нужно искать сайты по запросам.

    Стандартно стоит 1000, это ТОП-100 сайтов.

    Если по Вашей тематике много мусора, уменьшите это количество.

    После запуска выбрал для примера Гугл, самое интересное Яндекса – нет, зато есть Rambler.

    В результате получаем список страниц сайтов, которые используют данные ключи.

    С помощью Remove / Filter можно удалить дубли URL.

    Некоторые удаляют и дубли доменов, все зависит от Ваших целей.

    По запросу “nutrisystem reviews” более 175К запросов.

    Чтобы урезать всякий мусор, нужно использовать стоп-слова, такие как “there”.

    Если же Вы закинули огромный список ключей, лучше всего оставить включенным компьютер на ночь.

    Также Вы можете оставить процесс и вытащить существующие результаты.

    Scrapebox за одну сессию, время в течении которого программа открыта, сохраняет не более 1 млн URL.

    Чтобы урезать бесполезные URL, используйте бесплатное приложение Duperemove.

    Оно может разбить файлы на несколько частей, к примеру, по 100К URL.

    Установить просто: зайдите в Addons (верхняя часть меню) и нажмите “Установить все приложения”.

    Другие фильтры:

    • разбить по одинаковым доменам;
    • минус-слова;
    • обязательное использование слов;
    • длина URL;
    • удаление субдоменов.

    Вроде все по функциям массового сбора данных, теперь переходим к поиску ключей.

    Поиск ключей

    Два этапа сбора ключей.

    Поисковые подсказки.

    Точные запросы.

    Все, вступление закончилось, переходим от скучной настройки к действительно полезной информации.

    Поиск ключей можно разбить на 2 категории: сбор поисковых подсказок и точные результаты.

    5.1. ПОИСКОВЫЕ ПОДСКАЗКИ

    С помощью Scrapebox можно генерировать до 1000 поисковых подсказок, которые подходят под Ваше ключевое слово.

    Для этого выбираем “Scrape” и переходим на “Keyword scraper”.

    Вводите Ваши ключи, которые необходимо проверить, выбираете поисковую систему и нажимаете “Start”.

    Вы также можете удалить в программе выбранные полученные результаты.

    Еще одно полезное действие: закинуть выбранные ключи с помощью “Transfer Results to Left Side” для первичного списка.

    Потом повторно искать полученные результаты.

    5.2. ТОЧНЫЕ ЗАПРОСЫ

    Для подбора точных запросов необходимо использовать “Addons” и выбрать “ScrapeBox Google Competition Finder”.

    Следующий шаг – выбрать, откуда импортировать ключи: Вам нужен “Exact” формат.

    Я проверял 2 ключа и получил такие результаты.

    Если результатов нет, скорей всего Гугл забанил Ваши прокси или IP.

    Результаты можно собрать в excel, txt или перекинуть в основное окно Scrapebox.

    Дроп-домены

    Создание дроп-доменов.

    Варианты, особенности, нюансы.

    Как правильно принимать участие в аукционе.

    Создание сайтов с дроп-доменов – рабочая стратегия продвижения.

    У этих ресурсов готовые позиции в поисковиках и даже небольшой трафик.

    6.1. СОЗДАНИЕ PBN (Private Blog Networks)

    Создание ссылок с PBN (сетки сателлитов) – черный метод продвижения.

    У этих ссылок есть свой вес и траст, которые значительно влияют на Ваши позиции в поисковиках.

    Важно не засветить свою сетку.

    В такой ситуации данные по ней обнуляются, ссылки перестают работать.

    Чтобы не спалить сетку необходимо:

    • использовать множество разных IP и хостингов;
    • использовать разные темы, структуру категорий, постоянные ссылки, с www и без;
    • изменять домены .com, .com.ua, .info, .org.ua и т.п.;
    • использовать разные регистраторы: godaddy, imena.ua, reg.ru;
    • делать релевантные ручные ссылки.

    6.2. СОЗДАНИЕ НОВЫХ САЙТОВ

    Регистрация нового домена, создание контента и получение ссылок – это длительный процесс.

    Его можно ускорить, если найти уже готовый сайт с готовым контентом и классными ссылками.

    Преобразовать готовый контент проще, чем создавать новый.

    Если Вам посчастливилось купить классный домен, проверьте его старый контент.

    Возможно его необходимо откорректировать или просто создать новый.

    О том, как правильно создать оптимизированный сайт с нуля смотрите в нашем видео:

    6.3. 301 РЕДИРЕКТ

    301 редирект передает ссылочный вес и возраст продвигаемому сайту.

    Его использование позволяет не восстанавливать сам сайт.

    Давайте рассмотрим все шаг за шагом:

    1. Приобрести просроченный домен.
    2. Повторно запустить домен.
    3. Восстановить старый контент или настроить 301 редирект.

    В брошенных доменах 1 из 10 достоин внимания.

    Как определить качество доменов, читайте здесь.

    Самое главное – у них должны быть бэклинки, параметры ahrefs качества выше 15, позиции в ТОП-100.

    Для поиска классных доменов необходимо использовать расширение (addon) “TDnam Scraper”, которое работает только с Godaddy аукционами.

    Следующий шаг – вставить ключи или прописывать их вручную и нажать“Start”.

    При проверке 3 ключей (все слова пишите вместе, так как поисковик ищет совпадение в названии домена) мы получили 1112 результатов.

    После этого выгружайте результаты в excel или google excel и упорядочивайте по трафику.

    Для более детальной проверки можете использовать Moz, Majestic, Semrush, Serpstat, я предпочитаю пакетный анализ Ahrefs.

    После этого анализа можно определить, какие домены достойны Вашего внимания: есть позиции в ТОП-100, трафик, DR (domain rating).

    Следующий этап – проверь archive.org, какой контент был на этом сайте.

    Посмотрите, какие внешние ссылки уже есть у дропа (брошенного домена), возможно он ими активно торговал.

    Вариант почистить и убрать всегда есть.

    Только не удаляйте ссылки на высокотрастовые ресурсы: Википедия или с доменами gov, edu.

    Такие ссылки несут больше пользы.

    Выбрали домены, которые хотите купить?

    Принимайте участие в аукционе.

    Лучше всего делать ставку в последнюю минуту, потому что основная масса ленивых пользователей не будет так делать.

    Если пытаться переплюнуть чью-то ставку задолго до окончания, обязательно найдутся те, кто переплюнет Вас.

    Установите в календарь напоминание – за час до конца аукциона, дополнительно установите напоминалку в мобильный телефон.

    Повторный сигнал сделайте за 15 минут до окончания.

    Если этот процесс для Вас сложный, используйте такие ресурсы, как Freshdrop, которые автоматизируют многие действия.

    Поиск мест размещения комментариев

    Как найти подходящее место для комментариев?

    Ресурсы, которые автоматизируют поиск.

    Перед созданием ссылки необходимо найти подходящее место.

    Как происходит это вручную?

    Вводите Ваш ключ в поисковик и пересматриваете выдачу.

    К примеру, на 5-й странице находите форум, регистрируетесь, создаете большое количество сообщений.

    Поднимаете карму и в какой-то момент создаете ссылку на продвигаемый сайт со скрытой рекламой.

    Как же этот процесс автоматизировать?

    Необходимо использовать поисковые операторы, которые мы раскрыли в пункте 3.

    Есть 2 основных подхода для использования этой техники.

    7.1. Анализируйте URL, которые можно сопоставить с Вашим ключами

    Для этого вводим список запросов, выбираем настройки по умолчанию и кликаем “Start harvesting”.

    Далее удаляем дубликаты URL и просматриваем результаты.

    Полученный список необходимо очистить от высокотрастовых сайтов, таких как Pinterest.

    7.2. Поиск страниц с возможностью оставить комментарий

    Этот метод работает, если сайт на WordPress.

    Запускаем сканирование Вашего списка URL с помощью “Addons” и “Scrapebox Page Scanner”.

    Собираем список сайтов на WordPress.

    Кликаем внизу “Edit” и оставляем в настройках только WordPress, а в левом углу – только строчку с кодом комментариев.

    Данные экспортируются в текстовый документ на компьютер.

    И снова импортируем их в Scrapebox.

    Мы получили список сайтов, где можно оставить комментарий.

    Гостевой постинг

    Где искать площадки для размещения гостевых постов?

    Как автоматизировать этот процесс?

    Многие зарубежные блоги рекомендуют вручную вводить запросы для поиска мест размещения гостевых постов.

    Список поисковых операторов с Вашими ключами можно объединить в нашем калькуляторе.

    На самом деле такая работа:

    • блокирует IP в поисковиках;
    • смертельно скучная;
    • зря потраченное время и деньги;
    • я уже говорил смертельно скучная?

    Для автоматизации процесса скопируйте список ключевых слов из калькулятора и добавьте в программу.

    Соберите список и удалите дубли.

    Далее запускайте поиск и собирайте список сайтов.

    Затем проверьте метрики сайтов, удалите мертвые и высокотрастовые ресурсы.

    В Scrapebox это можно проверить с помощью Moz, если у Вас есть аккаунт, мое предпочтение – Ahrefs.

    Быстро почистить мусор легко с помощью “Scrapebox Alexa Rank Checker”.

    Кликаете “Import urls” и “Start”

    Это будет полезно, чтобы отсеять жесткий шлак.

    Сайты с показателями, допустим, выше 1 миллиона по Alexa.

    Когда собрали список, начинайте процесс outreach.

    Конечно, лучше всего посещать каждый сайт для поиска рабочих контактных данных.

    С помощью Scrapebox можно собрать список e-mail, если они добавлены в информацию на сайте.

    Массовое распространение комментариев

    Создание комментариев с помощью Scrapebox.

    Поэтапная инструкция с примерами.

    Вручную комментарии создают крауд-маркетологи, автоматически это делает Scrapebox.

    Конечно, отнести эти комментарии к очень эффективным сложно, больше их используют для усиления индекса и получения минимальной трастовости.

    Для запуска процесса Вам необходимы:

    9.1. Генерация анкоров (текст ссылок).

    9.2. Фейковые сгенерированные e-mail.

    9.3. Генерация комментариев.

    9.4. Список сайтов, которые автоматически подтверждают комментарии.

    9.1. Для генерации анкоров выбираете “Tools”, “Bulk Anchor Text Creator”.

    Вставляете список ключей вручную, из основного меню Scrapebox или из файла.

    9.2. Для генерации e-mail выбираете “Tools”, “Name and Email Generator”.

    Настройки простые: выбрать мужские или женские имена, добавить фамилию.

    Следующий шаг – кликаете “Generate” и “Transfer to Poster Name”.

    То же самое с e-mail, только выбираете почтовый ящик: gmail.com, hotmail.com, yahoo.com.

    Кликаете “Generate” и “Transfer to Poster Emails”.

    9.3. Генерация комментариев – не сложная задача.

    Перед размещением комментариев проверьте настройки Scrapebox.

    Я, как правило, ставлю “Poster” – 25, остальное зависит от количества используемых Вами прокси.

    Другие настройки можно оставить по умолчанию.

    Далее работаем с нижним блоком Scrapebox, в котором 4 поля: Fast Poster, Manual Poster, Trackbacks, Contact Forms.

    Начнем работу с Fast Poster.

    В пункте 9.2 мы сгенерировали e-mails, имена, далее нам нужно вставить список продвигаемых страниц.

    Открываем и сохраняем файл с продвигаемыми страницами.

    Если Вам нужно отображение других анкоров, используйте URL и в скобки берите анкоры:

    Пример: https://site.com/page1 {weight loss reviews|weight loss|weight loss supplements|weight loss study}

    Далее идем в “Comments” и вставляем комментарии, которые можно сгенерировать.

    Формула генерации простая, в скобки берете слова, которые нужно сгенерировать и разделяете их символом.

    Пример: best supplements {survey|study|research|consider} you {will|can} {buy|get} there

    В последнем пункте добавляете список сайтов, собранных Вами ранее.

    Всю работу можно проверить в модуле “Test Comments / Messages”.

    Следующий этап – нажимайте “Start Poster” и ждите результаты, которые можно перенести в txt-формат.

    Все неуспешные варианты можно постить с помощью contact forms или вручную.

    Процесс везде похож, кроме ручного постинга, где будут открываться сайты в окне Scrapebox.

    Дополнительные возможности

    Дополнительные функции Scrapebox.

    Обзор самых интересных.

    У Scrapebox много дополнительных функций.

    Некоторыми, такими как пакетный анализ ссылок, я предпочитаю пользоваться в интерфейсе Ahrefs.

    Если у Вас есть Moz-аккаунт и это Ваш инструмент для анализа, тогда пользуйтесь им.

    Другие бесплатные модули Вы найдете в “Addons”.

    Предлагаю рассмотреть самые ценные, на мой взгляд, Вы можете проанализировать весь список.

    10.1. Addon Social Checker

    С помощью Addon можно находить контент, которым чаще всего делятся в социалках, не обязательно покупать аккаунты Buzzumo.

    Как правило, такие материалы самые полезные с точки зрения пользователя.

    Их лучше всего брать за основу при создании Вашего контента.

    10.2. Alive Check

    Показывает, существует URL или нет, а также – настроены ли 301 или 302 редиректы и на какую страницу.

    10.3. Google Image Grabber

    Собрать список URL с картинками по заданным ключам, можно задавать размеры и качество.

    10.4. Mass URL Shortner

    Сделать список урлов в короткой форме, чтобы не создавать вручную по одной ссылке.

    10.5. Whois Scraper

    Массовая проверка данных по сайту: возраст, владелец, IP.

    Другие модули изучайте по мере необходимости.

    10.6. Broken Links Checker

    Помогает массово искать битые ссылки по заданным URL.

    Не выделял модуль игры в шахматы и онлайн-музыка, хотя некоторые активно практикуют.

    Премиум-аккаунты

    Обзор платных премиум-плагинов.

    Функции и преимущества.

    Есть 6 премиум-плагинов, за которые необходимо доплачивать.

    11.1. Article Scraper собирает статьи на разных каталогах статей, переводит на 65 языков и размещает на других площадках.

    Еще любой машинный перевод делает должного качества.

    Плагин больше будет полезен для сбора данных и ручной корректировки копирайтером.

    11.2. Automator автоматизирует работу по существующим аддонам: сбор ключей, постинг комментариев, проверка ссылок.

    11.3. Rank Tracker действительно полезный плагин, который позволяет проверить позиции заданного сайта в Яхо, Гугл, Бинг по выбранным ключам.

    То есть не надо платить за такую возможность большому количеству платных сервисов.

    При этом сохраняется история введенных данных.

    11.4. Yellow Pages Scraper помогает собрать полные данные с сайтов желтых страниц: yell.com, yellowpages.com, yellowpages.ca, yellowpages.com.au.

    Это такая информация, как телефон, адрес, веб-сайт, индекс, юридическое название.

    11.5. Expired Domain Finder позволяет искать дроп-домены и проверять их метрики.

    В пункте 6 мы говорили про аддон “TDnam Scraper”, который сканирует базу Godaddy.

    С помощью премиум-плагина можно искать в заданном списке URL.

    11.6. Metrics Plugin позволяет проверять данные Moz, Majestic, Alexa, Facebook, Pinterest, Google Page Speed, Google индекс.

    ВЫВОД

    Scrapebox – это действительно полезный софт, который помогает автоматизировать рутину.

    Преимущество заключается в том, что можно запустить много процессов одновременно.

    1. Поиск ключей, поисковых подсказок, анализ их метрик.
    2. Сбор выдачи по заданным ключевым словам.
    3. Поиск битых ссылок для проведения аутрич.
    4. Массовый поиск мест размещения гостевых постов.
    5. Рассылка комментариев.
    6. Множество других функций.

    Большое количество белых сеошников в своих блогах рассказывает про ручные методы, но с помощью Scrapebox Вы можете автоматизировать сбор данных.

    Этот инструмент полезен как для черных, так и для белых методов продвижения.

    Этот пост был последний раз изменен 25.08.2022

    Disqus Comments Loading...

    Этот веб-сайт использует файлы cookie.