- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
fStrange, я всякую мысль начинаю с принципиальной постановки - проверить реально, Яндексу вот, на раз сказать по любой базе белая она или нет :) Могли бы базы продавать :))
Потом я начинаю смотреть - в чем будут ограничения и т.д. В итоге - пропарсить и сам сайт тоже реально, но долго будет. Сейчас проверка сайта на "русскость" у нашей утилиты занимает по времени около 5 минут на 100 каталогов. А для проверки белости будет куда больше, но в принципе если в пересчете на 1 сылку - не так много времени, просто много для 1000 штук. Так что сейчас ищем косвенные методы проверки белости и одновременно серости и на их основе анализ. Т.е. если по косвенным признакам каталог белый и при том ни одного признака серости нет - белый. Если белые признаки есть, но есть серые - доп скан выборочных страниц. Если Белых нет, есть серые - серый... Типа того... :)
Можно так же гугл использовать
Гугл не показывает всех бэклинков.
Если знаете как искать - поделИтесь.
Было бы интересно если скрипт не удалял бы каталоги а переносил в отдельную БД, чтобы потом можно было делать с ними все что угодно, особенно касается английских каталогов...
Было бы интересно если скрипт не удалял бы каталоги а переносил в отдельную БД, чтобы потом можно было делать с ними все что угодно, особенно касается английских каталогов...
Так это, насколько я работал со скриптом, он не удаляет каталоги, а переносит их в отдельную категорию удаленные, где можно посмотреть эти дубли и прочие удаленцы
Segey,
Так и делает. Ничего реально не удаляется - просто все отобранное выводится в отдельное окно и можно взять его в виде базы. Достаточно включить опцию "Показывать удаленные"
Я так посмотрю, многие еще не до конца понимают все возможности программки. Ей можно делать с базами практически все - пересекать, иключать, разбивать и пр. Парой проходов из базы можно выкинуть мусор, наложив на нее свою "черную базу". И т.п. Вариантов масса думаю даже основные приемы использования выложить где-нибудь на форуме, если интересно, в отдельной теме.
Кстати, теперь с программкой сразу можно получить Черную базу, которая позволяет быстро удалить много мусора.
Если кто уже покупал программку и нужна база - пишите вышлю...
aldic,
А как осуществляется определение английских сайтов?
Это нужно сравнить и выбрать "показать только новые"?
p.s. Жду, удаляет английские и "глухие", хотя я несовсем понял что это такое...
p.s.s. Можно получить черную БД? 🚬 🙄
Новая версия проверяет «забаненность» сайтов в базе с точностью до подкаталога, например, site.ru может быть не забанен, а подкаталог site.ru/links/ - забанен – это будет обнаружено.
Новая версия умеет проверять дубли в базе – еще на этапе загрузки обнаружит дублирующиеся ссылки в самой базе и откинет их перед дальнейшей работой. Работает быстро! Дубли проверяются сразу по всем загружаемым базам.
Новая версия так же умеет проверять URL в базе на корректность. Известно, что в базах часто накиданы «битые» ссылки типа «[link]» и т.п. в поле адреса. Такие ссылки будут исключены на этапе загрузки.
Количество найденных битых ссылок и дублей сообщается.
Новая версия умеет читать сразу из txt. При том достаточно, чтобы url были разделены хотя бы одним пробелом (не обязательно построчно). Т.е. в любом виде программка сможет считать текстовый файл с url`ами – при этом сохраняются остальные функции – проверка дублей и корректности ссылок. Программа сама распознает какой формат ей подсунули txt или xml.
Новая версия умеет открывать базы SmileSeoTools, при этом сама отличает их формат от других баз. Правда сохраняет только в txt или формат AllSubmitter. SmileSeo умеет импортировать эти базы, так что этих возможностей должно хватить. При открытии баз формата SmileSeoTools утилита вытаскивает оттуда в комментарии часть доп. информации, которая не предусмотрена в AllSubmitter, но может пригодиться.
С текущей версии для облегчения апдейтов стоит автоматический напоминатель. Теперь вы всегда будете в курсе новых апдейтов.
В связи с частыми вопросами на эту тему, поясню как теперь понимать номер версии.
Он состоит из 3х частей A.B.C:
C - косметические изменения - поменялись местами пункты меню, добавлены новые кнопки, исправлены мелкие неудобства и пр.
B - основной билд - добавлены новые возможности, важные дополнения в алгоритмах и т.п.
A - добавлен кардинально новый сервис - редкий случай, в ближайшее время разве что будет сделана проверка "белости". А так последний раз с версии 1 на версию 2 перешли после того, как кроме разбивания баз программа начала обрабатывать каталоги всеми возможными проверками...
И еще одно дополнение. Все, купившим программку просьба отписать здесь свои соображения по улучшению и текущему функционалу. Многие пишут на почту, но может здесь получится обсуждение, если каждый даст свои пожелания.
В данный момент особенно интересует есть ли люди, которые работают со SmileSeo и применяют BaseFix ?