- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Кейс такой. Планирую продвинуть сайт под бурж, в определенном регионе, при этом хотелось бы спрятать бэки от ахрефса и т.д.
Варианты:
1) Для своей сетки прописываем в роботсе запреты для роботов ахрефса и им подобным.
2) Для чужих сайтов, допустим для покупных статей или ссылочной безанкорной массы, покупаем ссылки на site1.com а на site1.com ставим 301 на нужный нам сайт, в итоге спалить сетку и методы продвижения становится проблематичным.
Пока не вижу препятствий, но возможно они есть, кто подскажет?
Пока что сам такого не пробовал, планирую только, вот решил посоветоваться прежде чем выделять на это бюджет.
robots не поможет. Закрывают ботов сервисов и их ip в htaccess. 301 не нужен.
Во втором варианте не уверен, ибо site1.com должен быть далеко не херовым.
Ну а первым способом давно многие пользуются, особенно с ломов
Ахрефс уже учитывают домены с 301 редиком, суммирует и показывается их беки как для основного, поэтому если будешь делать по второй схеме, обязательно надо поставить клоаку для ахрефс/маджестик и прочих ботов
1. можно и через роботс но лучше через htaccess
2. ahrefs показывает ссылки с 301ого. но какой смысл их скрывать? если ты смог купить на каком-то сайте ссылки, то их там и до тебя покупали. и двигать чисто гестблоггингом настолько дорого что даже если конкуренты найдут все твои ссылки не факт что они будут копировать за тобой. другое дело своя сетка, которая является основной силой
При втором варианте, если site1 ваш, можете тоже контролировать бота, и если это ahrefs, редиректить на другой домен.
Для первого варинта:
robots.txt
# Blocking bad link checker robots
User-agent: AhrefsBot
Disallow: /
User-agent: Alexibot
Disallow: /
User-agent: MJ12bot
Disallow: /
User-agent: SurveyBot
Disallow: /
User-agent: Xenu's
Disallow: /
User-agent: Xenu's Link Sleuth 1.1c
Disallow: /
User-agent: rogerbot
Disallow:/
.htaccess
RewriteEngine on
SetEnvIfNoCase User-Agent .*rogerbot.* naughty
SetEnvIfNoCase User-Agent .*mj12bot.* naughty
SetEnvIfNoCase User-Agent .*ahrefsbot.* naughty
Order Allow,Deny
Allow from all
Deny from env=naughty
Огромное спасибо, господа)
Я тут подумал, возможно вариант с роботс не очень, все же маловероятно что кто-то будет прятать свои сайты от ахрефс+ из обычных вебмастеров, только сеошники свои сетки. Так что мешает гуглу такие моменты трекать и понижать значимость. А в итоге ты это достоверно никогда и не узнаешь.
Я планирую делать качественные сдл, с обновляемой инфой, хорошим дизом и т.д., возможно в таком случае и не обязательно прятать бэки, потому что даже по стуку сетка не вылетит. К сожалению, не удалось нагуглить вменяемый опыт коллег, в данном случае.