12 марта был апдейт у гугла.
возможно дело в апдейте, а не в ссылках. наблюдаю схожую картину на одном из сайтов.
Если одноразово, то:
- с помощью плагина для хрома скрапим выдачу (предварительно в настройках поиска указываем показывать максимальное количество результатов за раз)
- с помощью rds api пробиваем полученные домены по желаемым показателям.
Ну вот.
Получается:
1) Делаем редирект всех старых урлов на главную.
2) Выкатываем новый сайт на новых урлах.
Так?
Маленький оффтоп.
Кто-нибудь настраивает редиректы со всех старых страниц на главную\новые страницы?
Почему спрашиваю - на дроп стоит куча ссылок и на внутренние в том числе.
Сейчас если просто поднимать новый сайт все старые ссылки будут вести на 404.
Стоит.
Я бы связал все сайты в кучу.
В принципе, справка Гугла https://support.google.com/webmasters/answer/189077?hl=ru ответит на все ваши вопросы.
Профит от дабллистинга в том, что выше вероятность того, что пользователь попадёт на ваш сайт, при условии, что вы в ТОП3-5.
Профит можно замерять через серчконсоль. Посмотрите, сколько страниц и какие получают трафик по одинаковым запросам.
ПлавТрак
Топлер
Boger
Lowroad
Александр помог не только с ТЗ для копирайтера, но и подсказал контакты опытного кодера, который помог внести технические правки. Прекрасный сервис.
xVOVAx, ну серьезно?
Открой урл и посмотри. 100 где-то.---------- Добавлено 17.05.2018 в 14:04 ----------
Не плохо.
Всё сугубо субъективно. Так же, как и мысли разработчиков Netpeak.
Обратился к ТС за помощью в составлении семантического ядра.
Всё обговорили в скайпе. Сделал тестовое задание (понравилось), и сделал всё по ТЗ (как я и написал).
Вопросов нет, всё окей.
На контакт идёт охотно, всё разжевывает, что было не понятно. Спасибо, остался доволен. Буду сотрудничать дальше.
это правильная реализация для данного примера. в валидаторе проверку так же проходит.
что именно смущает?