Опасно держать теперь сайты на поддоменах. Фишка в том. что если сайт на поддомене попадает под МПК, то МПК получает основной домен и соответственно все поддомены. Так мне написали в тех. поддержке.
а подробнее, что ответила поддержка?
Вы знаете всё таки какая-то хрень то есть в итоге в том плане что пока мало кто разгадал этот прикол.
Приведу рабочий пример:
1. Создал несколько месяцев назад сайт - полностью нулевка (нет у него истории и никогда не было) - название домена не бренд - ничего - просто название .........
Один вопрос. Сколько у Вас коленок?
А у нехороших какие должны быть показатели?
в моем случае показатели нехорошести касается именно тех доменов, где показывают.
webledi - не посоветую, мне друг из Казахстана подогнал номер.
А по каким критериям вы определяете какие домены отклонить, а какие оставить? Есть четкие параметры? Я читал, что с этим инструментом можно легко сайту хуже сделать.
ну.. у меня это проще)). Конкуренты постарались и прицепили мне кучу очевидно нехороших, ххх доменов. Ну а спорные, проверяются ручками.
Вы вероятно рассказываете про инструмент Disavow Links в Google? Просто тут в теме речь про Яндекс, поэтому я и поинтересовался как вы отклонили ссылки для Яндекс )
Да, именно о нём и речь. В первом посте я и говорил, что это больше для Гугл, но очень полезно.
Как вы это сделали?
Для Брата Серёги и всех, всех, всех.. краткая инструкция по отцеплению вагона "грязных" ссылок:
Итак, идём на буржуйский сервис Семраш. Открываем компанию. Они дают недельный пробный период, с полным функционалом, при регистрации платёжных данных. Этого вполне достаточно, чтобы занести все хвосты. Там много интересных фишек, но вернемся к нашему вагону. Пункт меню - Backlink Audit. Загружаем сайт, машина долго рыщет по закоулкам сети и вываливает полный результ ссылающихся на вас сайтов, да не просто домены, а реальные урлы.. ну.. там увидите куда всё идёт. Система предложит создать файлик, для загрузки в " Отказ от ссылок на сайт" , это нужно сделать, но сразу грузить не стоит. Файлик скачиваем, открываем, и ручками, проверяем все домены и конкретные ссылки. Из ссылок достаём только домены, ибо там масса дублей, формируем свой файлик, проверяем на дубликаты строк (!! важно) и заряжаем в Гугл Серч Консоль. ССылку дам в личку, если кому нужно. Всё, следите за позициями в Гугле.
Думается мне, что представители глубокоуважаемого Яндекса нас читают, но не решаются присоединиться к дискуссии. Ау?) Отзовитесь, если вы ещё живы.
А мож там и нет никого.. и телега едет сама по себе? 🤔 Рандомно подскакивая на кочках.
Все ровно скоро парсер упадет))) Я вообще удивлен, почему сняли фильтр с такого шлака то.
ну так у них же в футере написано - "Обязательно проконсультируйтесь с вашим лечащим врачом! 😂 Дааааа уж..
Думаю, это много, хотя и не причина фильтра. К дефолтному дескрипшн и тайтл добавьте переменную "page" и дубли уйдут в 0.