Bookvatik

Bookvatik
Рейтинг
55
Регистрация
13.01.2018
Kykapa4a #:

Опасно держать теперь сайты на поддоменах. Фишка в том. что если сайт на поддомене попадает под МПК, то МПК получает основной домен и соответственно все поддомены. Так мне написали в тех. поддержке.

а подробнее, что ответила поддержка?

Cuys #:

Вы знаете всё таки какая-то хрень то есть в итоге в том плане что пока мало кто разгадал этот прикол.

Приведу рабочий пример:

1. Создал несколько месяцев назад сайт - полностью нулевка (нет у него истории и никогда не было) - название домена не бренд - ничего - просто название .........

Один вопрос. Сколько у Вас коленок?

Brat_Sergij #:

А у нехороших какие должны быть показатели?

в моем случае показатели нехорошести касается именно тех доменов, где показывают.

webledi  - не посоветую, мне друг из Казахстана подогнал номер.

Brat_Sergij #:

А по каким критериям вы определяете какие домены отклонить, а какие оставить? Есть четкие параметры? Я читал, что с этим инструментом можно легко сайту хуже сделать. 

ну.. у меня это проще)). Конкуренты постарались и прицепили мне кучу очевидно нехороших, ххх доменов. Ну а спорные, проверяются ручками.

Brat_Sergij #:

Вы вероятно рассказываете про инструмент Disavow Links в Google? Просто тут в теме речь про Яндекс, поэтому я и поинтересовался как вы отклонили ссылки для Яндекс )

Да, именно о нём и речь. В первом посте я и говорил, что это больше для Гугл, но очень полезно.

Brat_Sergij #:

Как вы это сделали?

Для Брата Серёги и всех, всех, всех.. краткая инструкция по отцеплению вагона "грязных" ссылок:

Итак, идём на буржуйский сервис Семраш. Открываем компанию.  Они дают недельный пробный период, с полным функционалом, при регистрации платёжных данных. Этого вполне достаточно, чтобы занести все хвосты. Там много интересных фишек, но вернемся к нашему вагону. Пункт меню -  Backlink Audit. Загружаем сайт, машина долго рыщет по закоулкам сети и вываливает полный результ ссылающихся на вас сайтов, да не просто домены, а реальные урлы.. ну.. там увидите куда всё идёт. Система предложит создать файлик, для загрузки в " Отказ от ссылок на сайт" , это нужно сделать, но сразу грузить не стоит. Файлик скачиваем, открываем, и ручками, проверяем все домены и конкретные ссылки. Из ссылок достаём только домены, ибо там масса дублей, формируем свой файлик, проверяем на дубликаты строк (!! важно) и заряжаем в Гугл Серч Консоль. ССылку дам в личку, если кому нужно.  Всё, следите за позициями в Гугле.

Отправил на повторную проверку. Снял всю рекламу, кроме флореда, почистил на предмет переспама общего. Статьи не трогал - новостник ибо. Вычислил и отцепил боллее полутора тысяч спамных доменов, на меня ссылающихся. Оооочень, нехороших. (Это конечно больше для Гугла, но всё одно в копилку). Ну и ещё много чего. Кстати да, при предметных раскопках всплывает множество микро-косяков, на которые никогда внимания не обращалось. Но.. что сделано, то сделано. Кнопка нажата. Бум ждать.

Думается мне, что представители глубокоуважаемого Яндекса нас читают, но не решаются присоединиться к дискуссии. Ау?) Отзовитесь, если вы ещё живы.

А мож там и нет никого.. и телега едет сама по себе? 🤔 Рандомно подскакивая на кочках.

KeicH2O #:

Все ровно скоро парсер упадет))) Я вообще удивлен, почему сняли фильтр  с такого шлака то

ну так у них же в футере написано - "Обязательно проконсультируйтесь с вашим лечащим врачом!  😂 Дааааа уж..

Astanavista #:
Yandex Индексация: 25 500
Google Индексация: 64 000

Думаю, это много, хотя и не причина фильтра. К дефолтному дескрипшн и тайтл добавьте переменную "page" и дубли уйдут в 0.

Всего: 133