Doroshev

Doroshev
Рейтинг
186
Регистрация
21.01.2010
Должность
SEO-оптимизатор

мужики, так может кто-то все же знает достойный блог достойного дорвейщика? Тоже интересует сие направление :)

Запишусь первый, только немного не понял на счет "кластеризации СЯ". Впервые слышу такой термин? Не могли бы вы пояснить?

Что-то последнее время такие топики часто на серче появляются.

Советую:

1.В robots закрыть от индексации тот домен (он же клонирует вас, вот и робот сам склонирует)

2.Ограничьте доступ к FTP по IP

3.Напишите хостеру, на котором висит клон - они быстро такие закрывают

4.Смените все пароли

5.Напишите своему хостеру с просьбой помочь

Diversant:
Я бы 3-им путем пошел, отдельные сайты второго уровня для всех 7-ми регионов с одной базой данных, для корректировки автоматом цен на всех регионов.

Из плюсов, что если какой либо сайт не взлетит, другие 6-ть взлетят.

Это же на сколько бюджет нужно увеличивать. Все 7 сайтов двигать.

Да, если взять специфическое название домена для каждого региона (oknadveri-moscow) + сам домен региональный, возможно тогда даже и проще лезть такие домены будут, тем более в мета можно будет написать ГОРОД на каждом региональном сайте.

---------- Добавлено 19.11.2014 в 09:44 ----------

з.ы.Вариант с ЯК остается один риск:

не факт, что ТС за 15к возьмут в каталог. Так что тоже есть риск и его не стоит списывать!

Мужики, объясните, что означает "сменить порт"? У самого выделенный сервер, хотел бы провести такую манипуляцию!

Anulja:
Есть инструмент отклонения ссылок вручную в Гугле.

Ссылка

Я знаю, что такое дисалов тулс и уже не раз снимал ручные санкции при помощи отклонения ссылок через этот инструмент.

Но при чем здесь этот инструмент? Вы ведь ссылки сняли физически - следовательно они сами пропадут и нечего будет отклонять.

hostm:
Т.е. вы физически убрали ссылки, но не сообщали об этом через ВМТ?

А как можно физически сообщить в ВМТ то, что сняли ссылки?😂

Ссылки просто снимают, далее в Гугле они пропадает, все в итоге нечего отклонять, т.к. их нет.

Ребзя. У меня еще такая проблема. Ест ькуча парсеров, они парсят мой контент. Сайты УГ, это даже не сайты, а доры. По куску текста доры выше меня, хотя я являюсь первоисточником. То есть меня Гугл полностью пессимизировал.

Как защититься от этих парсеров?

Иначе любой контент, который я выкину у себя на сайте, станет не уникальным и дорвеи будут выше меня, т.к. Гугл на меня болт положил.

А если на сайте порядка 4 000 000 (хотя это нужно еще считать) символов текста, из них половина - это точно копипаст. Что посоветуете?

Я думал удалять его, но это около 4000 полезных страниц (без пагинации). Всего на сайте около 7000-8000 страниц.

аналогичная ситуация. Интересно было бы какой-то кейс прочесть или личный опыт форумчан услышать

Всего: 1233