Не плохие, кроме того, что я очень осторожно отношусь к профайловым вещам... обжегся... а вот вики + закладки - нормуль
Но, для моего проекта этого объема будет маловато, скажем так...
Вы немного путаете понятия про дубли и про количество выданных в индексе страниц в пагинаторе гугла... Ни для ни одного из сайтов гугл не даст просмотреть все страницы... обрежет обязательно при перелистывании... и обрезание не обязательно означает, что непоказанные страницы - дубли...
Если Вы знаете свой сайт хорошо, и знаете все его старницы, то можно в итоге вручную все на дубли проверить, или ждать данные от WMT
300 старниц проверить, это не убрать 1 лям дублей
В зависимости от задачи... если нужно его запустить тоже, то поступить как описано выше, или, закрыть его нафик... я ж не знаю, какие цели и на сколько он полезен и живой
Вот для данного случая, как я написал выше, есть в гугле инструмент, на пожаловаться на неправдивый и т.п. контент... страница убирается гуглом в течении 24 часов из выдачи...
И на сайт, если на него будет переодически поступать разного рода жалобы, накладут санкции целиком, а на не одну отдельно взятую страницу...
Падает в 1.5-2 раза... Потом может быть взлет, но он не дотянет до старого трафика...
Если задумали переезд по 301 из-за бана - не советую... полегчает на несколько недель или месяц, через 1.5-2 месяца пессимизация доберется и до нового домена...
Если их адерса известны, то в чем вопрос? И их всего 200 :)
105 страничек проверить в гугле на дубляж и потом убить клоны... Это точно можно сделать за 3-4 дня...
Как для меня и на моем же опыте - идея хорошая и работающая...
Если кто может оказать подобные услуги, рассмотрю предложения в ЛС, очевидно, на платной основе... Работой обеспечу не на один месяц
Не за что :)
Ну, это и так стоИт :)
Вопрос был больше про то, как двигать сразу везде :)
В каталогах местных в 9 из 10 случаев требуют локальный адрес... часто директории глючат, работают с ошибками, не смотря на громкие названия, типа "Number One Australian Directory" :)) проблема найти действительно хорошие
Ручной способ поиска дублей - рутина конечно...
Проще всего добавить сайт в WMT и он, если будет находить дубли, будет их медленно и нудно переодически доставать и показывать...
По мере поступления, удалять нафик... Как?
301 - если нужно сохранить и передать вес старницы и/или на нее были внешние
302 - если есть внешние ссылки с трафиком, и/или не хотите склейки
410 - сообщить гуглу что страницы больше нет (лучше, чем 404, потому что 404 ошибку по ней гугл будет "вспоминать" месяцами)
или, внутри страницы ставить мета-noindex, что заставит робот убить ее везде...
301 в последнее время начал глючить... лучше применять остальные методы, по возможности... глюк в следующем - у меня, например, страницы, которые вроде все под 301, в индексе гугла, а нормальные, нет... может явление временное и пройдет, но у меня уже 2 недели не отпускает
Если есть прокешированные страницы, а на сайте их давно нет, то в том же WMT есть удаление страниц... Указываете какую и убиваете из индекса и из кеша этого паразита...
Прокешированные дубли проверяются так, команда в гугле site:ссылка_проверяемой_страницы
В выдаче будут кроме нее дубли... их и убивайте
1-3 месяца и победите всех, если будете все верно делать :)