согласен:)
nik2019 добавил 19.04.2011 в 15:31
через полгода существования узнаешь, что кучу дублей на сайте.
после установки joomsef, и еще прошло месяцев 6. Узнал, что есть еще дубли.
Жесть:)
nik2019 добавил 19.04.2011 в 15:32
в robots.txt - укажите
host:www.sait.ru
или
host:sait.ru
сниппет ого-го, где-то было подобное. Но только не помню это или нет.
да joomsef - не помогает удалять дубли, многое нужно закрыть в robots.txt
переносите и спите спокойно:)
Я бы делал 1 сайт для всех зон. ЯК - добавляете регионы, Гугл подстроиться сам по себе.
А ссылочную массу покупаете по зонам в частности.
Попробуйте по крайне мере так.
Возможно, кто-то из форума по-другому считает. Подождите с ответами.
nik2019 добавил 19.04.2011 в 14:58
если делать 4 сайта - то контент нужен, чтобы у всех был РАЗНЫЙ.
общего ТИЦа не будет, это разные сайты.
сделайте один сайт, и добавьте его в ЯК и там укажите 4 нужных вам региона.
у меня просто стандартный дизайн, все ок:) ему пофиг))
яндекс работает на себя:)
и запрещают go.php к индексации. - этого достаточно, чтобы он сохранялся.
удаляйте ссылки на 100%, которые еще не проиндексировались. Так много нельзя.
Снимите в общем 60% ссылок - это точно.