noindex не вариант, так как страница реално существует (зачем её закрывать), надо удалить дубль.
1. заккрыть дубли в robots
2. дождаться когда появятся ошибки сканирования в ВМ.
3. в оптимизация \ удалить url адреса (вводить без http://сайт.ру)
4. отметить как исправленные
5. ждать
6. при появлении новых повторить п.3, 4
П.С. некоторые дубли в ошибках могут появиться и через полгода (зависит от сканирования страницы) пройдено.
За одно проверьте Оптимизация \ оптимизация HTML (бывает полезно).:)
Как то так.
Я считаю это за плюс, так как если в выдаче будут рядом сайты для Российского трафика
site.ru/sranica
сайт.рф/страница
думаю, перейдут сначала на второй.🍿
Такая же история😕
С 2009года .Эх )))) Ссылочек на другие страницы сайта чо не накидали😂
И что что обсуждалсь, мы ждали ваше высказывание?☝---------- Добавлено 14.09.2012 в 22:01 ----------ns frjdf [ez pltcm yf[jlbicz? xnj,s ujdjhbnm xnj dct gjikb yf[eq.,🍿
Может гдето пост на англицком видели, или не.
Пятница, однако.😂
Выше постом!😂
Замечено:
Ещё заметил такую закономерность - за сутки перед апом, посещаемость возрастает, значит после апа падает.🍾
Приятно, что сегодня не такой день.:)
Тематика сайтов какая, извеняюсь за любопытство интересно наверно про бизес, раз так легко топы рвут ваши сайты?:)