Опыт есть, я просто изменил текст страниц на "уникальный", через три недели некоторые из низ уже были в серпе Яндекса, остальные пока еще нет (прошло окло 5 недель), жду.
На счет скорейшей реанимации не знаю, робот Яндекса бывает на сайте несколько раз в неделю, но это не дает 100% результата, пока по крайней мере.
Разрешено все, что не зарещено.
Всем огромное спасибо, сделаю по первому варианту.
http://notes.webartsolutions.com/archives/000213.html на мой взгляд одно из лучших разъяснений.
Kost, Такой вариант тоже должен работать?
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /editor/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/
Disallow: /installation/
Host: www.site.ru
Т.е. правильным будет так?
User-agent: Yandex
Быстрый алгоритм - основная функция Яндекса - поиск. Яндекс начинает отсеивать дубли, когда пользователь начинает листать страницы с результатами поиска, при этом количество найденных документов уменьшается, ИМХО конечно. Но по-моему представители Я сами так об этом писали где-то на этом форуме.
У меня интернет-магазин, товар не уникальный. Например, 15 однотипных транзисторов на разные рабочие напряжения от 100В до 1500В. Что писать 15 разных описаний на совершенно однотипный товар, различия только в одном параметре. И таких товаров около 2000, а запросы от 1 в год до 40 в месяц по каждому товару. Если писать для всех уникальные (с точки зрения поисковиков) описания, то придется нанять целый штат копирайтеров...
Как быть уверенным, что поисковики расценят получившееся, как уникальный контент?
ХренРедькиНеСлаще, спасибо, а можно про группировку по-подробнее и ссылку на статью Трофименко.
Примеры сайтов, в личку, пожалуйста.