Посмотрел я этот registr.ak7.ru: каталогов с хорошим PR единицы, зато присутствует очень много поделок с бесплатного хостинга. Нет возможности отфильтровать каталоги по критериям: например, зачем сайту машиностроительного завода каталоги, посвященные тематикам "Спорт", "Женщины", "Образование" ну и т.д. А еще он не запоминает на каком этапе остановился процесс регистрации, хотя сделать это было бы совсем не сложно.
В общем, если автор этого сайта здесь присутствует, надеюсь критика пойдет на пользу.
Ага, хороший получится дорвэй :)
Miracle, тогда это будет уже не дорвей, а часть сайта, специально оптимизированная и выделенная под определенные запросы.
Professor, большое спасибо за ссылку: не знал, что есть такой алгоритм сравнения текстов. И вообще очень интересная статья.
Fitis, как причем тут тИЦ? Разве при расчете релевантности страниц запросу на Яндексе он больше не учитывается?
Что касается увеличения контента, то над этим работаем. К сожалению, подготовка информационного наполнения идет слишком медленно и ускорить ее я не в силах. Вот и пытаемся пока действовать по-другому.
Fitis, не спешите всех расстреливать :)
Ситуация следующая: есть сайт некой фирмы. Есть семантическое ядро, которое на 100% соответствует содержанию сайта. Но из-за небольшого размера сайта нет достаточного количества страниц, которые можно было бы оптимизировать под все поисковые фразы из ядра. А такая оптимизация (имеется в виду только техническая оптимизация с помощью тэгов) очень требуется, так как при ранжировании впереди оказываются совсем не относящиеся к тематике ресурсы, например, СМИ, когда-то опубликовавшие статью, содержащую такие же фразы. Соревноваться с ними в тИЦ не получится: не та весовая категория :)
Вот и приходится делать дубликаты страницы. Их содержание полностью соответсвует запросам, посетителей никто не обманывает. Они даже и не заметят, что есть несколько версий страницы.
Спрашивается, что в этом плохого и как бы вы поступили на моем месте?
Fitis, скрипт на Perl'е. Прикручен к страничке как SSI.
aka352, если бы разными были только теги title и meta-description, то вероятно так бы и произошло. Но в данном случае, тэги Hx тоже отличаются. Маловероятно, что содержание страниц на "одинаковость" проверяется путем выброса заголовков и сравнением всего остального. Впрочем, все сугубо ИМХО, посмотрим результаты.
NukerF, вы с этим сталкивались или это только предположение?
Хорошо, у меня вот, например, на оптимизируемой страничке новостная лента висит, которая обновляется несколько раз в неделю, а у Яндекса в сохраненной копии версия этой странички за прошлый год. Получается, что мало того, что он ее за год не переиндексировал, так и дата там древняя.