Alchemis

Рейтинг
80
Регистрация
22.11.2012

1.Более естественно наращивать ссылочную массу http://www.uploady.com/#!/download/Tvbmmo69F~f/kTcc_D_CvRkQ6hDD .

2.Оптимизировать мета-теги. Тайтл на главной "Главная"?

Дальше не смотрел...

Если под каждый регион сделан отдельный сайт и присвоен соответствующий регион, то аффилиата не будет. Главное, чтобы в одном регионе не было двух сайтов. Контакты возможно поставить разные для каждого города?

Но лучше сделать один сайт с выбором городов (как и писали) не на поддоенах, добавить в каталог и присвоить нужные регионы. Так сайт отлично двигается и заметно сокращается бюджет на продвижение.

"Можно выявлять дубли через ПС, но это долго и некоторые адреса могут быть не проиндексированы." - как только пс находит дубль страницы - она выкинет его из выдачи.

"Нужно ли с этим бороться?" - да, советую сделать редирект. Т.к поисковики воспринимают обе ссылки как разные + если пользователи ставят ссылки на страницы, то "польза" от них рассеивается из-за дублирования.

По .htaccess - попробуйте добавить второй вариант к тому, что уже есть:

RewriteEngine On

RewriteBase /

RewriteCond %{REQUEST_FILENAME} !-f

RewriteCond %{REQUEST_URI} !(.*)/$

RewriteRule ^(.*[^/])$ $1/ [L,R=301]

RewriteCond %{HTTP_HOST} ^www.site.ru$ [NC]

RewriteRule ^(.*)$ http://site.ru/$1 [R=301,L]

RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.html\ HTTP/

RewriteRule ^index\.html$ http://site.ru/ [R=301,L]

Имеет, если нужно продвигать страницы по нч запросам. Ссылки на "похожие материалы" как раз это делают.

Тег noindex закрывает только текстовое содержимое ссылки т.е анкор. Робот все равно будет ходить по таким ссылкам и учитывать их при ранжировании.

Тег ref="nofollow" говорит роботам не ходить по ссылкам, однако, "внутренний вес" все равно передается (в никуда).

p.s Во внутренней перелинковке не желательно использовать последний тег, лучше js-ссылки или что-то подобное.

1. Урлы подобного вида генерирует cms (установлен бажный плагин, к примеру);

2. Какой-то доброжелатель загоняет несуществующие url в выдачу (обнаруживается в логах сервера, многочисленные заходы по несуществующим урлам);

"Как бороться? Стоит ли забивать в robots?" - фактически, 404 ошибки - дело нормальное для пс. Но если их кол-во огромное, как вы пишете, то лучше закрыть для уверенности в роботс.

"page=x" - разбивка на страницы. Если содержимое на всех страницах одинаковое, то это считается дублями, следовательно, вредно, т.к поисковики очень не любят такое.

Что с этим делать - закрывать в robots.txt

На сайте обычно всегда найдется 100500 вещей, которые нужно оптимизировать, изменить, исправить. Сделайте сначала их, а потом уже извращайтесь с уникализацией кода.

Всего: 181