netcat

Рейтинг
40
Регистрация
29.08.2010

vigilant, vagogrande спасибо за полезные советы по теме вопроса.

В итоге я использовал два способа:

1. мета-теги <meta name="robots" content="noindex,follow" /> на ненужных страницах

2. мета-тег rel=”canonical” на предпочтительной, нужной странице

Ворожцов Виктор:
Убери секцию User-agent: Yandex, если они идентичные

Это поможет убрать дубли в Гугле?

В robots у меня две идентичные секции со списком команд:

User-agent: *

и

User-agent: Yandex

Сделать также и для Googlebot ?

Разве "User-agent: *" он не воспринимает и нужно отдельно прописывать?

*Спасибо за первый ответ!

Неужели никто не знает ответа? )

Проверка позиций виснет. Это была одна из основных фич ради которых покупалась программа. Когда почините?

Приобрел Semonitor Expert. Ключ получил быстро, все прошло гладко и вежливо. Большое спасибо, весьма доволен, скоро обращусь еще раз!

*Если возможно, то расширьте ассортимент софта для веб-мастеров...

Оцените пожалуйста домен: israinfo.net

Домену почти 3 года, под сайт о туризме в Израиле, показатели по нулям.

Спасибо!

Усредненные цены по системе даются в интерфейсе поиска/профиля.

А много это или мало- решать только вам.

Программу оплатил, жду письма...

12 3
Всего: 25