Павел

Рейтинг
160
Регистрация
23.01.2006

sndr, звездочка в конце правила не нужна - она "по умолчанию" и так.

А вот если параметры есть у подпапок - вариант Staid самый правильный: Disallow: /*? проверенно рабочий для всех роботов, понимающих регулярки в правилах robots

Скорее в поиск стоит ввести zhopa и jopa и посмотреть, где будут в сниппетах подсвечены русское соответствующее слово. Так оно надежнее.

MS Visio возможно? И прочий софт бля рисования блок-схем, сейчас уже и не помню поименно...

Условные данные можно, например, по similarweb.com

Но это скорее для сайтов с более-менее существенной посещаемостью

полное отсутствие этих данных наблюдаю уже более года... даже по самым популярным запросам.

На http://saitreport.ru в отчетах в том числе и по грамматическим ошибкам постранично есть отчеты

Все реально. "Другие мета-описания" - здесь достаточно приписок к <title>, дескрипшну и кейвордам типа "... ~ Страница N", и программным условием убирать текст с самой страницы.

Уже много лет такое решение является стандартом дефакто, описано вроде еще у Ашманова в книге и много где. И все будет Ок.

Отдельные странички с региональными контактными данными офисов (совершенно не обязательно на поддоменах) + Яндекс.Справочник по каждому из офисов + Месяца три ожидания = необходимые регионы, присвоенные сайту в WMT

Чем плохо?

http://www.unmedia.ru/sokrytie-ssylok.html

Только сам скрипт вынести в файл в папку, закрытую изначально через robots.txt от ботов. Об это также здесь http://devaka.ru/articles/hide-links-from-google и здесь http://alaev.info/blog/post/4042

запрет разделов через robots.txt неполноценен, нужно еще на каждой из запрещенных страниц в <head> внести <meta name="robots" content="noindex,follow"> (запрет индексации с правом переходить по ссылкам, чтобы ссылочного веса не терять)

Закрывать ссылки на разделы в <noindex> также бессмысленно, единственно верный метод - закрытие через JS (<span data-lnk="{целевой урл}">, преобразуемый на лету в ссылку через например jQuery).

Естественно проверить, что запрещенные разделы в xml sitemap не попадают.

Тогда и Яша и Гоша будут комфортно игнорить разделы.

А вообще аффилейт-фильтр накладывается на связку "запрос-документы двух сайтов", так что если семантика у сайтов планируется разная, то можно и не сходить с ума, но все же неисповедим путь робота, будет неприятно, если по нужном запросу станет вылазить страница не того сайта из пары, нераскручиваемая... Так что решать Вам, но делать лучше сразу по-уму.

Всего: 257