Товары - да, но не описания в полном объеме с сайта, так как обычно Маркет принимает существенно меньше сведений, чем указано на карточке (если только Вы не заполняли их сведениями, спаршенными из самого Маркета, без разбавки своими данными). В общем - пофик.
Не замечал. Если в YML отдается только параметрическое описание с ограниченным набором свойств (как чаще всего и бывает) - вред будет только для самого Маркета :)
Два года назад массовый редирект сайта емкостью в 25 тыс. страниц с неЧПУ на ЧПУ занял 4 месяца. Сайт был достаточно авторитетный и хорошо проходимый роботом, все дополнительные меры были приняты (кроме редиректора еще карту сайта сгенерили html и XML, навигация сама по себе была "быстрая" для робота, в мало кликов). И все равно 4 месяца ругани с саппортом Яндекса, какого черта так медленно все.
Так что не стоит.
А ключи из ЧПУ как-то все же засчитываются. И шансов получить дубли при нормальной настройке с ЧПУ - меньше, чем с get-адресацией.
Не стоит Вам возвращаться в былое, что-то не то Вы читали на форумах. Лучше бомбите УКОЗ баг-репортами, пущай чинят ЧПУ свой.
Соглашусь с Dreammaker и komdir, логичнее всего оставить карточку как есть, а на ней что-то типа "Товара нет в наличии" и ссылки на 2-3 аналога с картинками и красивыми призывными текстами типа "Коллекция зима-весна 2013 года, бла-бла-бла". Только аналоги нужно по типам продукции проставлять автоматом на актуальное, руками такие объемы логично не уподдерживаешься.
В XML-сайтмапе таким страницам самый низкий приоритет. Рубрики ушедшие в меню не выводить (ну тут от структуры каталога зависит). Товары в листинги продукции не выводить.
Тем самым сохраняем массу страниц сайта (для магазина - часто помогает), получаем внутреннюю перелинковку как по анкорам, так и по статвесу. И если у сайта ЧПУ и грамотно сформированные title у товарных страниц, то будет весьма полезно все это.
За всех не скажу, но по собственному опыту эту самую пользу вижу до сих пор.
Ни одна обертка "тегом" или простановка атрибута к <a> не поможет 100% закрыть ссылку. Только если скрыть саму ссылку из анализируемого роботом кода страницы.
Рекомендую посмотреть на данный способ http://devaka.ru/articles/hide-links-from-google
Достаточно действенно, особенно если скрипт обработчик вынести в отдельный файл в директорию, закрытую к посещению ботами.
Еще вариант того же самого http://alaev.info/blog/post/4042
5 минут в Гугле помогают найти много интересного :)
Не могу понять, уже два месяца эпизодически захожу на solomono.ru со стартовой страницы, вбиваю URL сайта, который хочу проанализировать, жму Enter или "Найти", происходит смена URL в адресной строке браузера (get-переменная search=... появляется, вроде все в порядке), но остается все также стартовая страница... И никаких результатов.
Писал об этом по электронке саппорту, ответа не воспоследовало.
Проблема не в кеше явно, так как смотрел разными браузерами, чистил кеш и прочее. Поскольку перейти на страницу с УРЛом могу, значит не файрвол. Вот что это может быть?
И да, регистрировался, логинился - результат тот же самый
1. Смотрите запрос вот так "!слово1 !слово2" в вордстате, полученную цифру смотрите в районе строки "По точной фразе "!слово" — [ваше реальное число показов] показов в месяц."
Полученное число показов поделите в среднем еще на 1,5 - вот потенциальное число пользователей. А поделив еще на 30 - получите число посетителей по запросу в день в максимуме (чего не бывает обычно).
Смотреть Вордстат лучше с ограничением по региону, к которому привязан сайт (если регион привязан)
2. Введите этот же запрос в поиске и посмотрите на сниппет и текст ссылки (заголовок). Лично Вам захотелось бы туда кликнуть? А вашим знакомым? Проведите тест - попросите знакомых, не знающих адрес Вашего сайта, ввести запрос и посмотрите, какие ссылки и почему они будут кликать. Мини-юзабилити тест такой.
Если тайтл и сниппет сайта не очень - попробуйте улучшить (3-4 апдейта - и можно добиться цели).
И вот только тогда смотрите реальную получаемую кликабельность.
А вообще оцените запрос, насколько он вообще кликабелен чисто логически. Может, запрос предполагает, что пользователь, введя его и посмотрев результаты поиска "по диагонали", сразу начнет его уточнять, ибо в массе получит результаты не ахти и даже ваш сайт на первом месте под давлением окружения - не будет кликнут. Shema, опередил в мысли :)
Где-то так получается направление мысли.
Второй АП и двадцать постов назад. И да, поздравляю, Вы попали в тестовую выборку видящих. Сам такого не наблюдаю.
А вы не пробовали вот так в htaccess на старом домене www.aaaa.ru прописать?
RewriteCond %{HTTP_HOST} !^www\.bbb\.ru
RewriteCond %{REQUEST_FILENAME} !robots\.txt$
RewriteRule (.*) http://www.bbb.ru/$1 [R=301,L,QSA]
И там же оставить robots.txt с правильным хостом. То есть редирект для всех страниц, кроме robots.txt, который робот радостно прочтет и учтет пожелания по верному хосту.
Это, конечно, верно только в случае полной "зеркальности" структуры сайтов на двух этих доменах.
На счет перетекания тИЦов не знаю, никогда этот вопрос в принципе не волновал, но для грамотного переезда сайта на новый домен (или склейки www и без него и прочих схожих ситуаций) - отличное решение. Главное - траф не теряется, люди попадают куда надо, даже переходя по старым ссылкам с сайтов и из СЕРПа.
Скорректируйте верстку. Уберите имидж-мап. Оставьте графику фоном, поверх него поставьте с помощью CSS обычную графическую ссылку с display: block; width: ???px; height: ???px; text-indent: -6000em; расположив именно там, где раньше были пределы имидж-маповской арии. Соответственно для робота это обычная текстовая ссылка с нужным Вам анкором. Для человека - он кликает по графической ссылке (логотипу?) Все счастливы.
Данный прием подмены текста графическим фоном описан лет десять назад и прекрасно работает.