Павел

Рейтинг
160
Регистрация
23.01.2006

Товары - да, но не описания в полном объеме с сайта, так как обычно Маркет принимает существенно меньше сведений, чем указано на карточке (если только Вы не заполняли их сведениями, спаршенными из самого Маркета, без разбавки своими данными). В общем - пофик.

Не замечал. Если в YML отдается только параметрическое описание с ограниченным набором свойств (как чаще всего и бывает) - вред будет только для самого Маркета :)

Два года назад массовый редирект сайта емкостью в 25 тыс. страниц с неЧПУ на ЧПУ занял 4 месяца. Сайт был достаточно авторитетный и хорошо проходимый роботом, все дополнительные меры были приняты (кроме редиректора еще карту сайта сгенерили html и XML, навигация сама по себе была "быстрая" для робота, в мало кликов). И все равно 4 месяца ругани с саппортом Яндекса, какого черта так медленно все.

Так что не стоит.

А ключи из ЧПУ как-то все же засчитываются. И шансов получить дубли при нормальной настройке с ЧПУ - меньше, чем с get-адресацией.

Не стоит Вам возвращаться в былое, что-то не то Вы читали на форумах. Лучше бомбите УКОЗ баг-репортами, пущай чинят ЧПУ свой.

Соглашусь с Dreammaker и komdir, логичнее всего оставить карточку как есть, а на ней что-то типа "Товара нет в наличии" и ссылки на 2-3 аналога с картинками и красивыми призывными текстами типа "Коллекция зима-весна 2013 года, бла-бла-бла". Только аналоги нужно по типам продукции проставлять автоматом на актуальное, руками такие объемы логично не уподдерживаешься.

В XML-сайтмапе таким страницам самый низкий приоритет. Рубрики ушедшие в меню не выводить (ну тут от структуры каталога зависит). Товары в листинги продукции не выводить.

Тем самым сохраняем массу страниц сайта (для магазина - часто помогает), получаем внутреннюю перелинковку как по анкорам, так и по статвесу. И если у сайта ЧПУ и грамотно сформированные title у товарных страниц, то будет весьма полезно все это.

За всех не скажу, но по собственному опыту эту самую пользу вижу до сих пор.

Ни одна обертка "тегом" или простановка атрибута к <a> не поможет 100% закрыть ссылку. Только если скрыть саму ссылку из анализируемого роботом кода страницы.

Рекомендую посмотреть на данный способ http://devaka.ru/articles/hide-links-from-google

Достаточно действенно, особенно если скрипт обработчик вынести в отдельный файл в директорию, закрытую к посещению ботами.

Еще вариант того же самого http://alaev.info/blog/post/4042

5 минут в Гугле помогают найти много интересного :)

Не могу понять, уже два месяца эпизодически захожу на solomono.ru со стартовой страницы, вбиваю URL сайта, который хочу проанализировать, жму Enter или "Найти", происходит смена URL в адресной строке браузера (get-переменная search=... появляется, вроде все в порядке), но остается все также стартовая страница... И никаких результатов.

Писал об этом по электронке саппорту, ответа не воспоследовало.

Проблема не в кеше явно, так как смотрел разными браузерами, чистил кеш и прочее. Поскольку перейти на страницу с УРЛом могу, значит не файрвол. Вот что это может быть?

И да, регистрировался, логинился - результат тот же самый

1. Смотрите запрос вот так "!слово1 !слово2" в вордстате, полученную цифру смотрите в районе строки "По точной фразе "!слово" — [ваше реальное число показов] показов в месяц."

Полученное число показов поделите в среднем еще на 1,5 - вот потенциальное число пользователей. А поделив еще на 30 - получите число посетителей по запросу в день в максимуме (чего не бывает обычно).

Смотреть Вордстат лучше с ограничением по региону, к которому привязан сайт (если регион привязан)

2. Введите этот же запрос в поиске и посмотрите на сниппет и текст ссылки (заголовок). Лично Вам захотелось бы туда кликнуть? А вашим знакомым? Проведите тест - попросите знакомых, не знающих адрес Вашего сайта, ввести запрос и посмотрите, какие ссылки и почему они будут кликать. Мини-юзабилити тест такой.

Если тайтл и сниппет сайта не очень - попробуйте улучшить (3-4 апдейта - и можно добиться цели).

И вот только тогда смотрите реальную получаемую кликабельность.

А вообще оцените запрос, насколько он вообще кликабелен чисто логически. Может, запрос предполагает, что пользователь, введя его и посмотрев результаты поиска "по диагонали", сразу начнет его уточнять, ибо в массе получит результаты не ахти и даже ваш сайт на первом месте под давлением окружения - не будет кликнут. Shema, опередил в мысли :)

Где-то так получается направление мысли.

BralBine:

О как. Давече ссылки в сниппетах?

Второй АП и двадцать постов назад. И да, поздравляю, Вы попали в тестовую выборку видящих. Сам такого не наблюдаю.

А вы не пробовали вот так в htaccess на старом домене www.aaaa.ru прописать?

RewriteCond %{HTTP_HOST} !^www\.bbb\.ru

RewriteCond %{REQUEST_FILENAME} !robots\.txt$

RewriteRule (.*) http://www.bbb.ru/$1 [R=301,L,QSA]

И там же оставить robots.txt с правильным хостом. То есть редирект для всех страниц, кроме robots.txt, который робот радостно прочтет и учтет пожелания по верному хосту.

Это, конечно, верно только в случае полной "зеркальности" структуры сайтов на двух этих доменах.

На счет перетекания тИЦов не знаю, никогда этот вопрос в принципе не волновал, но для грамотного переезда сайта на новый домен (или склейки www и без него и прочих схожих ситуаций) - отличное решение. Главное - траф не теряется, люди попадают куда надо, даже переходя по старым ссылкам с сайтов и из СЕРПа.

Скорректируйте верстку. Уберите имидж-мап. Оставьте графику фоном, поверх него поставьте с помощью CSS обычную графическую ссылку с display: block; width: ???px; height: ???px; text-indent: -6000em; расположив именно там, где раньше были пределы имидж-маповской арии. Соответственно для робота это обычная текстовая ссылка с нужным Вам анкором. Для человека - он кликает по графической ссылке (логотипу?) Все счастливы.

Данный прием подмены текста графическим фоном описан лет десять назад и прекрасно работает.

Всего: 257