Вообще среди страниц-результатов поиска могут попадаться целевые страницы. Например пользователь ввел "трусы felina". В данном случае пользователю должна отображаться страница - результат фильтрации по каталогу, т.е. именно та страница, на которую и продвигаются эти трусы, а не просто результат поиска.
Т.е. результаты поиска должны быть интегрированы в структуру сайта.
Если поиск и отобразит чушь или работает не правильно, то результаты закрыть.
не в коем случае не закрывать от индексации, однозначно мета-тег роботc - noindex,follow
Настройка канонических URL используется для закрытия страниц, которые содержат нечеткие дубли (частичные дубли) других страниц. Например страницы с ассортиментом товара, но с разной сортировкой. Так вот на всех страницах-сортировках прописывается канонические URL. Тоже самое можно сделать, настроив параметр Clean-param в robots.txt.
Был очень крупный портал недвижимости и там было очень много нечетких дублей для страниц с квартирами - много различных сортировок: по комнатам, цене, площади, удаленности от города и т. п. Проблема в том, что индекс замусорится такими ненужными страницы и из-за квоты индексации не могли в индекс попасть нужные страницы - целевые. Так вот после настройки - мусорные страницы выпали, а нужные зашли. Трафик сильно подрос.
реально всем советую, хорошая штука.
Более подробно читайте в справке Яндекса - там все очень хорошо написано
Текст должен быть для людей, забудьте понятие "SEO-текст". Если посетителю текст не нужен - так не размещайте его. А вообще посмотрите конкурентов по ВЧ-запросам - они много что скажут ))
Сквозняк - это точно не вариант. Много раз пробовал, эффекта меньше, чем если бы она была с морды. Ссылка точно должна быть анкорная. Главное правило - если по ссылке будут переходить посетители, то такая ссылка сработает очень-очень хорошо. Подумайте где лучше поставить. Я обычно договариваюсь, чтобы на главной был блок типа "наши партнеры" ну что-то в этом роде и уже оттуда идет анкорная ссылка для людей, с названием компании и т. п. Вообще донора надо посмотреть, так тяжело говорить.
Если дело касается цвета, то целевая страница для запроса "черные туфли" - должна быть результат фильтрации в каталоге по параметрам: категория=туфли, цвет=черный. А вот теговый механизм имеет смысл использовать, если целевые запросы не вписываются в структуру сайта, например "молодежные туфли" (абстрактный пример). Они ведь могут быть как черные так и белые. В данном случае на всех молодежных туфлях нужно прописать тег "молодежные туфли" и такая страница и будет релевантной для запроса "молодежные туфли"
В данном случае необходимо использовать XML-карту сайта. Очень хорошо ее генерит программа Screaming frog (в инете можно найти кряк, если не найдете - обращайтесь ко мне, могу дать). Не забудьте про следующее:
1. В robots.txt указать ссылку на XML карту сайта в директиве "Sitemap"
2. В панеле web-мастера Яндекса загрузить XML-файл с картой сайта
Если URL слишком много и XML-файл превышает 10 Мб, то можно использовать несколько файлом, ссылки на каждый нужно указать в robots.txt ну и в панели веб-мастера.
А вот HTML-карту сайта с большой портяной URL я бы не стал делать, так как HTML - это подразумевается для людей, а страницы не для людей - всегда плохо.
Кейс «Вывод из под фильтра»
Есть сайт информационной тематики (сонник), представляет собой набор уникальный статей про толкование снов.
Проблема
5 декабря 2014 г. большинство ВЧ-запросов, а также многие НЧ проседают за ТОП 100 (до этого были в ТОП 10). Пишем письмо в Яндекс, они отвечают, что поисковый спам.
Что сделано?
1. 2-3 письма в Яндекс, в результате чего узнаем, что на сайте есть переспам (частое употребление одного и того же слова).
2. Первое что я проверил – это тексты на всех страницах. Скачиваем все URL сайта с помощью программы «Screaming Frog». Далее с помощью двух мною разработанных программ я получаю все тексты с помощью регулярного выражения. Затем с помощью второй программы, которая может определять точные и морфологические вхождения (также разработана мной) я ищу вхождения во всех текстах ключевых запросов. В итоге в текстах переспама не находим.
3. Остается только переспам в сквозном навигационном меню. В нем было порядка 30 ссылок, тексты которых формировались по шаблону типа «к чему снится …», также наличие однокоренных слов «сон».
4. Собираем спрос по всем 30 пунктам меню, чтобы определить наиболее эффективные из них (разделы, которые принесут наибольшее количество трафика)
5. Сокращаем меню в 3 раза, убираем почти все однокоренные слова «сон»
6. Пишем письмо в Яндекс
Результат
1. Все запросы вернулись в ТОП 10
2. Многие НЧ-запросы вошли в ТОП 10 Яндекса
3. Трафик не только вернулся, еще и повысился в среднем на 2000 посетителей в день
Динамика поискового трафика до попадания под фильтр и после его снятия
Динамика поискового трафика по неделям
За последние 6 месяцев поисковый трафик увеличился на 42 000 посетителя в месяц.
Если кому нужна консультация, пишите в скайп или на почту. Готов взять проекты на продвижение.
Skype: fomin-dev
E-mail: fomin@seograde.ru
Кто не видел, читайте мое портфолио: https://yadi.sk/i/Ewi7vW3Bbfqx9 (обновил информацию про гарантии)
Жду ваших заявок на почту или Skype.
Почта: fomin@seograde.ru
Новогодние скидки!!!
До 31 декабря включительно всем скидка на любые услуги 15%!!!
Готов взять проекты на продвижение и аудиты.
Пишите в скайп: fomin-dev