- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго всем времени суток,
столкнулся с проблемой индексации каталога товаров Яндексом и Гуглом. Сайт www.expert-automatic.ru в настоящее время содержит каталог из ~ 650 товаров, при этом в индексе Яндекс находится 127 страниц, а в Гугле 99. В панели вебмастера Яндекса вижу, что загружено роботом 1097 страниц.
Сайту чуть меньше месяца. Многие товары в каталоге различаются незначительно. Может ПС исключают как они считают дублированный контент ?
Подскажите пожалуйста, как исправить ситуацию.
Подскажите пожалуйста, как исправить ситуацию.
На полное включение сайта в индекс требуется обычно 1-2 месяца, поэтому можно подождать.
Многие товары в каталоге различаются незначительно.
Вероятнее всего поисковики будут игнорировать похожие страницы.
P.S. Добавил в титл короткое описание, т.е для http://www.expert-automatic.ru/cat/electrotechnical/clamps/1375/ не "ASK 2 LD (AC)" а "ASK 2 LD (AC) - Клемма с держателем предохранителя (220V AC), со светодиодом"
На полное включение сайта в индекс требуется обычно 1-2 месяца, поэтому можно подождать. Вероятнее всего поисковики будут игнорировать похожие страницы.
можно подробнее, как определить что две страницы ПС определит как дубликат? может существуют какие-либо программные продукты или онлайн сервисы позволяющие определить похожие страницы.
P.S. Добавил в титл короткое описание...
спасибо за совет, так я и сделал
можно подробнее, как определить что две страницы ПС определит как дубликат?
Вот две страницы:
http://www.expert-automatic.ru/cat/electrotechnical/clamps/1375/
http://www.expert-automatic.ru/cat/electrotechnical/clamps/1376/
Единственной что их различает, так это название и артикул. Они в общей сложности занимают ~0,5-1% от всего текста, т.е. фактически статистическая погрешность. Значит дубликаты.
P.S. И наверное стоит сделать корзину для формирования заказа по аналогии с корзиной интернет-магазина.
Зачем создавать хороший каталог товаров без возможности заказа? Тогда уже проще распечатать его и разослать.
Вот две страницы:
... Единственной что их различает, так это название и артикул. Они в общей сложности занимают ~0,5-1% от всего текста, т.е. фактически статистическая погрешность. Значит дубликаты.
В индексе Яндекса присутствует сам раздел клемм (/cat/electrotechnical/clamps/), но нет ни одного товара (/cat/electrotechnical/clamps/*). Может дело всё-таки не в дубликатах ?
Может дело всё-таки не в дубликатах ?
На полное включение сайта в индекс требуется обычно 1-2 месяца, поэтому можно подождать.
А вообще вы не помогаете роботу индексировать:
- где карта сайта для ускорения индексации? (http://www.expert-automatic.ru/sitemap.xml)
- ошибки в роботс (не нужно писать пустой Disallow: )
А вообще вы не помогаете роботу индексировать:
- где карта сайта для ускорения индексации?
подожду ещё, прежде чем что-то предпринимать, но меня смущает большое к-во загруженных страниц при малом к-ве страниц в индексе, поэтому думаю что отсутствие карты здесь ни при чём.
- ошибки в роботс (не нужно писать пустой Disallow: )
Директивы Allow-Disallow без параметров.
Отсутствие параметров у директивы трактуется следующим образом:
User-agent: Yandex
Disallow: # тоже что и Allow: /
User-agent: Yandex
Allow: # тоже что и Disallow: /
vlasoff, по спецификации в robots.txt должны быть запрещающие инструкции, т.е. принцип "разрешено, если не запрещено".
Лучше делать в соответствии со спецификацией или правила для отдельных роботов нужно выводить в отдельные инструкции, чтобы те кто работает по стандартам нормально работали.
Да и xml карту сайта стоит сделать