- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем приветствую! Сейчас начал развивать один проект, возник такой вопрос:
В гугле позиции растут, в яндексе - нет.
Начал искать причину. Оказалось, что я продвигаю страницы site.com/category/product, а яндекс намерено кушает site.com/product.
Это интернет магазин, то есть описанные выше страницы - идентичны. Что тоже несомненно плохо для поисковиков.
Добавил в robots.txt disallow /product, для каждой такой страницы. Буду ждать поможет ли.
А пока хочу услышать мнение экспертов - насколько важны дублирующиеся страницы, и стоит ли убирать для роботов прямые ссылки(2го уровня), если продвигаются ссылки через категорию (3го уровня)?
Это интернет магазин, то есть описанные выше страницы - идентичны. Что тоже несомненно плохо для поисковиков.
Добавил в robots.txt disallow /product, для каждой такой страницы.
Здесь написана каша. Опишите другими словами что у вас там происходит?
Хотя нет, если это свойство движка и вы не хотите чтобы страница категории учавствовала в поиске, то закрыли правильно.
А пока хочу услышать мнение экспертов - насколько важны дублирующиеся страницы, и стоит ли убирать для роботов прямые ссылки(2го уровня), если продвигаются ссылки через категорию (3го уровня)?
Ну если у вас товаров 100-200 то можете попытаться набить главную ссылками на сами товары и они у вас получатся вторым уровнем, однако если их тысячи, то обойти закрытые категории вам поможет карта сайта.
Я клиенту год назад ставил OpenCart под бурж гугл - тоже самое было..Помогла установка плагина, который прописывал canonical...
Я клиенту год назад ставил OpenCart под бурж гугл - тоже самое было..Помогла установка плагина, который прописывал canonical...
У меня вроде обе ПСки нормально все схавали, но тем не менее не подскажите что за плагин? Ибо на Яндекс надейся, а сам не плошай))
Помогла установка плагина, который прописывал canonical...
Так это как бы уже реализовано и без плагинов
И правда ситуацию описал криво.
Суть:
Уже куплено немало ссылок на товары по низкочастотникам такого вида: "сайт.ру/категория/товар"
В индексе яндекса: "сайт.ру/товар"
В robots.txt: "disallow: сайт.ру/товар"
Пока роботс нормально не прочитался яндексом, но в разделе "страницы в поиске" в Яндекс ВебМастере отображаются только ссылки типа "сайт.ру/товар", а ссылок "сайт.ру/категория/товар" - нет вообще.
Может быть есть смысл дописать "Allow: сайт.ру/категория/товар"?