- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток!
Гугл прислал сообщение такого рода:
"Робот Googlebot обнаружил чрезвычайно большое количество ссылок на вашем сайте. Это может свидетельствовать о проблеме, связанной со структурой URL-адресов сайта. Googlebot без необходимости сканирует большое количество различных URL, указывающих на идентичное или похожее содержание..."
На сайте у меня есть фильтр по параметрам товаров: при нажатии на какой-либо параметр - генерится адрес страницы, например site.ru/podrazdel/?id=1-212, также есть пересечение разных параметров (при пересечении одинаковых параметров - прописывается noindex, nofollow), которые имеют также свой адрес страницы - site.ru/podrazdel/?id=1-212,2-1231,5-12312.
Это все целевые страницы, которые Гугл считает одинаковыми, в следствии чего у меня падает индексация сайта.
Вопрос:
Как достучаться до техподдержки Гугла, чтобы обсудить с ними эту проблему? или Как можно без техподдержки решить эту проблему?
Можно ли добавить sitemap.xml чтобы робот гугла понимал что эти страницы не идентичны, а уникальны?
Читал в соседнем посте комментарий: закрой фильтр, создай sitemap.xml - в карте сайта будет огромное кол-во страниц (т.к. они мне нужны!!!) - не проигнорирует ли их Гугл как и до этого??
Закрыть фильтр не вариант, потому что Яндекс его не плохо хавает!
Рано или поздно Яша Вас тоже люто возненавидит и сильно так обрежет, так что я бы всётаки закрыл)
В том то и дело что фильтр у меня не имеет параметров фильтра, например site.ru/.../?filter... Закрывать в роботсе нечего))
Все страницы фильтра имеют уникальный адрес, правда не ЧПУ
Вы таким образом тегирование товаров реализовать пытались или что? Т.е. по какому признаку все эти страницы - целевые?
хвосты в урле после любой сортировки должны указываться после #
такие страницы - прямой путь под фильтр.
В каждом разделе есть отдельный фильтр по параметрам товаров.
Сделано это было для генерации страниц с целью сбора трафика по огромному кол-ву запросов, например, [бумага color copy а4], [папка конверт на кнопке а5].
Таким образом для запроса [бумага color copy] - отдельная страница, для запроса [бумага color copy а4] - отдельная страница, для запроса [папка конверт] - отдельная страница, для запроса [папка конверт на кнопке] - отдельная страница, для запроса [папка конверт на кнопке а5] - отдельная страница и тд.
1.В title попадают название фильтров?
2.Фильтры не генерируют пустых страниц?
3. Можно сделать разные условия при которых на страницы будет ставиться noindex,nofollow дабы не генерировались бредо-фильтры например: цвет,цвет,цвет или формат+формат+формат итд. Так же закрыть уровень фильтров более 3х или 4х
Думаю это должно помочь.
1.В title попадают название фильтров?
2.Фильтры не генерируют пустых страниц?
3. Можно сделать разные условия при которых на страницы будет ставиться noindex,nofollow дабы не генерировались бредо-фильтры например: цвет,цвет,цвет или формат+формат+формат итд. Так же закрыть уровень фильтров более 3х или 4х
Думаю это должно помочь.
1. Title генерируется по шаблону: {Page_name}: {parameter_name_1} {parameter_value}, {parameter_name_2} {parameter_value}...
2. Пустые страницы отсутствуют
3. Если для выбран цвет+цвет, формат+формат - то на странице прописывается noindex, nofollow. Что означает закрыть уровень фильтров более 3х, 4х? И как это можно реализовать?
Фильтры могут быть в разном порядке?
К примеру [папка конверт на кнопке а5] и [папка а5 конверт на кнопке] -что будет в данном случае?
Как вариант закрывать все фильтры, с доп. параметрами.
К примеру site.ru/podrazdel/?id=1-212,2-1231,5-12312
Закрываем все, где есть запятая - Disallow: /*,
Robots.txt tester
Фильтры могут быть в разном порядке?
К примеру [папка конверт на кнопке а5] и [папка а5 конверт на кнопке] -что будет в данном случае?
Как вариант закрывать все фильтры, с доп. параметрами.
К примеру site.ru/podrazdel/?id=1-212,2-1231,5-12312
Закрываем все, где есть запятая - Disallow: /*,
Robots.txt tester
При перестановке параметров фильтра - дубли отсутствуют.
Закрывать в том то и дело не желательно, т.к. потеряем трафик с большого кол-ва НЧ.