- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
проблема не в безопасности, а в том количестве мусора, которое будет сканировать робот ;)
В robots.txt
Disallow: /*?
и rel="canonical" в помощь + иногда использую 301 редирек. проблемы могут быть я с этим согласен но пока не вижу у себя с этим проблему.
Стандартный фильтр в разделах каталога тоже закрыт от индексации так как использую SEO фильтр для этого но пока не во всех разделах каталога.
Про подбор товара результаты пока закрыты он индексации, с этим буду работать позже.
Но в общем я вас понял о чём вы хотели сказать, спасибо.
Disallow: /*?
и rel="canonical"
плохое решение
запрет в роботсе убъёт всё ссылочное и пф для данных страниц
а каноникл вообще не защитит от сканирования, просто будет тратиться квота индексатора на обход кучи мусора
плохое решение
запрет в роботсе убъёт всё ссылочное и пф для данных страниц
а каноникл вообще не защитит от сканирования, просто будет тратиться квота индексатора на обход кучи мусора
Я намеренно отключил эти страницы для индексации так как эти страницы не подходят и как вы заметили мусора много создадут и как я вам ранее ответил я использую SEO фильтр для этого как он работает можете посмотреть к примеру по этой ссылки https://fabrika-sveta.com/catalog/gauss/vid_tovara_blok-pitaniya/moshchnost_100-vt/
С квотами как вы говорите и скоростью индексации проблем нет, в поиск яндекса заходит в среднем за несколько часов, а то и минут.
Я намеренно отключил эти страницы для индексации
Disallow: /*?
все остальные правила у вас в роботсе излишни
подобное полностью убивает ссылочное и пф на страницах, а но вам точно надо?
Disallow: /*?
все остальные правила у вас в роботсе излишни
подобное полностью убивает ссылочное и пф на страницах, а но вам точно надо?
Не уверен, что закрытие Disallow: /*? убивает ссылочное и пф, думаете если пользователь посещает страницы с параметрами в ссылке /*? то ПС не могут определить ПФ и внешние ссылки с этим параметром не будут нести пользы для сайта?
Diman777, пс будет просто всё это игнорировать
Diman777, пс будет просто всё это игнорировать
Я учту ваше мнение и проанализирую вашу информацию но думаю это не сильно сказывается на сайте в общем, возможно какое влияние и даёт но повторюсь я не уверен.
Disallow: /*?
все остальные правила у вас в роботсе излишни
подобное полностью убивает ссылочное и пф на страницах, а но вам точно надо?
А точно надо индексировать страницы с гет-параметром, Вы в этом уверены?
Намекаю: эти страницы - для юзеров, а не для роботов.
А точно надо индексировать страницы с гет-параметром, Вы в этом уверены?
большинства из них просто быть не должно, но это слишком сложная задача для разработчиков битрикса ;)
тут вопрос в грамотной архитектуре проекта и настроек сервера
простейшего контроля параметров они реализовать так и не смогли
большинства из них просто быть не должно, но это слишком сложная задача для разработчиков битрикса ;)
тут вопрос в грамотной архитектуре проекта и настроек сервера
простейшего контроля параметров они реализовать так и не смогли
Намешали всё подряд, однако... По-видимому, у Вас отсутствует понимание сути вопроса.
Разработчики битрикса - понятие абстрактное.
Настройки сервера для битрикса не имеют отношения к вопросу.
Архитектура проекта может изменяться для каждого конкретного сайта, хотя само понятие "архитектура проекта" требует конкретизации.
Непонятно, почему это каких-то страниц не должно быть.
Какой такой контроль надо организовать, который организовать не смогли.