- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день. У меня есть сайт-онлайн магазин где есть табличный вывод товаров с постраничными переходами + сортировки по полям. т.е. адрес типа ?page=5&sort=price во многих разных комбинациях поля, страниц и направлений.
И все это плохо индексируется. Т.е. гугл вебтулз говорит что у меня заголовки на всем это разнообразии повторяются. Тайтлы и описание у этих страниц одни и теже. Что, вроде как, довольно таки плохо для СЕО.
Попользовался мегаиндексом. Он тоже самое говорит. Возникла идея такая. Что я ссылки-сортировки оберну noindex и поставлю им rel=nofollow. А ссылки которые ведут на другие страницы page=1, page=2 и т.д. не буду закрывать. Т.е. гугл/яндекс бы заходил и не тыкал на ссылки выдачи контента в каком угодно многообразии, а переходил бы постранично и индексировал бы.
После того как закрыл это дело, переиндексировал сайт мегаиндексом. Но он всё равно ходит по всем страницам. Он вообще учитывает выставление noindex и nofollow для ссылок? Стоит ему в этом вопросе доверять?
+ запомненные страницы так или иначе останутся в кэше поисковиком и хорошо бы оставить только те, которые указывают просто на страницы.
Опять же. Есть какие-нибудь "устоявшиеся практики" как делают такое? Ведь вроде, обычная задача.
З.Ы. Искал подобное на форуме. Не нашел
переход на ЧПУ решит часть проблем. у самого токая же беда
переход на ЧПУ решит часть проблем. у самого токая же беда
Подскажите какого виде ЧПУ сделать?
я пробовал вида /page/1/sort/price, но это не особо ЧПУ
ЧПУ - человекопонятный урл вида
... /page/avtomobilniye_zapchasti/
Есть множество различных модулей ЧПУ
Предлагаю сделать так: при клике по, например, сортировать по цене, открывается страница сайта, где к title и description в конце добавляется строка "- отсортировано по цене".
сайт-онлайн магазин где есть табличный вывод товаров с постраничными переходами + сортировки по полям. т.е. адрес типа ?page=5&sort=price во многих разных комбинациях поля, страниц и направлений.
И все это плохо индексируется.
Плохо индексируется, ибо контент дублируется на страницах. Сортированные по различным критериям таблицы - это результаты поиска по сайту, те нечёткие дубли.
Яндекс за такое рано или поздно наложит санкции:
а в роботс.тхт закрыть от индексации религия не позволяет?
а в роботс.тхт закрыть от индексации религия не позволяет?
Это раздел для новичков, слов "религия не позволяет" можно было избежать, чтоб не показывать своего зазнайства. :)
ну, вопросы как бы задавались уже не мальчиком, но мужем, судя по контексту :)
именно поэтому я и не преминул указать на очевидные вещи с небольшой долей зазнайства:)
Вот как раз с disalow и не очень получилось хорошо...точнее совсем плохо.
Вкратце. Перешел на ЧПУ, нужные страницы стали выглядеть /stranica/slony
наряду с этим остались страницы сортиовко с адресами /index.php+бла блаббла
так вот я взял на радостях прописал в роботсе disalow: /index.php и одним махом запретил все мусорные, и что, ближайший ап и ярухнол с топ 10 в топ 50, срочно обрал эту запись, и в страницах с одресами не ЧПУ проставил метатеги robots=noindex, nofollow позиции вернулись с плюсом. так то