qilly

qilly
Рейтинг
411
Регистрация
28.03.2008
Должность
Утром делаю сайты, вечером срусь на форуме
Интересы
Драть телок, пить пиво
PaWell:
В гугл вебадмине есть функция "Параметры URL" позволяющая напрочь удалить все дубли по определенным параметрам в урле. В Яндексе такого нет?

В Яндексе нужно использовать Clean-param для этих целей в Роботсе...

aleksandrbol:
легче закрыть от всех

зачем? Ведь Гугл очень хорошо понимает prev/next

А вот тут прочитал рекомендации следующие по поводу страниц пагинаций:

1. На страницах пагинации указать атрибуты rel="next/prev"

2. Одновременно с этим закрыть страницы пагинации от Яндекса:

<meta name="yandex" content="noindex, follow" />

но позволить роботу ходить по ним (т.к. next/prev он не понимает).

Норм будет? что-то я озадачился )

integral1428:
Контент абсолютно во всей сетке полностью уникален без всякого шлака и тд.

Какие затраты на контент? Доход по месяцам за последние 3 месяца можете озвучить?

Коллеги, подскажите, что лучше юзать для сайта с большим кол-вом поддоменов? Let's encrypt теперь есть wildcard? Не пойму на них сайте.

aleksandrbol:
Что гет параметр сложно сравнить с истинным урлом и выдать 404?

Я очень много раз это просил его сделать, но он как-то все время так витиевато объясняет, мол так сделать нельзя. При этом прогер сильный, проект в одиночку поднял некислый.

burunduk:
qilly, это стандартный косяк практически всех коробочных цмс
что делать? - исправлять, сервер не должен отдавать 200 код ответа по таким страницам, вариантов тут 2 или 404, или 301 на правильную (реализуется намного сложнее)

P.S. если у вас битрикс, то повтор существующих параметров очень часто происходит в коробочной версии в различных мета для социалок, а пс их прекрасно кушает

У меня самописные CMS. При этом программист говорит что нельзя на такие страницы повесить 404...

Ну так и чего лучше для страниц пагинации юзать? У меня по одному проекту много таких, я раньше как-то не заморачивался, а сейчас думаю может убрать, чтобы меньше хлама в индексе было.

А кто еще как решает проблему каких-то мусорных генеренных страниц?

У меня к примеру в Вебмастере Яндекс показывает страницы типа:

/?page=fbrqfbnfdbnjwweyksxl&page=187

/?page=fbrqqierververveyksxl&page=4222

/?page=fdsvdsvdsvdsl&page=7123

?gcmes=312434&gcmlg=22344

И прочий бред, откуда они вообще берутся и стоит ли с ними бороться? Они то попадают в индекс, то Яндекс их исключает. CMS сама не генерит эти страницы, их как бы нет по факту.

WIKIMEO:
hqtexture, да, с FB я собственно траф и беру...

в рунете? Вроде Цукер тоже грозился охваты урезать...

Евген:
Фома, жизнь не только из интернета состоит. с одной стороны - море, солнце и тд, с другой - мало общения, нет никакого роста профессионального, нет работы и тд.

Почему нет? Сейчас все конференции имеют онлайн-формат. В Барселоне проводится крупнейшая конфа мобильных разработчиков (с Тенера билет 3к рублей туда-обратно). Есть еще истории типа Андрея Андреева (badoo), который изначально начал международный бизнес именно в Испании (не считая российских проектов ДО).

Всего: 4465