- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайт должен отдавать только страницы которые есть на сайте
Все остальное это костыли, которые вы прикручиваете все больше и больше.
А лишние редиректы - не костыли?
Надо искать причину проблемы и её устранять, точно понимая - почему, что и зачем. Вот просто на все урлы с параметрами взять и повесить редиректы - так себе идейка.
Пользуюсь плагином уже 2 года: No External LInks. Любую страницу, картинку, сылку, можно открыть и закрыть от индекса. В роботе файле через СЕО плагины оставляем открытые для индекса - статьи, страницы, по необходимости картинки, категории и метки. В карте сайта также все по желанию добавляем в карту сайта - картинки, статьи, страницы, метки.
пример роботса текста
пример роботса текста
Это очень кривой роботс.
Все настройки индексации можно сделать в любом SEO-плагине - в целом и постранично. Взять хоть Rank Math. Но роботс - это про сканирование, не про индексацию.
К слову, вы проверяли, как рендерятся ваши странички вообще - и адаптив в частности? Вангую, очень криво.
А зачем нам ?utm_source и ?clid ???
действительно, напридумывают эти яндексы всяких меток и подставляют втихоря. резать все на корню!
Вы до сих пор верите в каконикал?
Я ничему не верю, кроме того что вижу. А вижу, гугл каноникал вполне себе учитывает. Яндекс 50/50, но если в каноникал тоже генерится кривой урл - то ваш совен = редирект на неканонические страницы...
Выше уже написали, нужно исправлять проблему, а не следствия. Типа редиректами или запретом в роботе. Внутренний ссылочный, вроде еще не отменили. А он будет на запрещенных страницах. Тоже с внешним, с ПФ...
Это очень кривой роботс.
Все настройки индексации можно сделать в любом SEO-плагине - в целом и постранично. Взять хоть Rank Math. Но роботс - это про сканирование, не про индексацию.
К слову, вы проверяли, как рендерятся ваши странички вообще - и адаптив в частности? Вангую, очень криво.
2й год им пользуюсь, страницы в поисковике яндекса уже минут через 10, робот не ругается, в индексе все, что нужно. Страницы, записи, категории метки открыл, когда их количество на статью привесило более 10 на метку. Все отлично! Ничего кривого нет. Ну может для майла - он мне особо и нет нужен. Гугл и Яндекс нормально индексируют. Дублей нет!
Хлам весь закрытый, важное открыто. Отдельные ссылки или картинки и страницы через плагин закрываю. При необходимости на время или постоянно.
2й год им пользуюсь, страницы в поисковике яндекса уже минут через 10, робот не ругается, в индексе все, что нужно. Страницы, записи, категории метки открыл, когда их количество на статью привесило более 10 на метку. Все отлично! ничего кривого нт. Ну может для майла - он мне особо и не нужен. Гугл и Яндекс нормлаьно индексируют. Дублей нет!
Понятно, что в индекс попадает, в конце концов, парсится в первую очередь текстовый контент.
А вы проверяли, что у вас там с мобилопригодностью? Наличием мусора в индексе? Контентными дублями? Полным объёмом того, что должно влиять на текстовую релевантность?
Вы можете терять в ранжировании и не понимать, в чём причина. А она вполне может состоять в ошибках сканирования и по итогам - ранжирования.
Разумеется, это не 100% правило для любого сайта, многое определяет и шаблон. Но как вебмастер и оптимизатор вы должны исключить любые негативные факторы и убедиться, что проблем они не составляют и не составят на перспективу.
Allow хотя бы соберите в единый блок и разместите после Disallow, чтобы директивы не отменялись. Кроме того, лишние пустые блоки - это обрыв в списке директив, и считывается роботом как новый блок для неуказанного бота.
Да и Host уже стоит снести, его Яндекс больше не учитывает.
А лишние редиректы - не костыли?
Надо искать причину проблемы и её устранять, точно понимая - почему, что и зачем. Вот просто на все урлы с параметрами взять и повесить редиректы - так себе идейка.
Ну какие проблемы все урлы с параметрами отдавайте кушать Яндексу
Он с удовольствием кушает особенно такие ?utm_source, ставя их в индекс, а на следующий день удаляет - ой извините запрещено в роботс.
Но основная страница, уже выкинута из индекса. ( Каконикал - год назад Яндекс отказался от использования - пора знать уже )
- Какие причины и что искать? В WP их нет во внутреннем ссылочном, их нет в карте сайта. ( можете запросить у ТС ).
Где искать? В кривом Яндексе, и писать им письма, чтобы исправили....
Причины в основном внешний спам, который Яндекс жрет все подряд, в том числе и ?utm_source.
- авито создает ссылочный спам, вы тоже внутри будете искать? Или вы первый раз об этом слышите?
- /?option=com_k2&view=itemlist&... спамщики поиск дыр в джумле, тоже внутри сайта?
- /?url=site.com - спам ссылочного, это тоже внутри сайта ищете?
Таких вариантов спама сотни на одну страницу сайта.
- Кому нравиться продолжаем пользоваться каноникал и роботс. Слово дубли страниц не для вас.
А темы плохая индексация сайта, вам как раз туда.
Понятно, что в индекс попадает, в конце концов, парсится в первую очередь текстовый контент.
А вы проверяли, что у вас там с мобилопригодностью? Наличием мусора в индексе? Контентными дублями? Полным объёмом того, что должно влиять на текстовую релевантность?
Вы можете терять в ранжировании и не понимать, в чём причина. А она вполне может состоять в ошибках сканирования и по итогам - ранжирования.
Разумеется, это не 100% правило для любого сайта, многое определяет и шаблон. Но как вебмастер и оптимизатор вы должны исключить любые негативные факторы и убедиться, что проблем они не составляют и не составят на перспективу.
Allow хотя бы соберите в единый блок и разместите после Disallow, чтобы директивы не отменялись. Кроме того, лишние пустые блоки - это обрыв в списке директив, и считывается роботом как новый блок для неуказанного бота.
Да и Host уже стоит снести, его Яндекс больше не учитывает.
Все норм и по мобильным и ПК. Дублей нет, нет картинок дублей текстовых страниц. все работает так, как мне нужно. В поиске гугл и яндекс только страницы, записи, категории и метки. Остальное закрыл. Ну картинки еще в поиске. Дублей нет ни каких! Никаких ошибок нет ни в яндексе ни в гугле.
3 сайта на разных шаблонах, все стабильно работает. Для меня норм такой вариант, ничего менять не хотел и не буду.
Ну какие проблемы все урлы с параметрами отдавайте кушать Яндексу
Для управления сканированием есть robots.txt.
Он с удовольствием кушает особенно такие ?utm_source, ставя их в индекс, а на следующий день удаляет - ой извините запрещено в роботс.
Сорян, не сталкивался. Но мне интересно, а рекламные кампании вы как отслеживаете? В рамках адвайты? И почему основная страница УЖЕ выкинута из индекса? Настолько всё плохо?
Какие причины и что искать? В WP их нет во внутреннем ссылочном, их нет в карте сайта. ( можете запросить у ТС ).
Ну вот у меня другая информация. WP залили кривой ап. Половина плагинов работает через Жэ. 3Жэ.
Но лечить поциэнта методом "резать к чёртовой матери" я бы поостерегся. В нормальном случае сначала смотрят, диагностируют, а потом дают советы.