- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет,
Тут спрашивал где-то уже про это, хочу более детально разобраться.
1. По ошибке хостер настроил неправильный .htaccess и появлись дубли
было: site/country/ стало: site/country/?placeid=243
и индексе и те и те варианты, в выдаче правильный урл (без placeid). Видимо потому что есть ref=canonical.
И тем не менее, если сделать в яндексе поиск по placeid то таких страниц тоже навалом. Хотелось бы их исключить. Стоит ли или сам выкинет потом?
Может какой редирект насильственный сделать в .htaccess или в robots что нибудь прописать?
2. Смотрю в вебмастере много странных урлов пояивлось, не подскажите это почему такие? Может это из-за ботов или еще чего нибудь?
типа таких:
Особенно интересуют последние две..
Всем привет,
Тут спрашивал где-то уже про это, хочу более детально разобраться.
1. По ошибке хостер настроил неправильный .htaccess и появлись дубли
и индексе и те и те варианты, в выдаче правильный урл (без placeid). Видимо потому что есть ref=canonical.
И тем не менее, если сделать в яндексе поиск по placeid то таких страниц тоже навалом. Хотелось бы их исключить. Стоит ли или сам выкинет потом?
Может какой редирект насильственный сделать в .htaccess или в robots что нибудь прописать?
2. Смотрю в вебмастере много странных урлов пояивлось, не подскажите это почему такие? Может это из-за ботов или еще чего нибудь?
типа таких:
Особенно интересуют последние две..
1. редирект 301
2. проверять сайт на взлом
Можешь в роботсе прописать что-нибудь вроде
А по поводу странных урлов. Они какой код отдают? 404? Такие могут появляться от подклеек, например.Хостер, который лезет в htaccess, это не хостер. Если вносит исправления, по незнанию, тем более...
1. редирект 301
2. проверять сайт на взлом
Редирект такой правильный?
Кто нибудь может подсказать? То есть все что с параметрами страницы направляем на такую же без параметров
Хостер, который лезет в htaccess, это не хостер. Если вносит исправления, по незнанию, тем более...
1. редирект 301
2. проверять сайт на взлом
Проверку на взлом с чего стоит начать? С поиском последний измененных файлов? Что-то еще?
Можешь в роботсе прописать что-нибудь вроде
А по поводу странных урлов. Они какой код отдают? 404? Такие могут появляться от подклеек, например.Да 404..
Почитал про подклейки, в основном я так понял это делают при получении дропдоменов..
или злоумышленники тоже занимаются? чего они добиваются и что мне можно сделать?
Да 404..
Почитал про подклейки, в основном я так понял это делают при получении дропдоменов..
или злоумышленники тоже занимаются? чего они добиваются и что мне можно сделать?
и индексе и те и те варианты, в выдаче правильный урл (без placeid). Видимо потому что есть ref=canonical.
Яндекс может игнорировать указание canonical и помещать в индекс неканоническую страницу.
И тем не менее, если сделать в яндексе поиск по placeid то таких страниц тоже навалом. Хотелось бы их исключить. Стоит ли или сам выкинет потом?
Судя по всему placeid - это get параметр для внутреннего поиска по сайту.
Настраивайте Clean-param, чтобы Яндекс игнорировали его и не учитывал доп. страницы с этим параметром, иначе они так и будут гулять в индексе туда-сюда.
alexverem :
2. Смотрю в вебмастере много странных урлов пояивлось, не подскажите это почему такие? Может это из-за ботов или еще чего нибудь?
Таких URL-ов быть вообще не должно. Это служебные имена и команды, которые в токенах URL-ов как правило не используются.
Здесь два варианта, либо на сайте кривая адресация в URL-ы лезут ошибки и управляющие команды, либо извне сайт на подобные запросы отвечает кодом 200 и отдаёт контент, который потом индексируется.
Начните со второго, если по адресу
сайт отдаёт что-либо, кроме 404 страницы, то надо разбираться с настройкой 404 адресов.
сайт отдаёт что-либо, кроме 404 страницы, то надо разбираться с настройкой 404 адресов.
отдает 404, значит ничего не надо делать, ок спасибо
отдает 404, значит ничего не надо делать, ок спасибо
Если просто в переобходе, то ничего не надо делать. Но если эти адреса индексируются, то надо разбираться.
Настраивайте Clean-param, чтобы Яндекс игнорировали его и не учитывал доп. страницы с этим параметром, иначе они так и будут гулять в индексе туда-сюда.
Если мне нужно для всех урл на сайте не учитывать placeid и monthid, то что в robots нужно поместить?
То есть для таких урл:
site/kitaj/mart/?placeid=kitaj&monthid=3
site/kitaj/?placeid=kitaj
site/spain/mart/?placeid= spain &monthid=3
site/spain /?placeid= spain
И так далее..
То есть пути могут быть разные, но где бы не встречался placeid или monthid их не нужно учитывать
Предположу:
Хотя возможно нужны звездочки для шаблонов для того чтобы учитывались вложенные пути?
В яндекс примерах просто не нашел аналогичного случая (yandex.ru/support/webmaster/robot-workings/clean-param.html)..