- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Речь про параметры типа ?sa=X&ved=0ahUKEwi6-uXIjcjPAhXG1xoKHcgzAkYQ9QEIHjAA, которые гугл добавляет к адресу сайта при редирректе со своей выдачи.
Яндекс все страницы с этими параметрами увидел каким-то образом. Соответственно, дубли. Он их загрузил, но они не в поиске. На таких дублях прописывается rel="canonical".
Насколько это вообще критично? Могло ли негативно повлиять на ранжирование?
Что лучше сделать? Запрет индексации через robots.txt? Или мудрить с редирректами?
Увидел через метрику (в счетчике надстройка стоит отправлять на индексацию страницы). По поводу гет-параметра не особо понятно. По вашим словам если пользователь перейдет с выдачи гугла то попадаете вместо страницы "/new/" на "/new/??sa=X&ved=0ahUKEwi6...".
https://www.google.ru/url?q=https://ru.wikipedia.org/wiki/%25D0%25A1%25D0%25BE%25D0%25B2%25D0%25BE%25D0%25BA_(%25D0%25B7%25D0%25BD%25D0%25B0%25D1%2587%25D0%25B5%25D0%25BD%25D0%25B8%25D1%258F)&sa=U&ved=0ahUKEwjI-66yldvPAhUIdCwKHbYbCRkQFggXMAE&usg=AFQjCNGXLtwFlR74qDBRaHXoLDiGOLrtFA
отвечает
HTTP/1.1 302 Found
Location: https://ru.wikipedia.org/wiki/%D0%A1%D0%BE%D0%B2%D0%BE%D0%BA_(%D0%B7%D0%BD%D0%B0%D1%87%D0%B5%D0%BD%D0%B8%D1%8F)
В https://www.google.ru/robots.txt запрет есть?
Увидел через метрику (в счетчике надстройка стоит отправлять на индексацию страницы). По поводу гет-параметра не особо понятно. По вашим словам если пользователь перейдет с выдачи гугла то попадаете вместо страницы "/new/" на "/new/??sa=X&ved=0ahUKEwi6...".
Если кликнуть по выдаче, то попадаем на /new/. Но если посмотреть на ссылку в выдаче, то видно, что редиррект идет на урл с параметрами.
---------- Добавлено 15.10.2016 в 00:29 ----------
https://www.google.ru/url?q=https://ru.wikipedia.org/wiki/%25D0%25A1%25D0%25BE%25D0%25B2%25D0%25BE%25D0%25BA_(%25D0%25B7%25D0%25BD%25D0%25B0%25D1%2587%25D0%25B5%25D0%25BD%25D0%25B8%25D1%258F)&sa=U&ved=0ahUKEwjI-66yldvPAhUIdCwKHbYbCRkQFggXMAE&usg=AFQjCNGXLtwFlR74qDBRaHXoLDiGOLrtFA
отвечает
HTTP/1.1 302 Found
Location: https://ru.wikipedia.org/wiki/%D0%A1%D0%BE%D0%B2%D0%BE%D0%BA_(%D0%B7%D0%BD%D0%B0%D1%87%D0%B5%D0%BD%D0%B8%D1%8F)
В https://www.google.ru/robots.txt запрет есть?
В роботсе у гугла? Запрета нет.
В роботсе у меня на сайте - тоже не запрещено.
---------- Добавлено 15.10.2016 в 00:35 ----------
Проверил ответ сервера по ссылке гугла на мой сайт с параметрами - 200. Это как?
Что лучше сделать? Запрет индексации через robots.txt? Или мудрить с редирректами?
запрет в роботс, надо было делать изначально. Если они в индексе то уже поздновато.
Если в индексе, то выгонять(открыв в роботс) метатегами ноиндекс. Выгнав, уже можно и в роботс закрыть от сканирования.
Такие дубли "размазывают" запрос по ним. гугл будет долго думать на какую страницу отдать запрос. Каноникал поможет, но лучше сделать как выше написал.
богоносец, а где вы взяли ссылку на вики такую? У меня, если набрать в гугле "совок" и копировать ссылку, то ответ по ней 200
---------- Добавлено 15.10.2016 в 00:50 ----------
запрет в роботс, надо было делать изначально. Если они в индексе то уже поздновато.
Если в индексе, то выгонять(открыв в роботс) метатегами ноиндекс. Выгнав, уже можно и в роботс закрыть от сканирования.
Такие дубли "размазывают" запрос по ним. гугл будет долго думать на какую страницу отдать запрос. Каноникал поможет, но лучше сделать как выше написал.
В гугле проблем с ранжированием нет. А вот яндекс сожрал кучу таких дублей. Каноникал изначально был. Метод я понял, попробую, спасибо.
---------- Добавлено 15.10.2016 в 01:15 ----------
Я понимаю, что сам допустил подобную ситуацию. Надо было коды ответа сервера настраивать. У вики в подобном случае 400 отдает.
Но как яндекс увидел эти страницы? Они загружены, но не в поиске, как пишет яндекс вебмастер. Это сказывается негативно на ранжировании?
Если тегами прописать noindex, страницы из загруженных пропадут?
По таким урлам лучше 404 отдавать?
Если настроить ответ сервера на такие страниуы с параметрами, которые задает гкгл в своих редиректах, то это не скажется негатиано на ранжировании в гугле?
По таким урлам лучше 404 отдавать?
и да, и нет. Время будет тратить на сканирование, с другой стороны поймет что нет их. Может и как клоакинг определить. Вам надо было изначально написать, под какую ПС делаете. Для яши достаточно закрыть в роботс.
ответ сервера по ссылке гугла на мой сайт с параметрами - 200.
(это у меня JS был отключен) Ищем в Гугле, в выдаче кривые ссылки,
ответ совсем не 200:
HTTP/1.1 302 Found
Location: https://ru.wikipedia.org/wiki/%D0%A1%D0%BE%D0%B2%D0%BE%D0%BA_(%D0%B7%D0%BD%D0%B0%D1%87%D0%B5%D0%BD%D0%B8%D1%8F)
А по вашей 200...
Откуда такие ссылки? Ну может кто из выдачи скопировал и где-то оставил. Не знаю, но что-то в индексе их не много. Но почему бы не 301 отвечать?
На таких дублях прописывается rel="canonical".
Насколько это вообще критично? Могло ли негативно повлиять на ранжирование?
Что лучше сделать? Запрет индексации через robots.txt? Или мудрить с редирректами?
rel=canonical вполне достаточно