- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Классический пример дублирования:
В индекс попадают страницы вида site.ru/?id=695,site.ru/?id=678,site.ru/?id=645.
Они дублируют не только главную страницу, но и некоторые внутренние страницы, но наибольшее количество дублей - на главной странице.
Таких страниц на сайте не было и нет, со всех адресов с GET-параметром id поставлены редиректы 301 на основные страницы. (На всякий случай уточняю, что 302 редирект вместо 301 никто не Поставил, эта ошибка исключена).
То есть страниц нет, а в индексе они есть.
Вопрос - как можно быстрее всего исключить такие страницы из индекса?
1. disable duplicates with your robots.txt
2. use <link rel="canonical" href="http://example.com/">
3. remove duplicate pages from yandex https://webmaster.yandex.com/tools/del-url/
4. remove duplicate pages from google https://support.google.com/webmasters/answer/1663419?hl=en
Оптимизайка, Thank your very much!
---------- Добавлено 08.02.2017 в 09:39 ----------
1. disable duplicates with your robots.txt
2. use <link rel="canonical" href="http://example.com/">
3. remove duplicate pages from yandex https://webmaster.yandex.com/tools/del-url/
4. remove duplicate pages from google https://support.google.com/webmasters/answer/1663419?hl=en
It is possible only for the small number of pages.
In the case if there are thousands of such duplicated pages, it it impossible to submit every URL in del-url tools.
через панель вебмастера, но надо чтобы либо был запрет метатегами, либо 404, либо роботс.тхт - это касается яндекса
Есть программы которые позволяют массово отправлять на удаление, например такая программа как ComparseR способна... ну либо скрипт на imacros или зенке заказать
через панель вебмастера, но надо чтобы либо был запрет метатегами, либо 404, либо роботс.тхт - это касается яндекса
Есть программы которые позволяют массово отправлять на удаление, например такая программа как ComparseR способна... ну либо скрипт на imacros или зенке заказать
Вот это уже хорошая идея.
Зависит от количества таких страниц ,конечно.
А массовую отправку страниц на ПЕРЕиндексацию после смены урлов ComparseR может делать?
да, но сейчас в яндексе не более 10 в 1 день отправлять можно. Насчет гугла не знаю. демоверсии программы должно хватить для этого, т.е. покупать не надо ничего
---------- Добавлено 08.02.2017 в 11:24 ----------
важно чтобы потом они обратно не зашли, т.е. позаботится о закрытии их от индексации
да, но сейчас в яндексе не более 10 в 1 день отправлять можно. Насчет гугла не знаю. демоверсии программы должно хватить для этого, т.е. покупать не надо ничего
---------- Добавлено 08.02.2017 в 11:24 ----------
важно чтобы потом они обратно не зашли, т.е. позаботится о закрытии их от индексации
Но если их в robots.txt закрыть, то робот на них не сможет зайти. И не поймет, что их нужно удалить из индекса.
Павел Горбунов,
Только так
Redirect 410 /страница 1 от корня
и так далее, все страницы
Если прям быстро надо. А потом эти строки убрать и поставить редерикт
Но так я делать не советую
Но если их в robots.txt закрыть, то робот на них не сможет зайти. И не поймет, что их нужно удалить из индекса.
робот зайдет, просканирует и потом выплюнет запрещенные... но тут есть одно НО:
для яндекса правила в robots.txt железообетонны, а вот гугл может проигнорировать, поэтому для гугла чтоб на 100% надо использовать метатег robots почитать если не вкурсе
робот зайдет, просканирует и потом выплюнет запрещенные... но тут есть одно НО:
для яндекса правила в robots.txt железообетонны, а вот гугл может проигнорировать, поэтому для гугла чтоб на 100% надо использовать метатег robots почитать если не вкурсе
Мета-тег robots в данном случае лучше не использовать, чтобы избежать ошибок реализации.
Если настраивать его, и в случае поломки будет выводиться
<META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">
на нужных страницах, ничего хорошего от этого не будет.
а вот link rel= canonical - здесь поможет, и ошибок не возникнет.