- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет, есть проблема, по удалению из индекса страниц. Поставил мета тег роботс в noindex, удалились 2 млн. страниц за 2 месяца и осталось ещё 500 тыс., но теперь они удаляются по 10 тыс. страниц в день, и удаление займет годы, с такой динамикой. Что ещё можете посоветовать, для быстрого удаления страниц из индекса?
закрыть весь сайт, а потом по чуть чуть открывать нужное. Но я такое не делал, как вариант для экспериментов.
У гугла всегда так. Сначала он удаляет кучу страниц, а потом по 1 в сутки). Так что ждите несколько лет, удачи.
закрыть весь сайт, а потом по чуть чуть открывать нужное. Но я такое не делал, как вариант для экспериментов.
Стало ещё хуже, теперь он просто не ходит по страницам в сайтмапе и вообще не выкидывает ничего=(
https://www.google.com/webmasters/tools/url-removal
Тоже есть проблема.
Был сайт на английском, без трафика. Снес и не дождался обхода - повесил сайт на украинском, много страниц. Сменил в панели страну. Прошел месяц, из старых страниц Гугл выкинул десятую часть, входят новые пачками по 10-50 в день, а старые не выпадают. Мало того, большую часть новых страниц он пытается выдавать по англоязычным запросам...там тематика моб, комп...много слов на английском в тексте попадается...не знаю что делать и сайтмап и регион все есть.
Ждать полгода- год пока полностью переобойдет и поймет что там другой сайт?
Стало ещё хуже, теперь он просто не ходит по страницам в сайтмапе и вообще не выкидывает ничего=(
А как и что, вы там закрыли у себя по рекомендациям выше?
Весь сайт тегом "noindex" или в "robots.txt Disallow: /" ? =))
Вот у вас там несколько странное желание удалить из индекса, что зашло однажды неплохо ( вообще редкость большая когда, гугл более 2млн. страниц глотает). Одно дело страницы эти не существуют вообще физически, а когда они есть, но не индексировать их, то не факт что на фоне "многомиллионности" страниц сайта, всё исчезнет мигом. Они же всё одно у вас есть доступные по url, известными ранее для гугл. Он их продолжает видеть как 200 OK.
Т.е. в чём сама причина/желание удалить проиндексированное, что там такое у вас: неинтересные статьи, или это мусорные страницы пагинаций, фильтров, сортировок?
А как и что, вы там закрыли у себя по рекомендациям выше?
Весь сайт тегом "noindex" или в "robots.txt Disallow: /" ? =))
Вот у вас там несколько странное желание удалить из индекса, что зашло однажды неплохо ( вообще редкость большая когда, гугл более 2млн. страниц глотает). Одно дело страницы эти не существуют вообще физически, а когда они есть, но не индексировать их, то не факт что на фоне "многомиллионности" страниц сайта, всё исчезнет мигом. Они же всё одно у вас есть доступные по url, известными ранее для гугл. Он их продолжает видеть как 200 OK.
Т.е. в чём сама причина/желание удалить проиндексированное, что там такое у вас: неинтересные статьи, или это мусорные страницы пагинаций, фильтров, сортировок?
На каждой из страниц есть скопированный контент, который есть ещё на десятке страниц (это открытая инфа). Было изначально 14 млн. страниц в индексе. Желание удалить, т.к. контент скопирован (инфа из одного открытого американского гос. источника, которую можно копировать и она для этого и предназначена). Плюс отвалился трафик резко в марте после какого-то изменения гугла, ну и трафик только падает. Страницы уже где-то 5-6 месяцев отваливаются.
Все эти страницы закрыты тегом noindex, follow. Ну и пробовал закрывать все в robots.txt.
В данном случае вы можете попробовать воспользоваться инструментом удаления URL-адресов.
В данном случае вы можете попробовать воспользоваться инструментом удаления URL-адресов.
Поштучно 2 млн. страниц?
Поштучно 2 млн. страниц?
Там можно удалять разделами