- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В общем такая проблема:
На сайте стояла joomla, из за криворукости одного товарища сайт на любой запрос отвечал 200 ok. В результате сейчас в индексе 10000+ страниц, должно быть примерно 1000 (остальное - мусор)
Щас переписал полностью движок. Теперь проблема как лучше переиндексировать сайт?
1. Просто добавить sitemap и ждать пока в индексе появятся новые страницы и удалятся старые
2. Запретить весь сайт к индексации, дождаться пока все страницы удалятся, а потом переиндексировать
У гугла например есть возможность дать команду роботу удалить весь сайт или его разделы из индекса.
А у яндекса только форма "Удалить URL", но сами понимаете удалять 10000 url по одному нереально.
Кто что посоветует ?
Надо урлы смотреть и придумать robots.txt .
Т.е.? Имеете ввиду запретить в robots.txt старые url? Какой в этом смысл? На них и так 404 выдается.
Хотя может вы и правы. При след обращении к сайту робот прочтет robots.txt и увидев запрет на индексацию старых url - выкинет их из базы, а иначе придется ждать пока он каждую из старых страниц посетит и получит 404.
Тоже вариант. Спасибо.
PS старая версия работала на джумле.
Добрый день всем, похожая проблема.
Сайт был подвергнут XSS атаке и через форму поиска в индекс попало 350 лишних страниц со ссылками на другие ресурсы. Как быть? Если я запрещу весь этот раздел в robots.txt то они исчезнут из кеша ли нет? И как мне их удалить, чтобы они нпоисковиком больше не учитывались?
Буду признательна за совет.
Тоже нужно удалить страниц 300, через какое время они сами удалятся?
Можно ещё 301 редирект со старых страниц поставить.
Можно ещё 301 редирект со старых страниц поставить.
хм, жеско🚬
хм, жеско
Почему же? Нормальный способ)))
Так я не могу редирект с этих страниц поставить - это результаты поиска страницы типа search/?query=... и куча страшных знаков . Они в нормальном виде на сайте не существуют - генерятся только при вводе слова в поиск.
Надо урлы смотреть и придумать robots.txt .
и встречный вопрос к участникам: запретил поддомен в роботс, но данную дериктиву воспринял только яндекс, а у гугля как закрыть?
пару недель наблюдаю запрещенный поддомен в индиксе..
Так я не могу редирект с этих страниц поставить - это результаты поиска страницы типа search/?query=... и куча страшных знаков . Они в нормальном виде на сайте не существуют - генерятся только при вводе слова в поиск.
Ну закрой тотда в роботсе по маске search