- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Почему гугл держит страницы в индексе которые отдают 404 или запрещены в robots.txt
http://awesomescreenshot.com/095kcuc52
Эти страницы уже больше трех месяцев висят непонятно почему. Такое впечатление что ему плевать на robots.txt.
Подскажите, может я чего то не знаю?)
Почему гугл держит страницы в индексе которые отдают 404 или запрещены в robots.txt
http://awesomescreenshot.com/095kcuc52
Эти страницы уже больше трех месяцев висят непонятно почему. Такое впечатление что ему плевать на robots.txt.
Подскажите, может я чего то не знаю?)
ага, у меня такое было...роботс запрещает поэтому и висят (тут на форуме так сказали)
открыл в роботс и сделал редирект 301 на морду
onikys, гугл действительно может игнорировать роботс нужно удалить из роботс и поставить на страницу ноиндекс робот зайлет прочитает и удалит. Потом закроете в роботс.
так стоит "<meta name="googlebot" content="noindex">"
например из скрина url http://iphonchik.com.ua/obzor.html?limit=100
И долго уже стоит
onikys, Вам xarraw написал тогда почему не уходит. Вы запретили боту на страницу заходить как он про запрет индексации узнает?
onikys, Вам xarraw написал тогда почему не уходит. Вы запретили боту на страницу заходить как он про запрет индексации узнает?
понял! Ок попробую!)
я 2 месяца назад вручную вычистила 125 404 страниц через форму. до сих пор выдает их в "соплях".
а на клиентском сайте проиндексировал все содержимое директории, закрытой через роботс.ткст
а на клиентском сайте проиндексировал все содержимое директории, закрытой через роботс.ткст __________________
в директоии только файлы страниц нет?
в директоии только файлы страниц нет?
там еще изощренней наворотили -полную версию сайта зачем-то скопировали
Julia Web, гугл скопировал?:) если папка в выдаче не нужно то наверно "удаление урл" нужно использовать.
Julia Web, гугл скопировал?:) если папка в выдаче не нужно то наверно "удаление урл" нужно использовать.
нет,разработчики продублировали со страницы галереи меню со ссылками на вторую копию.
в роботс закрыли,но в индексе все равно были все эти дубли.
роботсбыл составлен нормально,через blocked urls в WMT страница была закрыта, а через site: доступна в индексе и кэше. cейчас после 301 и физического удаления папки с хостинга из индекса все дубли пропали.
это к вопросу об игнорировании гуглем robots.txt