- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня возможно дилетантский вопрос, но это проблемка.
У меня файле robots.txt написан запрет для индексации пары папок для баннеров и редиректов.
Почему они появились в индексе гугла????
Или я неправильно написал роботс?
User-Agent: *
Disallow: /advbanner
Disallow: /go
Alex GT, пора подавать иск :d
А что именно появилось в индексе? Кеш есть? Или только урлы? Если урлы, то это обычная картина, а вот если еще и кеширует, то надо смотреть более пристально
2 svift
проблема в том, что в индексе гугла появились странички с редиректами. Они не содержат контента, только тупой редирект в мета теге. поэтому сказать, что это, просто урлы или кэш не могу.
Проблемка в том, что ведь мета редирект сильно не любят поисковики и гугл в частности.
Не повлияет ли это на мою основную часть сайта?
Хотя, хотя по логам, робот на эти страницы вроде бы не заходит. Хотя, на парочку зашел.
ИМХО Гугля начинается проявлять игнор к Robots.txt
была замечена похожая трабла...
Alex GT, да смысл в том, что можно закрыть директории/файлы файлом robots.txt, можно поставить на ссылки rel=nofollow - но Google будет заносить запрещенные урлы в базу, однако ни кеша у таких адресов не будет, ни в выдаче их не встретишь... то есть то что по запросу site:domen.com Google выдает кучу запрещенных урлов без снипета - это не такая уж страшная беда... надо просто принять это как факт и не парится... у меня такое было, когда определенные служебные урлы были закрыты в robots.txt + ссылки на них если и были, то были с nofollow - но Гугля их упорно съела, однако в выдаче их нет и картину они не портят...
Но тем не менее автоматические пауки обязаны (причем насколько я слышал, не 100% что правда, но именно обязаны) слушаться robots.txt. Ну, в реале то понятно, что просто умный очень и с черными оптимизатоарми так борется. %)
Так вот писались на них абузы пару раз - пишут, что извиняются за ошибку скрипта и что больше не повторится. :)
Alex GT, выводов делать не буду, опишу факт.
На крупном сайте две недели стоял robots.txt полностью запрещающий индексацю. Трафик с Гугля (ок. 300 чел/день) не уменьшился. Гугль индексировал сайт каждый день.
Но тем не менее автоматические пауки обязаны (причем насколько я слышал, не 100% что правда, но именно обязаны) слушаться robots.txt. Ну, в реале то понятно, что просто умный очень и с черными оптимизатоарми так борется. %)
А не факт, что роботы его не слушаются. Файл запрещает обращение к документам, но Гугль часто публикует их URL'ы и может даже неплохо ранжировать благодаря ссылочному. Использовать ведь информацию о внешних ссылках на документ файл robots.txt ведь не запрещает.
А не факт, что роботы его не слушаются. Файл запрещает обращение к документам, но Гугль часто публикует их URL'ы и может даже неплохо ранжировать благодаря ссылочному. Использовать ведь информацию о внешних ссылках на документ файл robots.txt ведь не запрещает.
Конкретно в моем случае это, скорее всего, не так - весь трафик идет по низкочастотникам, в тексте ссылок они наверняка нигде не упоминаются.
Может быть, Гуглю нужно больше времени (например, месяц), чтобы начать выполнять директиву robots.txt?
Может быть, Гуглю нажно больше времени (например, месяц), чтобы начать выполнять директиву robots.txt?
А вы поглядите на даты кешей этих страниц - наверняка они посещались роботом еще до появления запрещающих директив