Гугл решил, что нам хватит и 0.000004% Интернета

E
На сайте с 21.09.2009
Offline
283
#121
hypnoise:
Это так, он игнорирует robots, и директивы в нём

Это Ваши, собственные ошибки на сайте, вводят в заблуждение.

Пример показал? Показал. Работает? Работает.

H
На сайте с 25.12.2013
Offline
4
#122

easywind, какие к черту ошибки на сайте, если файл robots.txt содержит 2 строчки

User-agent: *
Disallow: /

😂

Расскажите мне про ошибки на сайте, которые разрешают любому хоть сколь-нибудь порядочному поисковику, для которого этот файл не пустое место, индексировать хоть что-то. А я послушаю.

E
На сайте с 21.09.2009
Offline
283
#123

hypnoise, метатег ноиндекс на все страницы и откройте в роботс. Отсканирует и выкинет из индекса.

serdget
На сайте с 24.01.2012
Offline
84
#124
hypnoise:
Чего? Это так, он игнорирует robots, и директивы в нём 😂 Возможно не всегда, но собственный сайт как раз и был приведен, как пример этого косяка.


А где-то написано, что я этим удивлён? Цитату пожалуйста 😂

Извините!............

---------- Добавлено 29.12.2013 в 12:38 ----------

hypnoise:
easywind, какие к черту ошибки на сайте, если файл robots.txt содержит 2 строчки

😂
Расскажите мне про ошибки на сайте, которые разрешают любому хоть сколь-нибудь порядочному поисковику, для которого этот файл не пустое место, индексировать хоть что-то. А я послушаю.

Я в этом увидел удивление!

Поскольку уже давно..............!:)

Сначала удалял (из индекса), но потом забил, на это!

Смешные запросы (http://intersnet.ru/publ/internet/smeshnye_zaprosy_v_yandex_i_google/41-1-0-127) в поисковых системах.
LiteCat
На сайте с 03.05.2007
Offline
236
#125

Я на днях искал с телефона и планшета отзывы о стройматериалах европейских компаний, которые даже я слышал (будучи совсем не строителем).

И обалдел, получая по запросам "N отзывы" 3-4 запроса. Списал на странности мобильной версии и ушёл искать в Яндекс :)

S3
На сайте с 18.04.2011
Offline
109
#126
hypnoise:
какие к черту ошибки на сайте, если файл robots.txt содержит 2 строчки

😂
Расскажите мне про ошибки на сайте, которые разрешают любому хоть сколь-нибудь порядочному поисковику, для которого этот файл не пустое место, индексировать хоть что-то. А я послушаю.

на роботс гуглу совершенно плевать, они специально разделили понятия на сканирование и индексирование, причем, исходя из справки, индексирование возможно не смотря на запрет сканирования в роботсе :) , если тему вообще раскрыть, то гугл может сам изменять тебе значения в роботсе, т.е. виртуально подставлять свой :) - к примеру - две команды

User-agent: *

Disallow: /

vs

User-agent: *

Disallow /

одна из них с неправильным синтаксисом 😂 - НО - посмотри как их обрабатывает яндекс и гугл.

то же самое стало относится и к 301 редиректу - пс не следует четким указаниям вебмастера т.е. решает сама уже за него что и как - почитай эту тему внимательно :)

Ripro
На сайте с 04.11.2006
Offline
144
#127
easywind:
hypnoise, метатег ноиндекс на все страницы и откройте в роботс. Отсканирует и выкинет из индекса.

easywind, Вы уверены? Испытайте сначала свои советы на практике.

Неоднократно наблюдала как страницы входят в индекс, несмотря на то, что были изначально закрыты от индексации и в роботс, и на странице в noindex, что порекомендуете в таком случае с высоты своего "опыта"?

S3
На сайте с 18.04.2011
Offline
109
#128
Ripro:
easywind, Вы уверены? Испытайте сначала свои советы на практике.
Неоднократно наблюдала как страницы входят в индекс, несмотря на то, что были изначально закрыты от индексации и в роботс, и на странице в noindex, что порекомендуете в таком случае с высоты своего "опыта"?

ноиндекс в странице не будет обработан т.к. страница не будет просканирована, но она может быть в индексе т.к. бот например мог проиндексировать ее раньше, когда она была открыта или же он пришел на нее по ссылке :) - то же самое относится и к любому др тегу в хеде и даж к 404

p.s. вот кстати поподробней на эту тему

Ripro
На сайте с 04.11.2006
Offline
144
#129
sok3535:
ноиндекс в странице не будет обработан т.к. страница не будет просканирована, но она может быть в индексе т.к. бот например мог проиндексировать ее раньше, когда она была открыта или же он пришел на нее по ссылке :) - то же самое относится и к любому др тегу в хеде и даж к 404

sok3535, Страницы были закрыты так на стадии разработки сайта. На время тестирования доступ к сайту был только у разработчиков (ограничили доступ по IP) :)

Да, на на открытых страницах были ссылки в скриптах на закрытые страницы (кнопки) + люди добавили несколько ссылок парочку на закрытые страницы. И вся пачка закрытых страниц вошла в индекс и висит там не один месяц. Удаляет из кеша только вручную, но некоторое время спустя страницы снова в индексе. :)

S3
На сайте с 18.04.2011
Offline
109
#130
Ripro:
sok3535, Страницы были закрыты так на стадии разработки сайта. На время тестирования доступ к сайту был только у разработчиков (ограничили доступ по IP) :)
Да, на на открытых страницах были ссылки в скриптах на закрытые страницы (кнопки) + люди добавили несколько ссылок парочку на закрытые страницы. И вся пачка закрытых страниц вошла в индекс и висит там не один месяц. Удаляет из кеша только вручную, но некоторое время спустя страницы снова в индексе. :)

свой ответ выше дополнил ссылкой - как пример.

p.s. по факту - выкинуть стр из индекса, вы сможете поставив в хед ноиндекс и дав боту просканировать эти страницы либо отдав на них 404 ошибку, опять же, с условием - открыв эти стр в роботсе

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий