aldous

Рейтинг
109
Регистрация
25.10.2014

Штаб Google рекомендовал считать данный запрос бессмысленным и не использовать.

Мобильный поиск - в большинстве случаев клиентура из сотовых сетей. А в странах СНГ эти сети не всегда для граждан безлимитные. Благодаря владельцам гивносайтов, которые читали новости о том, как будет ранжироваться мобильный сайт в соответствующем поиске, и просчитали, что можно нагибать пользователей снова и успешно, получив такой карт-бланш, в мобильном индексе получилось плохо. На данный момент ручные меры, откаты и прочая фигня. Как Гугл поборет гс, отфильтрует всякую хрень, так получать плюсы будут все.

И вдруг мой сайт сильно упал в выдаче Гугла в сравнении с Яндексом. С тех пор позиции слегка подтянулись выше,но до прежних мест сильно далеко (в основном 30-ые места). Можете подсказать,что делать и что произошло?

Три возможных варианта:

-- алгоритмы определения качества сайтов определили ему место

-- сайт стал гс

-- кривые руки сюда подставить виновного

На StopBadware же всё написано.

Из персонального блек-листа от недели до нескольких месяцев.

Есть два домена являющиеся полными зеркалами друг друга
2. Есть задача выводить один домен в Гугле (под Украину) , второй в Яндексе (Россия

Тут вроде всё просто, если у вас реально два одинаковых сайта.

На российском сайте пишете в host этот домен (вроде этого достаточно для Яндекса, чтобы домен стал главным зеркалом без редиректа, хотя лучше уточнить в Справке).

На украинском ставите на каждую ссылку рел каноникал на украинский домен и на российском тоже ставите рел каноникал на украинский домен (Яндекс не читает междоменные канонические ссылки, уточните в Справке Яндекса, зато Google читает).

Это конечно не трувей, но возможно.

Необходимо чтобы домен №1 индексировался в Яндексе и Гугле и ранжировался по Российской выдаче, домен №2 так же должен индексироваться в Я и Г, только по Украинской выдаче, при этом сайты являются дублями. Что посоветуете в данной ситуации?

В этом случае не делать полными дублями намного проще, чем изголяться.

в роботсе уже и не нужно закрывать ненужные страницы, попавшие в индекс

Как бы... если закрыть, то эти ссылки потеряют сниппет (появится заглушка) и уйдут в задницу ссылочной базы сайта. Если не закрыть, пс будет обновлять по ним информацию, а дальше всё решит случай.

а как проверить страницу на наличие в индексе гугла

Оператором или просто вбить url.

Насчёт инструмента, есть статистика, но она неточная (данные всё время опаздывают).

С дублями борются метатегом, x-robots, 404 (просто удаление страницы), настраивают параметры url, понижают приоритет, ставят канонические ссылки.

ведь хз когда они из индекса уйдут, и уйдут ли вообще

Страницы никогда не уходят, если отдают 200ОК. Опять же мусор, хоть и в индексе, в выдаче тоже не участвует.

Сейчас экспериментально Google делает группы дублей и не индексирует триллион страниц, выбирая только нужные. Но это не у всех.

т.е. если уж так случилось, то нужно поставить ноиндекс а в роботсе открыть доступ к таким страницам?

Да, если хочется, чтобы такие страницы ушли из индекса.

Хотел сказать, что сейчас, возможно google пересмотрел свое отношение к роботс и уже не индексирует все подряд, как раньше.

Google работает с robots.txt точно так же, как и 3 года назад.

Недавно google у одного сайта не правильно показывал адаптивную версию. Оказалось, что css и скрипты были закрыты в robots. И выдавал ошибку, что googlebot не может получить доступ к таким то ресурсам. После их открытия в роботсе, все стало нормально.

Это естественно. Краулер не смог прочитать стили и поэтому не обновлял информацию о сайте. Открыть всё, иначе кукиш.

Есть хорошая статья о генерации плохих и хороших ссылок.

ну есть мнение от уважаемого мною человека, облеченного познаниями, что гугл индексирует все...

Уважаемые люди из компании написали достаточно документации, просто надо читать вдумчиво. Лучше на родном (англ). Шаманство - это конечно хорошо, но когда на кону стоит чужой коммерческий проект, фантазиями и экспериментами увлекаться не стоит.

Как работает robots в Google, и чем отличается сканирование от индексирования.

Рекомендательный - неудачное определение переводчика (первоисточник - Robots.txt instructions are directives only). Это не в том смысле, что можно делать, а можно не делать, а в том, что не стандартизированные прямые команды. В частности, у Яндекс другой механизм работы с robots.txt.

Краулер - сканирующий механизм, включает заход бота на страницу. Механизм называется по-русски "сканирование" (чтение страницы без обработки) .

Robots.txt управляет только сканированием. То есть включает/выключает доступ для робота. К индексированию, то есть процессам вне сайта он уже не имеет отношения.

Метатег robots с параметром noindex (аналог заголовок x-robots) управляет уже индексированием. Страница с данным метатегом продолжает сканироваться роботом, но параметр noindex запрещает ей попадать или оставаться в поисковой базе (->выдаче).

Например, если повесить метатег noindex и запретить страницу в robots.txt, она останется в индексе, потому что Google не сможет считать параметр метатега из-за закрытого доступа.

Если до момента публикации контента закрыть в robots страницы, они не попадут в индекс, потому что бот не будет их читать. Если закрыть после публикации, они останутся в индексе в том состоянии, в котором находились до момента закрытия. Информация по ним не обновится, Google сотрёт сниппет (по правилам необновляемой информации) и отправит в "похожие" страницы.

Инструкции Robots.txt полностью поддерживаются Google согласно правилам ПС, и никаких случаев "читает-не читает" быть не должно. Убийство robots.txt на работающем сайте, насколько я помню, должно привести к ограничению доступа для робота.

забываем закрывать их со старта.

вот именно

как долго могут быть в результатах индекса страницы, запрещённые уже позже в "роботс"

По сути бесконечно, опускаясь в самый зад. Иногда группируются в дубли. Может что-то ещё экспериментальное происходит.

Здравствуйте, не может.

Единственное неудобство - порча статистики и лишние запросы.

Как раз наоборот. Запрещён краулинг вот этого всего ?order= (если правильно правило сформулировали). Но индексирование нет, ибо robots.txt управляет только краулером. Чтобы выкурить из индекса всё, что туда запустили, нужно дать в robots.txt доступ краулеру (иначе он ничего не узнает об изменениях на страницах), а на страницы повесить метатег. В противном случае закрытые страницы в robots.txt потеряют сниппет и уйдут в "сопли".

А вот тут матчасть.

Так же проблему дублей можно решать с помощью канонизации ссылок.

Всего: 425