Pavel Medvedev

Pavel Medvedev
Рейтинг
166
Регистрация
27.01.2006
Должность
оптимизатор, seo-консультант

Поздравляю, Ген!

Всего самого самого!

:)

Мне вот этот текст у них всегда особо нравился :)

Нашли(((

http://twitter.com/#!/lystseva/status/200438575190392832/photo/1

Судя по фото, врезался в вертикальную скалу, выжить там нереально.

богоносец:
site:yandex.ru inurl:404
Без кеша http://yandex.ru/404.html
HTTP/1.1 404 Not Found

А точно не отдавала раньше 200?

Вроде замечал странности давно, что у БДБД, яндекса и других сайтов почему-то делают страницы 404.html с кодом 200. Думал это новое веяние в SEO :)

ImPER@ToR, спросите про идиотизм с запрещенными урлами в выдаче.

Теоретически, Гугл может выдавать в выдаче запрещенные к индексации адреса страниц админок, ссылки с хешем для логина без авторизации, разные служебные урлы, в которых содержится личная информация (имя, сообщение, телефон и т.п.).

Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс. В результате URL страницы, а также другие общедоступные сведения, например текст ссылок на сайт или заголовок из каталога Open Directory Project (www.dmoz.org), могут появиться в результатах поиска Google.

Вот эти внутренние урлы с айдишниками сайтов чужих вебмастеров Гугл откуда взял, из публичных источников?

burunduk:
sni, добавил 404 ответ на страницы, посмотрим уберёт ли

Cамый надежный способ)

Roman77:
щас прописал ему отдельного User-agent: Googlebot

Вряд ли поможет. Сохраненок у страниц нет, значит он их не индексирует.

Как сделать чтобы урлов вообще не было в выдаче(а они все вроде только в дополнительных результатах) - другой вопрос.

И надо ли это? Нахождение в выдаче запрещенных и неиндексируемых урлов влияет как-то на ранжирование?

StaroverovMax:
Я следуя своей логике, не совсем понял зачем в магазине 150 надписей купить?

В плане удобства 150 "купить" это как раз нормально. (Посетитель всегда должен иметь возможность купить товар одним кликом. Хоть с карточки, хоть со списка товаров).

Тут просто сам интерфейс плохо сделан. (куда мне жать, если я каждого товара в списке по 10 штук выбрал?).

Чтобы Яндекс не раздражать, ага, можно скрыть текст от него.

богоносец, ага. Тоесть, получается, если закрыть страницу в robots, то гугл не сможет добраться до content="noindex" и убрать урл из результатов поиска.

Тогда решение - не закрывать такие урлы в robots, а закрывать их только через метатэги.

На тайтлы может обратить внимание?

<title>Котлы электрические, электрокотлы - Котлы настенные, отопительные настенные котлы, электрические котлы, электрокотлы, котел Protherm, эван, руснит, ермак,Сантехсклад, интернет-магазин, Санкт-Петербург</title>

<title>Система отопления пола Thermofloor; Теплый пол Stiebel Eltron; Теплые полы, электрический теплый пол в интернет-магазине Сантехсклад, Санкт-Петербург, СПб</title>

Сто раз уже разжевывалось))

Гугл не индексирует страницы, запрещенные в роботсе, но может включать урлы запрещенных страниц в индекс (вероятно чтобы по тексту в урле искать).

Где-то гуглойды объясняли почему они так делают(лениво искать) и как закрывать такие урлы. (Через meta name="robots" content="noindex" вроде)

Вообще, бред.

Индексирует закрытые урлы, типа sexpornoshop.ru\?заказ_совершен&tel-клиента=999-99-99

---------- Добавлено 28.04.2012 в 17:34 ----------

Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс. В результате URL страницы, а также другие общедоступные сведения, например текст ссылок на сайт или заголовок из каталога Open Directory Project (www.dmoz.org), могут появиться в результатах поиска Google.

...

Чтобы полностью исключить вероятность появления контента страницы в индексе Google, даже если на нее ссылаются другие сайты, используйте метатег noindex или x-robots-tag. По мере сканирования страниц, робот Googlebot обнаружит метатег noindex и не станет отображать страницу в индексе. HTTP-заголовок x-robots-tag рекомендуется использовать, чтобы исключить из индекса файлы, формат которых отличается от HTML (например, изображения или другие типы документов).

P.S. Иногда гугл правда, полностью индексирует страницы, запрещенные в robots. :)

Всего: 1393