А вы пробовали искать больше 12 в тайтле? Они же искались...
Опять из-за вас пришлось пару часов убить.
И зачем ограничивать длину имени файла и регистр расширения?
Гуглим site:narod2.ru/img
например http://www.google.com/search?q=site:prichosk.narod.ru/img/
все 404.
Убираем из урла img/
и всё на месте. И так везде, где что-либо лежало в папках.
Яндекс — козёл, нашёл кому отдать.
Вы сначала покажите такие в индексе.
http://www.google.com.ua/robots.txt
Disallow: /url
Ещё показательный пример.
Думайте, что писать вместо Главная.
И к каким годам относится то образование?
Регион присваивается в ЯВМ, там же можно попробовать от него и отказаться.
Вот симметричная тема помнится /ru/forum/788825
Может быть в этих рамках лучше только оптимизировать, а не наполнять? Здесь подобного наполнителя столько показывали... ну или прикиньте, что если какой строитель начнёт наполнять сайт юридической конторы?
Одна на один запрос. Для Яндекса неповторимых в сутки несколько десятков лямов, 10**10 в год, если неповторяющиеся не начать стирать раньше. Для Гугля больше. И записью может быть нечто произвольной длины, описывающиее запрос/позиции/урлы/клики и время между кликами. И всё это зашумлено...
И когда же она накопится по слишком большому количеству запросов, которые бывают один раз за всю историю ПС? (сколько железа на это можно потратить / сколько пользы получить?)
http://yandex.ru//yandsearch?text=url:www.yandex.ru
Вот так криво у всех настроены серваки.
Или часто просто открытые результаты поиска (это вам запрещено, а Им же хочется трафа на себя-любимых), поэтому не так трудно найти по site:yandex.ru inurl:search | inurl:search.xml бла-бла.
Вот кэш. Там по коду полазийте... а вам чего стесняться? Всех дыр Они не заткнут... по политическим мотивам, ибо сами же их и сделали.
Не зачем, а почему... Гугл в 2009 так сделал, а Яндекс чем хуже? Это как с индексацией т.н. #!ajax сайтов.