Вот именно на эти недоумения (хотя в хелпах это есть, оставь надежду) и не хочется отвечать, пока нет ясности с:
Кому принадлежалИ материалы сайта?
Под чьим управлением домен?
Ну тема сводится к: как чего-то чужое прибрать к рукам? (так на это здесь отвечать не очень принято) Или с вами не расплатились? Или просто оно хоть и чужое, но плохо лежит (а фтп есть)?
Ну и при всё при этом старательно верить, что ваша анализировалка знает всё-всё!
А вы пробовали искать больше 12 в тайтле? Они же искались...
Опять из-за вас пришлось пару часов убить.
И зачем ограничивать длину имени файла и регистр расширения?
Гуглим site:narod2.ru/img
например http://www.google.com/search?q=site:prichosk.narod.ru/img/
все 404.
Убираем из урла img/
и всё на месте. И так везде, где что-либо лежало в папках.
Яндекс — козёл, нашёл кому отдать.
Вы сначала покажите такие в индексе.
http://www.google.com.ua/robots.txt
Disallow: /url
Ещё показательный пример.
Думайте, что писать вместо Главная.
И к каким годам относится то образование?
Регион присваивается в ЯВМ, там же можно попробовать от него и отказаться.
Вот симметричная тема помнится /ru/forum/788825
Может быть в этих рамках лучше только оптимизировать, а не наполнять? Здесь подобного наполнителя столько показывали... ну или прикиньте, что если какой строитель начнёт наполнять сайт юридической конторы?
Одна на один запрос. Для Яндекса неповторимых в сутки несколько десятков лямов, 10**10 в год, если неповторяющиеся не начать стирать раньше. Для Гугля больше. И записью может быть нечто произвольной длины, описывающиее запрос/позиции/урлы/клики и время между кликами. И всё это зашумлено...
И когда же она накопится по слишком большому количеству запросов, которые бывают один раз за всю историю ПС? (сколько железа на это можно потратить / сколько пользы получить?)