SPQ

Рейтинг
75
Регистрация
17.10.2011
SateClub:
Вот вам и ответ. наглядно видно что робот кушает ваши страницы но в индексе их не держит. Причины могут быть следующие:

1. Не уникальный контент.
2. Слишком мало текста на странице

Возможно что то забыл, но вот эти два варианта должны соблюдаться.

Получается что первые 700 страниц были уникальные, а при добавлении стали не уникальными и они, странно это.

Текста на странице как раз предотсаточно, минимум 10К, максимум 35К.

SPQ добавил 23.11.2011 в 14:34

denden11:
был у меня научный медик-сайт, я туда тоже выкладывал статьи мудреные, в итоге из 400 в индексе осталось 70. После этого у меня сложилось впечатление, что ПС не любит страницы на которые никто не ходит, а никто не ходит потому что там много всякой научной зауми, которую обычно в интернете не ищут.

Посещаемость сейчас примерно 150 уников в день. Просмотров на посетителя - 2,5. Основная аудитория - студенты профильных специальностей.

Linux:
1. Нужно проверять по урлам, а не по размерам файлов ☝
2. Может у вас везде контент практически одинаковый получается. Или слишком скучный и не интересный для пользователей, с точки зрения пс. :)

Сайт на простом html, поэтому урлы изначально разные.

Да, электротехника придумана не для веселья, можно сайт и скучным назвать, анекдотов на нем нет, но получается что любое относительно глубокое изложение узкой технической темы может столкнуться с подобным отношением Яндекса, а это не радует...

NikitoZZ:
А как проверил?

По размерам файлов

denden11:
может битые ссылки на сайте, может контент растащили, может хостинг возвращает ответ не 200 в момент захода робота, может роботс.txt, может .haccess, может ссылок много исходящих

Ссылки не битые, пока еще контент не растащили, но уже проставили достаточно ссылок на этот сайт (тиц=40), в основном отметились студенты-дипломники, хостинг не проверял, спасибо за наводку, сейчас займусь, роботс.txt просто нет, .haccess ни при чем, исходящих ссылок около 50 на весь сайт.

Linux:
Как так? копипаст между отчетами

Очень просто. Писали одни и теже люди, использовали фразеологические обороты, к которым они привыкли. Формально получился некий внутренний копипаст.

SPQ добавил 23.11.2011 в 14:13

SateClub:
Добавлять то не сложно, просто берете и добавляете.

У вас вся проблеме в качестве контента. Скорее всего робот просто выплевывает эти страницы из индекса. Посмотрите сколько страниц у вас отображается в панели вебмастера "загружено роботом"?

Загружено роботом 2600, это немного меньше чем реально страниц на сайте. Вероятно, да, реальные отчеты по НИР роботу не нравятся. Точнее до какого-то уровня нравились, а потом разонравились.

Linux:
может дубли страниц?

Проверил, дублей нет.

Только что зашел на их сайт: 132.95р/1000 символов. Получаетмя что за полтора часа ставка упала в 2 раза!

Полный левак, однако.

angr:
узнайте для себя функцию автозамены

Это как последняя линия обороны. Много проще понять откуда это упало и разослать всем инструкцию что можно и чего нельзя.

angr:
гуглите в сторону кодировки документа...
блин, да научитесь пользоваться уже поисковыми системами!

Гуглил, пишут что при редактиоровании в ворде такое может возникнуть, но в ворде нет 0x94 в наборе символов.

galuba:
Это не лояльность, это просто яндекс еще не успел до вашего сайта добраться(не секрет что он работает на много медленней гоши). Все еще впереди.

Ошибочные страницы были в выдаче чуть больше месяца. Ровно столько потребовалось Гоше чтобы удвоить число страниц. Судя по логам за это время, Яша прошелся по всему сайту минимум 2-3 раза, но никак не отреагировал.

mr_krabs:
и?

кто-то сбережет свои нервы если сделает что-то похожее и припомнит это сообщение

TakingBackMySoul:
Что за движок? Вы бы хоть написали о каком фронтпейдже речь идет.
Или вы про Microsoft FrontPage?

TakingBackMySoul, спасибо, речь имеено о старом Microsoft FrontPage.

в \Templates\1049\PAGES11\normal.tem\NORMAL.HTM - заменил

\Templates\1049\WEBS11\normal.tem\NORMAL.HTM - такого у себя не нашел, папака есть , а вот NORMAL.HTM в ней нет, но и без него все работает

Всего: 231