Алексей Катаев

Рейтинг
76
Регистрация
05.08.2006

У меня так и не вернулось ничего пока. Так и остаюсь по любым запросам за тридцатой позицией :( У кого наладилась ситуация?

Внутренние причины так и не смог выявить. В любом случае провел тщательную проверку, чистку и правку всего, чего можно :) Не хочется верить, но, кажется, причина во внешних факторах. В конце ноября и начале декабря был мощный прогон по каталогам. Внутренних существенных изменений не было - только добавлялся контент. На главном домене более 3000 страниц, на субдоменах суммарно более 50000 страниц (форум и магазины). Падение произошло по всем четырем сразу в один день. Масса низкочастотных запросов.

Вот статистика переходов с поисковиков по главному домену:

Проверял и по логам. Аналогично.

+100 WMZ

Держись! Здоровье - это главное. Скорейшего тебе выздоровления!

----

А объявление нельзя сделать на главной странице forum.searchengines.ru вверху или на всех страницах форума? И по личке всем разослать?

diafan:
Проиндексирует все робот без проблем, проиндексирует!

Это точно? А "DISPLAY: none" всегда нормально воспринимается Яндексом?

Вот здесь тоже подобное обсуждалось.

/ru/forum/110572

artem@pesin:
Думаю, не влияет это на уникальность. Будет влиять только на результаты выдачи по запросам с "е" и с "ё". А способ сделать контент уникальным — сделать уникальный контент :) А если хитрить, то можно попробовать заменять слова на синонимы, сокращать или наоборот — увеличивать (за счет вводных слов и прилагательных)предложения...

Ага, а еще можно менять:

- "$" на "доллары", "долл.", "доллары США"...

- "%" на "проценты" ...

- "1000 рублей" на "одна тыс. руб.", "1 тысяча рублей"...

- "2007 г.". на "две тысячи седьмой год от рождества Христова" :)

...

Bekker:
Понятно. Но какие-нибудь плюсы в большем кол-ве проиндексированных страниц сайта есть? Или же можно все закрывать в robots.txt и оставлять только самые главные страницы сайта?!

Во-первых, если контент страниц разный (не дубли) и достаточно уникальный, то будет больше вероятность захода посетителей по различным запросам (в основном низкочастотные запросы) на конкретные страницы, а не только на продвигаемые.

Во-вторых, что вы будете закрывать от индексации? Если, часто обновляемый контент (например, новости), то, с одной стороны, может получится, что сайт у вас станет для yandex'а "редкообновляемым". А это влечет к тому, что к вам будет редко заходить робот.

А, с другой стороны, если не закрыть "лишний и бестолковый" контент, который обновляется и (или) добавляется в огромном количестве, да еще и не уникальный… Может получится, что яндекс будет только его и молотить, а то, что действительно надо быстро проиндексировать (переиндексировать) "не найдет" или "не дойдет"...

...

bulldozer:
и что на самом деле происходит?
гугл прочитав роботс, страница (в моем случае это 100% дубли страниц) вылетает из индекса?

Да, уходит из индекса. Насколько быстро - не знаю.

Но по 301 ошибке эти страницы уйдут из индекса, ждать надо.

У меня за две недели практически все ушли - клеил c www и без. Т.е. 301 редирект с site.ru на www.site.ru. До этого часть было где-то 1500 с www и более 2000 без www.

А по robots.txt не всегда можно запретить без изменения скриптов.

Dok верно говорит. Можно добавить, что не просто должна стоять ссылка с какого-то сайта, а google должен еще и пройти по этой ссылке, и проиндексировать "http://www.align.ru/?domain=forum.searchengines.com", и учесть ссылку ... А он может этого и не сделать :)

wilson:
Исходя из того, что почти у всех позиции сайтов вернулись, ни о каком фильтре говорить не стоит и тему можно закрыть и списать все на некоторые настройки гугла.

Если бы вернулись :( Вылетели ведь за тридцатку любые запросы, причем, на всех субдоменах.

Всего: 175