Линкопомойка, - это любой каталог, созданный не для людей, а для роботов.
Ваша задача сделать вид, что именно ваш каталог является тем единственным из каждой тысячи, который сделан для людей, а не для роботов. Если вам удастся убедить в этом модератора, то вам ничего не угрожает.
Во-первых, выпадать может не только морда, но и любая страница сайта. Выпадение морды замечают чаще, поскольку, как правило, именно морду продвигают по большинству запросов. Выпадение внутренних страниц случается нереже, но, зачастую, это явление остается незамеченным.
Посему будем говорить не о "выпадении морды", а о "выпадении страницы".
Существует два типа выпадения страниц, которые являются совершенно разными явлениями, и даже нелогично, что их называют одним термином (надо бы придумать второй).
1) Выпадение страницы по отдельным запросам
Страница пропадает из выдачи по одному или нескольким (редко) запросам, оставаясь в выдаче по другим запросам. В частности, страница может остаться по такому же запросу в заглавной буквы.
Это в чистом виде глюк Яндекса. Других причин придумать не могу.
Природа глюка, вероятно, связана с кэшированием результатов поиска, которое может произойти в момент, когда кластер (или сервер), на котором расположена часть индекса, содержащая информацию о данной странице, недоступна.
2) Выпадение страницы по всем запросам
Это явление случается значительно чаще, и далеко не всегда является следствием сбоев на Яндексе. Часто такая проблема возникает из-за проблем с хостингом. Если робот пытался забрать с сайта документ, и не смог этого сделать, документ "вылетает" из индекса до тех пор, пока робот не проиндексирует его. А из-за кэширования выдачи страница может отсутствовать в серпе аж до следующего апдейта.
Каким бы ни был надежным ваш хостинг, время от времени он все равно падает. А для выпадения страницы мз выдачи достаточно, чтобы сервер был недоступен в течение минуты, если именно в эту минуту на сайт заходил робот Яндекса.
Разумеется, сбои на самом Яндексе тоже могут быть причиной этого явления. Но, думаю, в большинстве случаев Яндекс ругают напрасно.
В первом случае - ждать следующего апдейта. Обычно уже ближайший апдейт восстанавливает сайт на заслуженном месте. Однако, прослеживается печальная "привязанность" этого глюка к конкретным сайтам: если один раз это случилось, готовьтесь, что это будет происходить регулярно. Возможно, это связано с нестабильностью именно того кластера/сервера, на котором размещен индекс вашего сайта. Решить проблему я пытался с помощью принудительной переиндексации сайта, но, как оказалось, это не помогает. Возможно, поможет менее радикальный прием: попробуйте создать зеркало сайта, дать ему проиндексироваться, а затем склеить зеркала, выбрав новое за главное. Возможно, новое зеркало ляжет в более надйжное место.
Во втором случае рекомендую обзавестись максимально надежным хостингом. Если к хостингу претензий нет, и вы считаете, что это результат ошибки Яндекса, то, опять же, остается только ждать апдейта.
Замечено, что, в отличие от первого явления, второе может продолжаться несколько апдейтов. Хотя я не имею достаточно данных, чтобы собрать убедительную статистику.
Попробуйте написать Платону : (ссылка)
Возможные причины:
Не отдается ли морда по чему-либо типа /index.php и нет ли ее в таком виде при поиске по сайту?
Не склеилась ли она с другими внутренними страницами (к примеру в случае 200ок) на любую несуществующую страницу
Лаг сервера
Неправильная генерация главной страницы
Возможно, глядя на результаты опроса, кто-нибудь из предлагающих свои услуги по 100 долларов в месяц оптимизаторов задумается, и перестанет демпинговать.
В таком случае, топик уже не бесполезен. :)
Да плевали они на мои жалобы. Как и на клиентов вообще :)
Только что получил деньги :)
Потому что, с точки зрения робота, урлы с www и без соответствуют разным документам на разных сайтах. Поисковики, по мере возможности, пытаются решить эту проблему, но в более общем виде - поисковики вычисляют зеркала сайтов, буть то тот же домен с префиксом www, или совершенно другой домен.
Определение зеркал - задача не тривиальная, и решается не быстро. В вашем случае поисковые системы еще не успели опрделить, что домены с www и без являются зеркалами.
Как только поисковые системы это поймут, показатели станут равными. А в индексе останется лишь одно из зеркал.
Если сайта без www в индексе нет, значит, вероятнее всего, поисковая система уже знает, что домены с www и без являются зеркалами, и выбрала главным зеркалом домен с www.
Если в в индексе оба зеркала, значит, поисковая система все еще считает эти домены двумя разными сайтами. Со временем поисковая система выберет из них один, и назначит его главным зеркалом.
В любом случае, у вас есть возможность повлиять на выбор главного зеркала. Для Яндекса это делается с помощью файла robots.txt (см. пункт 2).
Если поисковые системы считают домены с www и без зеркалами, то разницы нет. Если, с точки зрения поисковых систем, это два разных сайта, необходимо произвольно выбрать один из доменов, и ставить ссылки только на него.
Уж лучше один из доменов будет на первой странице выдачи, чем оба на третей.
Используйте такой robots.txt: (Вся правда о robots.txt)
User-Agent: Yandex
Host: www.site.ru
Директива Disallow для Яндекса необязательна.
Вопреки высказыванию lexalink, 301 редирект не сможет в полной мере заменить полноценную склейку зеркал. Мало того, после установки редиректа Яндекс вообще никогда не склеит зеркала, а всегда будет считать их разными сайтами, один из которых пересылает пользователя на другой. Дело в том, что для склейки зеркал Яндекс должен иметь возможность проиндексировать оба зеркала, чтобы убедиться, что эти сайты полностью идентичны. Сайт с редиректом не может быть идентичным сайту без редиректа.
Рекомендуется ставить 301 редирект для Гугла и пользователей, но лишь после того, как зеркала будут склеены Яндексом (это официальная рекомендация Платона Щукина).
Если преждевременно поставить 301 редирект, то все естественные ссылки, поставленные на домен с 301 редиректом, не будут учитываться Яндексом.
В случае парковки на один сайт нескольких доменных имен, они тоже являются зеркалами и для правильной склейки (faq суппорта Яндекса) рекомендуется использовать абсолютные ссылки для внутренней навигации.
Абсолютно без разницы.
Cуждение, что "название сайта лучше звучит с ввв" - ошибочно. В смысле, что Вы можете дать клиенту, другe и знакомому визитку или урл с тем написанием, которое считаете более благозвучным. Он все равно попадет на Ваш сайт
Я предпочитаю выбирать главным зеркалом домен без www, поскольку считаю саму привычку добавлять этот префикс большой исторической ошибкой, корни которой уводят во давние времена, когда интернет-протоколы только разрабатывались, и предполагалось использовать специальные префиксы для каждого протокола. В последствии оказалось, что в префиксах нет необходимости, поскольку с разными протоколами работают разные клиенты.
В любом случае, рекомендую выбрать один из доменов. Использовать два домена одновременно не стОит. Иначе посещенные страницы будут раскладываться по двум папкам в хистори пользователя, будет некорректно работать изменение стиля посещенных ссылок в браузере, будет некорректно работать встроенные в браузеры инструменты запоминания паролей и т.д.
Для склейки в Google:
а) Ждать
б) 301 редирект (см. выше)
в) Google Sitemaps (подробно тут)
/
5. Универсальный редирект, предложенный участником SM@RT:
Это универсальный редирект, в котором не нужно указывать имя сайта.. ИМНО очень хорошо для кучи сателитов и прочего..
Options +FollowSymLinks
RewriteEngine on
RewriteBase /
RewriteCond %{HTTP_HOST} !^www\.(.*)$ [NC]
RewriteRule ^(.*)$ http://www.%{HTTP_HOST}/$1 [R=301,L]
jED R., именно оно! Спасибо!
Вернее, я читал непосредственно источник, из которого wolf взял эту цитату. Видимо, это был какой-то пресс-релиз.
jED R., из топ100 и брал.
Но не только подмешивал в обычный поиск результаты поиска по базе топ100, но и в алгоритме обычного поиска использовал посещаемость как один из факторов ранжирования. В той статье было также написано, что этот фактор хитрым способом считается и для документов, на которых счетчик не установлен (посещаемость таких документов оценивалась исходя из посещаемости ссылающихся страниц с установленным счетчиком).
Публикация была году в 2002 примерно. Сейчас не могу ее найти (хотя не особо и старался). Не помню источник, потому не знаю, насколько ему можно доверять.
Две-три недели. В случае, если покупатель сочтет новую цену неприемлемой, этого срока будет достаточно, чтобы найти замену этой ссылке и дождаться ее учета, избежав временного падения сайта из-за снятия ссылки.
jED R., я имел в виду не примесь.