Чтобы выявить все дубли, нужно сравнить каждый сайт с каждым сайтом в базе Яндекса. Это просто нереально, вот и все. Что-то он выявляет, а что-то -- нет. Не успевает просто.
Я давно им в писал в суппорт о том, что нужно рандомизировать выдачу на первой странице. Это по крайней мере будет справдливо по отношению к вебмастерам. Потому что Яндекс по моему мнению ни фига не смыслит в релевантности. В релевантности может разобраться только человек, и то: человек может быть субъективным или подкупленным.
Вывод - у поисковых серверов нет будущего. (шутка).
Например, у меня интернет-магазины. Ввожу наименование товара. Мои сайты в глубокой з.., а вот куча сайтов-близнецов-партнеров очень крупного конкурента занимают почти всю первую страницу выдачи. Но вся фишка в том, что у меня в наличии товар есть, а у них нет. Спрашивается, чем в данном случае Яндекс послужил людям, ищущим товар?
Какой смысл при этом приобретает понятие "релевантность" ? Я написал Платону об этом, за что он (или они) меня поблагодарили за высказанную точку зрения о релевантности. :)
Вообще, я думаю, они должны, например, детектить интернет-магазины и давать им всем равные права, опять же -- рандомизировать выдачу. Нафига анализировать плотность ключевых фраз и всю эту лабуду, если этим за деньги занимаются оптимизаторы?
Что я делаю? Правильно, заказываю рекламу через Директ. И, кстати, весьма доволен.
Кстати, ради интереса ввел запрос в Рамблере (я ему внимания вообще не уделяю никогда, потому что сам им не пользуюсь). И чуть не упал. Мой сайт на первом месте по этому запросу.
С уважением,
- Дмитрий
Добрый день!
Господа, вы не поверите. Разблокировали домены. Но отмазка смешная.
"...We expect your support and co-operation in prevention of such hazardous activities. Presently your domain names was suspended as it was hosted on server which supports spamvertized domain names.
However, we have found your case to be genuine and your domain names not involved in spamming. Hence, we are unsuspending it."
"Ваши домены были заблокированы, т.к. хостились на сервере, который поддерживает доменные имена, уличенные в спаме. Однако, мы находим ваш случий исключительным и ваши домены не вовлеченными в спам-деятельность. Поэтому мы их разблокируем."
Господа индусы не знают, что сайты хостятся у американского хостера site5.com, который каждому клиенту выделяет уникальный IP. Если ввести этот IP в браузере, попадаешь на свой сайт по умолчанию (тот что был первый создан в админ панели), т.е. тот же что мояфамилия.com. У меня на аккаунте штук 20 доменов .ru (которые вне компетенции Directi) и вот эти три несчастных (теперь уже разблокированных) домена.
Насколько мне позволяют судить мои знания (или я не прав?) если у меня собственный IP, даже если на этом же сервере висят спамовские домены но на другом IP господа индусы никак не могли бы об этом узнать. Можно конечно, выдвинуть гипотезу, типа если IP в одной подсети, но это никак не означает что они висят на одном физическом сервере.
Пришло письмо и от ICANN где они повторили, что вопрос вне их компетенции и жалоба направлена регистратору. Ну я им там такое жалостливое письмо написал, типа, разве Вы не настоящий американец, разве Вы не верите с силу Закона и Справедливости -- тех ценностей, на которых зиждется США? Может это помогло. :)
Ну индусы все-таки чуваки...
Разумеется я тут же инициировал перевод доменов в REGTIME. Оказалось, что reggi.ru тоже регит домены через Directi. Yikes! ;((
Ничего он не переклеит, файл robots.txt надо разместить в корне ДРУГОГО сайта (зеркала), а не того, который купил наш товарищ. Более того, домены должны быть на одном IP. И robots.txt с директивой host: имя_домена, соответственно, должен быть одинаковый на обоих сайтах.
Иначе я так могу создать, например, зеркало mobile-review.com, а потом прописать в robots.txt host: vasya-pupkin.com. И mobile-review.com лишатся своего бизнеса. :) Смешно, правда? :)
Какая форма обратной связи? Я же говорю два домена - статическая страница.
Не было там никаких форм обратной связи никогда.
мояфамилия.org и мояфамилия.com
Кто мог предлагать товары с этих адресов, о чем вы? :)
Я не хочу светить домены... пока.
А бумажки я им не отошлю. Я не хочу признавать себя виновным. И не буду это делать никогда за преступления которых я не совершал. Это, кстати, совет моего деда (см. первое сообщение).
Мне посоветовали что вопрос решается через реселлера. Вот я ему и переслал эти claims.
Как я упоминал, домен реселлера тоже заблокирован за "спам". Это все произошло в один день. Это явно была запланированная акция. Блокировка моих доменов и письмо от реселлера, что сайт временно не будет работать потому что индусы заблокировали за спам.
Я расскажу что будет дальше. Когда будет что рассказывать.
Все скрипты на сайте магазина самописные. Скрипты магазина не отправляют email клиентам с его
доменного имени, для этого используется домен ru.
Что касается .org и .сom -- они вели на сайт с одной статической страницей -- моей
визитной карточкой. Почта ни на одном из доменов настроена не была. MX записей не было.
И если речь идет просто о том что кто-то использовал для спама имя домена в обратном адресе письма, то, как вы думаете, это достаточный повод для блокировки? Если они так думают, я пасс...
Робот яндекса тупее чем у Google. У меня карта Google была давно, генерилась скриптом который написал сам, раз в сутки, с кэшем, ессно. Прописана она была в robots.txt.
Нашел ее теперь Яндекс, было это печальное событие 24 июня. После этого кол-во проиндексированных страниц с каждым днем стало падать. И упало с 13 тыс. до 7 (не тысяч а страниц).
Яндекс не смог прочитать карту, которую на ура читал гугл. Ошибку выдавал Невалидный XML - без объяснений (расшифровка Яндекса: Файл Sitemap не является правильно построенным (well-formed) XML документом, т.е. не соответствует правилам синтаксиса XML.). Зарубежные валидаторы писали Well formed XML. И гугл тоже читал.
Только потом я допер, что кодировка была не UTF-8 а Windows-1251 (в заголовке XML файла). Это называется несоответствие синтаксису?! Я написал им письмо, но они конечно же не ответили. Теперь когда я исправил, он читает карту нормально, но толку нет. Уже три дня как прочитана карта и в индексе страниц так и есть 7. Вернее, загружено 7, а в индексе 2. Я создавал карту по спецификациям гугла, это было давно и я не помню чтобы там говорилось про UTF-8.
Если б я знал о планах Яндекса, убрал бы во время sitemap из robots.txt.
А сайт жалко: у него тИЦ хороший, а теперь посещаемость упала ровно в 2 раза.
Это сайт интернет-магазина. Состоит из категорий и описаний товара. Около 31 тыс.
наименований.
И еще момент. У них там в FAQ противоречивая информация. Типа, вопрос: влияет ли sitemap на процесс индексации сайта? Ответ: нет, не влияет никак. (было такое сообщение, сейчас пытаюсь найти на сайте -- уже нет, убрали?) Спрашивается, нахрена оно тогда нужно? :) А в другом месте написано, что sitemap помогает индексации, но Я не гарантирует, что все загруженные роботом страницы попадут в индекс. Может они просто над нами стебаются, сделали читалку карты чтоб народ повеселить? А индексатор пашет сам по себе. :)
jbase добавил 07.07.2008 в 02:05
У меня с 10 сайтов читает каждый день.