да - но разве когда сайты сделаны на флеш - яндекс это никак не карает?
наблюдал - два сайта одной тематики и в whois разные данные - domain.ru - продвигался, domain1.ru - нет (тематика правда одна и та же), через какое то время domain.ru вылетел по ВЧ а domain1.ru - взлетел в топ по этому вч - оказалось на сайте где никто и никогда даже не мог представить находится телефон первого домена - аффилиат - и вся ссылочная масса поделена была на два (условно конечно- но где то я тут читал про это)...
данные разные везде на сайтах? whois тексты и тд?
Проверь тошноту на странице которая вылазит выше главной - возможно она там больше. Если так то текст надо менять конечно.
Странная вещь - нельзя чтоли при индексации нового сайта отсеивать анонимизированные и подобные Г-о тексты.
Кстати Яндекс какую то хрень для проверки адекватности текста купил у фирмачей...
Следующее будет - а ну встал в угол!=)))))
Гоша возьмет как раз из секции яндекса прекрасно - а скорее всего он просто найдет ее на сайте если еще этого не сделал - а для яндекса нужно указывать.
То есть? все равно чтоль какой контент Яндекс и так схавает?
Можно объяснить?
Я и не говорил про дублирование - просто смысле ее размещение априори имеет место ( если конечно она есть) и все равно в какой секции.
А сайты у меня есть и не один;)
Да с чего это только во второй - Яндекс что перестал карту сайта в xml понимать?
читайте техподдержку Яши:
http://help.yandex.ru/webmaster/?id=996567#996573
Директива Sitemap.
Если вы используете описание структуры вашего сайта в формате sitemaps.xml, и хотите, чтобы робот узнал о ней, укажите путь к sitemaps.xml, в качестве параметра директивы 'Sitemap' (если файлов несколько, укажите все), примеры:
User-agent: Yandex
Allow: /
Sitemap: http://mysite.ru/site_structure/my_sitemaps1.xml
Sitemap: http://mysite.ru/site_structure/my_sitemaps2.xml
или
User-agent: *
Disallow: /
Робот запомнит пути к sitemaps.xml, обработает файлы и будет использовать результаты при последующем формировании сессий закачки.
Sergover добавил 01.02.2010 в 19:41
User-Agent: Yandex
Disallow:
Host: site.by
User-Agent: *
Этого хватит...
А вот если вы хотите запретить какие либо страницы и у вас есть команды со звездочкой /*search например то нужно еще добавить секцию GoogleBot и в ней и в Yandex прописать, а вот в третьей уже не указывать комманд со звездами так как не все поисковики понимают звездочку.