Seventh Son

Рейтинг
141
Регистрация
03.09.2004
в robots.txt достаточно только написать" User-agent: * Host: biosnew.ru или там ещё что то нужно?

Чтобы Яндексу указать главное зеркало - достаточно, если надо еще что-то позакрывать - Disallow необходимое количество раз.

но в яндексе то все сайты при поиске всплывают с www

В Яндексе всплывает то, что им воспринято как главное зеркало. Многие вебмастера делают сайт с www главным зеркалом, поэтому оно и всплывает.

Вобщем что нужно чтобы Рамблер просто забыл эти странички?

Не поверите: убрать их с сайта. 😂

Сайт у Вас народный. По-моему 301 там настроить нельзя, так что это наверняка единственный способ. Хотя можно переименовать файлы, если удалять неохота. Тоже 404 отдастся.

А скажите по какому принципу ходит робот на сайт(действительно хотелось бы узнать)?

У бота есть некий список страниц, которые надо проиндексировать. Как появился этот список: либо через форму добавили, либо в предыдущий раз бот приходил и ссылок набрал. Индексатор обращается к файлу роботс.тхт и проверяет - какие страницы можно брать, а какие - нет. В соответствии с этим из своего списка он выбирает страницы не запрещенные для индексации и берет их. Таким образом в базу попадает некое множество страниц сайта, но необязательно все.

Насколько я понял, смысл опроса сволится к тому, чтобы объяснить топикстартеру - есть ли на его сайте спам и указать пальцем где именно. Зачем тогда опрос заводить? Вы что, не верите Яндексу?

наоборот! от этого стало только хуже

Не верю. Должны быть какие-то другие причины.

Спецификация не предусматривает закрытие конкретных файлов, а только директорий.

Кто Вам сказал такую чушь?

Смотрим в стандарт - http://www.robotstxt.org/wc/norobots.html

Приведенный там пример:

# robots.txt for http://www.example.com/
User-agent: *
Disallow: /cyberworld/map/ # This is an infinite virtual URL space
Disallow: /tmp/ # these will soon disappear
Disallow: /foo.html

Посмеете оспорить?

И на будущее - подобная конструкция Disallow: /foo.html закрывает от индексации любой урл, начинающийся на site.ext/foo.html

(для документов *.pdf *.doc)

Как вариант - сложить все это в одну папку и лапретить в роботсе ее индексирование. По-моему был какой-то способ еще, но его долго искать на машине в фаворитах.

хотелосьыб понять когда мона ожидать переиндексаци

11 дней - это мелкий срок. Тем более для Рамблера. Один сайт в 500 страниц он утащил за месяц, начиная утаскивать спустя две недели после обновления.

кстати рамблер склеит новые и старые5 странички или просто старые со временем удалит из индекса?

Старые не удалит, пока получает на них 200 ок.

Склеит. И, может быть, очень неудачным для Вас образом.

даже текстовые блоки с первой страницы не помогают...

Как правило, помогает карта сайта.

А если более просто объяснить - это значит, что толку от такого обмена не будет? Будет хуже?

Будет хуже. Попадете под фильтр, который выкинет Вас из десятка (или даже из 50).

Кстати, если этот сайт не Ваш, то внимательно читаем п. 4.1 Правил Форума и понимаем тонкий намек.

Всего: 3632