Ksi

Рейтинг
11
Регистрация
25.12.2006
Должность
вольный каменщик
Интересы
кошки, гаджеты, горные лыжи
Сплошное недоразумение

А что мешает поменять хостера?

joost:
Как от него избавится? Как сделать, чтобы сайт опять не взломали?

1. Если у вас на компьютере установлен фтп-клиент, поменяйте пароли всем фтп всех сайтов, которые там прописаны.

2. Пусть администратор сайта или грамотный программист вычистит весь код сайтов от тега iframe.

3. Антивирусной программой очистите комп от троянов, которые наверняка у вас там сидят и гадят.

4. Никогда не открывайте подозрительные аттачи и не скачивайте подозрительные файлы. Всегда обновляйте своевременно антивирус.

5. Не пользуйтесь ftp, пользуйтесь scp.

Ага. Спасибо всем огромное.

igor456, про ключевики учту на будущее, но нынешний движок живет по своим законам и на ключевики в ссылках ему плевать :(

Не растраты, а затраты :о) "Растраты" - это когда чужие деньги взял и пропил.

Затраты такие:

- покупка ссылок

- регистрация по каталогам

- затраты на разработку сателлитов *если оптимизатор сам себе не разработчик*

- интернет-трафик

очень много ошибок на главной

Ага. Спасибо огромное!

Cпасибо.

А если удалить www.domain.ru из Яндекса, а через неделю отдать ему domain.ru - результат будет?

FishB1:
Лучше так:

User-Agent: *
Disallow: /files


User-Agent: Yandex
Disallow: /files
Host: www.domain.ru

Дело в том, что неисправленный роботс.тхт в таком виде:

User-Agent: *

Disallow: /files

Host: www.domain.ru

как раз привел к выпадению всех страниц из индекса Я. Зачем все повторять заново, но уже с отдельным указанием ботам Яндекса долбиться в заведомо отсутствующие страницы? :о(

Робот исправно ходит, исправно получает свои ответы:

Yandex robots.txt 213.180.206.223 21.12.2006 213.180.206.223 200 213.180.206.223 - - [21/Dec/2006:20:09:03 +0300] "GET /robots.txt HTTP/1.1" 200 23 "-" "Yandex/1.03.003 (compatible; Win16; D)" 

Yandex / 213.180.206.223 21.12.2006 213.180.206.223 200 213.180.206.223 - - [21/Dec/2006:20:09:04 +0300] "GET / HTTP/1.1" 200 33012 "-" "Yandex/1.03.003 (compatible; Win16; D)"
Yandex robots.txt 213.180.206.1 23.12.2006 213.180.206.1 200 213.180.206.1 - - [23/Dec/2006:03:34:01 +0300] "GET /robots.txt HTTP/1.1" 200 23 "-" "Yandex/1.01.001 (compatible; Win16; I)"
Yandex / 213.180.206.1 23.12.2006 213.180.206.1 200 213.180.206.1 - - [23/Dec/2006:03:34:02 +0300] "GET / HTTP/1.1" 200 33032 "-" "Yandex/1.01.001 (compatible; Win16; I)"

но страницы-то из индекса вылетели.

Cherny:
Ksi, попросите программиста лучше перенастроить редирект, чтобы он вел с domain.ru на www.domain.ru.
А в роботсе строчка с директивой Host должны идти после строк с Disallow, как-то так:
User-Agent: * 

Disallow: /files
Host: www.domain.ru

Cherny, необходимо, чтобы пользователь попадал именно на domain.ru, без www. Поэтому редирект и настроили с www.domain.ru на domain.ru. При наличии www не работает какая-то специальная сессия куки (я в подробности вдавалась, но запуталась).

А дважды пользователя редиректить как-то...

Спасибо за ответ :о)