iren K

iren K
Рейтинг
222
Регистрация
28.12.2008
big boy:

Какие могут быть предприняты меры, по выводу сайта из бана?

никакие -> просто ждите,сам вылезет: была подобная ситуация

когда выплаты за прошедшую неделю будут?

-> сейчас висит в статусе "ожидает оплаты" (а уже суббота)

onikys:
Никак не могу понять, почему в гугл лезут страницы, которые закрыты в robots.txt

тут можно почитать мнение гугла по этому вопросу,особенно обратите внимание на это:

While Google won't crawl or index the content of pages blocked by robots.txt, we may still index the URLs if we find them on other pages on the web.
Mish-ka:
iren K, Это был вброс? :)

да не -> просто тема уже баян,и читать хотя бы доки надо 🙄

SeraZwer:
лучше потратить пару минут на заполнение Title, Description и Keywords. Хуже уж точно не будет (при правильном подходе к заполнению).

вот тут почитайте,что Г думает по этому поводу 🍿

Слоняра:

CMS на сайтах стоят самые разные, дыру искать нереально.

а .ftpaccess загрузить в корень и заходить только через ssh не пробовали?

numer482:
Что должно быть в .htaccess, что бы при открытии, к примеру, url'а http://site.com/news открывался файл news.php?
Гуглил, что то пытался сделать - не работает:) А погружаться в изучение .htaccess ради одного момента, как то лень🙄


DirectoryIndex news.php
Crazy & Co.:

ЗЫ: Мне не совсем понятно, чем вы занимались последние 5 лет, что пришли к такому выводу...

мфа клепал..

а теперь сопли и слезы: как все плохо 😒

sigor:
но очень уж геморно...

почему - если очень надо,придется 🍿

но насколько поняла - у тс проблема с дублями и т.п. -> здесь проще в .htaccess разрулить нужное правило

sergey885:
гуглу на роботс пофигу, это ни один раз доказано практикой

угу,и теорией тоже,особенно это:

While Google won't crawl or index the content of pages blocked by robots.txt, we may still index the URLs if we find them on other pages on the web.
Всего: 3750