Voglas

Voglas
Рейтинг
4
Регистрация
11.12.2009

Вот, что изрек гугол на запрос удаления:

Ваш запрос был отклонен потому, что веб-мастер сайта не применил соответствующий файл robots.txt или метатеги, чтобы заблокировать индексирование или архивацию этой страницы.

Это после того, как я ручками внес все 40 странитс в роботс...

Часом не придется ждать, пока Гугль затянет новый роботс.тхт??

paladi:
спасибо, давно искал

paladi добавил 31.01.2010 в 14:08
А что надо прописать в robots.txt а то вот что пишет:
Ваш запрос был отклонен потому, что веб-мастер сайта не применил соответствующий файл robots.txt или метатеги, чтобы заблокировать индексирование или архивацию этой страницы.

Свяжитесь с веб-мастером этого сайта или выберите другой вариант удаления в инструменте для создания заявки на удаление веб-страницы.

Как раз эту тему сейчас обсуждаем тут /ru/forum/comment/6243968

Не лентяй, а большой размер файла robots.txt не рулезз. Мне не проблема 40 строчек накропать.

Я так понимаю пишем по шаблону

Disallow: /www.site.ru/index.html

Voglas добавил 31.01.2010 в 13:55

Willie:
Не забудьте только делать удаление из записи сайт с WWW (если ее нет - надо будет завести).

Можно эту фразу мне растолковать - чувствую, что что-то важное, а смысл не улавливаю

Plazik:
Сделайте 301 редирект с сайта с www на сайт без www. В панеле вебмастеров Google выберите Основной домен. http://www.google.com/support/webmasters/bin/answer.py?answer=44231&hl=ru

В robots.txt поставьте вместо site ваш сайт:
Host: site.ru
Sitemap: http://site.ru/sitemap.xml

Гугл должен сам склеить.

Так в том и проблема, что при всех этих условиях, google не склеил, а отправил страницы с www в сопли.

paladi:
подскажите пожалуйста как удалять страницы из WMT.

Через сюда https://www.google.com/webmasters/tools/removals?pli=1

А перед удалением из ВМТ вродь надо удаляемые страницы запретить в robots.txt

Вот например, если я хочу удалить проиндексированные страницы www.site.ru (дабы не дублировали site.ru в индексе гугля), то мне достаточно следующего оператора в robots.txt (?):

User-agent: googlebot

Disallow: /www.site – {запрет на индексацию любых файлов и папок, которые называются или имеют в своём названии www.site}

Voglas добавил 31.01.2010 в 12:22

Willie:

Самое печальное во всей этой истории то, что Вас , походе, волнует лишь одна составляющая: траффик. Вот скажи Вам, что надо черта лысого нарисовать, чтобы посетители потянулись - не сомневаюсь, нарисуете. А я тут о высоких материях...

Неправда, Willie! Я стремлюсь к гармонии, а траффик и всякие пейджранке меня интересуют только как ее критерии ).

У меня сейчас такое мерзкое чувство, что это иней на верхушке айсберга....

Вилли, а Вы когда-нить слышали слова благодарности из-под плинтуса? Спасибо...

Willie:
Скажите, вот в низу ссылка с анкором "Головна" - это переход на главную страницу? Как я понимаю, да. А отчего тогда если я захожу вот сюда: страница про доставку, то ее адрес показывается как secondhand.uz.ua/index_ua.html, а если захожу вот так - то показывается нормально, secondhand.uz.ua ? Вот только не говорите, пожалуйста, что в этом есть какой-то глубинный смысл.

А вот тут как раз смысл есть, если я правильно понял о чем. Дело в том, что Головна - это для украинского варианта, а там главная и будет secondhand.uz.ua/index_ua.html

То есть Вы утверждаете, что если у меня прописано основное доменное имя http://site.ru/ а на меня идут ссылки внешние и внутренние как на http://www.site.ru/ , то это создает проблему? Плюс внутренние все ссылки между страницами тоже с www

Читал, не раз, спс за ссылку. Вилли, не пожалейте пару мин - взгляните, плз, оком мастера, может Вы увидите причину падения...

Раньше был страффик с гугла от 50 до 100 посетителей в день, а сегодня 1!!

урл сайта в подписи.

Всего: 43