Правильно ли составлен robots.txt?

12
P
На сайте с 11.09.2014
Offline
18
753

Всем привет! Посмотрите, пожалуйста, robots! Правильно ли он составлен? Я добавил его около 2-ух недель назад на сайт, а ссылки из гугла так и не вылетели!

User-agent: *

Disallow: /engine/go.php

Disallow: /engine/download.php

Disallow: /user/

Disallow: /tags/

Disallow: /page/

Disallow: */page/*

Disallow: /language/

Disallow: /templates/

Disallow: /upgrade/

Disallow: /backup/

Disallow: /admin.php

Disallow: /engine/

Disallow: /newposts/

Disallow: /statistics.html

Disallow: /*subaction=userinfo

Disallow: /*subaction=newposts

Disallow: /*do=lastcomments

Disallow: /*do=feedback

Disallow: /*do=register

Disallow: /*do=lostpassword

Disallow: /*do=addnews

Disallow: /*do=stats

Disallow: /*do=pm

Disallow: /*do=search

Disallow: /pravoobladatelyam.html

Disallow: /2014/

Disallow: /1996/

Disallow: /1997/

Disallow: /1998/

Disallow: /1999/

Disallow: /2000/

Disallow: /2001/

Disallow: /2002/

Disallow: /2003/

Disallow: /2004/

Disallow: /2005/

Disallow: /2006/

Disallow: /2007/

Disallow: /2008/

Disallow: /2009/

Disallow: /2010/

Disallow: /2011/

Disallow: /2012/

Disallow: /2013/

Host: название_сайта

Sitemap: http://название_сайта/sitemap.xml

P
На сайте с 27.03.2013
Offline
14
#1

Ну вообще надо знать, какие страницы вы закрыть пытаетесь.

robots.txt тут можно проверить: http://webmaster.yandex.ru/robots.xml

Посмотрите, закрыли ли нужное и не закрыли ли лишнего.

P
На сайте с 11.09.2014
Offline
18
#2

Я и пытаюсь узнать, правильно ли я закрыл или нет. В выдаче гугла есть страницы типа: материалы за 1999 и т.д. Вот их я и пытаюсь закрыть.

B4
На сайте с 27.04.2012
Offline
94
#3

Лучше тут обсуждать.

Вообще, чтобы узнать правильно или нет, нужно видеть URL-ы которые вы хотите закрыть. В целом ошибок не вижу.

P
На сайте с 11.09.2014
Offline
18
#4

Вот сайт kinolike.net (не реклама). Если ввести в гугле site:kinolike.net и перейти на 3 страницу, именно с нее, начинаются ссылки типа: материалы за 1989 год. В панели вебмастеров я удалял их, а они снова появились.

DK
На сайте с 06.02.2011
Offline
36
#5

А от размера robots.txt что-либо зависит? Просто если он будет очень длинный 100-150 строк, то это как то может навредить?

Куплю WMZ или WME за наличные в Киеве.
Lichkin-rus
На сайте с 26.11.2012
Offline
57
#6

Хост лучше писать для Яндекс бота, т.к. Гугл его не учитывает. Закрывать информационные и навигационные страницы не нужно. Только технические и дубли.

Занимаюсь оптимизацией и продвижением сайтов. Работа на результат. Только белые методы.
knezevolk
На сайте с 18.08.2008
Offline
292
#7
DarlacK:
А от размера robots.txt что-либо зависит?

Нет, все равно его обработают - если будет грамотно составлен.

Pivovarof, а вы пробовали инструмент "просмотреть как Googlebot"? Видит он эти страницы при текущем роботсе?

Контекст окупается - создание Директа и Гугл Рекламы (Adwords) ( https://searchengines.guru/ru/forum/964055 ) ||| Ютуб-канал "Директ для собственников бизнеса" ( https://www.youtube.com/channel/UCjzF4_iuZQc3Avbngb_xsjg/ )
DK
На сайте с 06.02.2011
Offline
36
#8
User-agent: Yandex
Allow: /wp-content/uploads/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /*?*
Disallow: /*?s=*
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /search/*/*
Disallow: /page/*
Disallow: /tag/otchet*

User-agent: *
Allow: /wp-content/uploads/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /*?*
Disallow: /*?s=*
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /search/*/*
Disallow: /page/*
Disallow: /tag/otchet*

User-agent: ia_archiver
Disallow: /

То есть отдельно для всех и отдельно для яндекс вот так будет правильно?

S
На сайте с 10.09.2014
Offline
31
#9

Да, только host и sitemap нужно тоже прописать

DK
На сайте с 06.02.2011
Offline
36
#10
speaktaper:
Да, только host и sitemap нужно тоже прописать

Это прописано, просто не стал добавлять сюда. Спасибо :)

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий