Почему гуля с яшей так долго рожают?

123
W
На сайте с 16.10.2008
Offline
142
#11
spiderbuber:
Он что, брезгует этой инструкцией - "User-agent: *" ?

Вы видно не всё поняли, нельзя писать так:

User-agent: *

Disallow: /cgi-bin/

Disallow: /wp-admin/

.....

Host: blogprosex.ru

Поскольку директива Host - это только для Яндекса

Поэтому нужны 2-е инструкции, отдельно для Яндекса и отельно для остальных роботов ПС.

spiderbuber:
А чем может навредить sitemap.xml ? Сайт планируется плодотворно разростаться

ДА нет в этом вреда, но при данном количестве страниц они за 1-н ап попадут в индекс, я не думаю, что Вы будете сразу загружать по 300 новых страниц на сайт. К тому же, если Вы будете развивать сайт, то роботы будет чаще посещать ресурс и индексировать новые материалы.

Миледи: интернет-магазин украшений с природными камнями (https://milady-24.ru/)
S
На сайте с 06.08.2008
Offline
130
#12

Спасибо, поправил!.. еще пару вопросиков в тему: 1) Видел на некоторых сайтах, что они запрещают роботам "Disallow: /wp-content/" - стоит ли это делать?

2) У меня сейчас прописаны пинги:

http://www.blogoon.net/ping
http://rpc.technorati.com/rpc/ping
http://bulkfeeds.net/rpc
http://rpc.weblogs.com/RPC2
http://api.my.yahoo.com/RPC2
http://services.newsgator.com/ngws/xmlrpcping.aspx
http://api.moreover.com/ping
http://api.moreover.com/RPC2
http://www.blogpeople.net/servlet/weblogUpdates
http://ping.bloggers.jp/rpc
http://bblog.com/ping.php
http://rpc.tailrank.com/feedburner/RPC2
http://ping.feedburner.com
http://ping.myblog.jp
http://ping.weblogalot.com/rpc.php
http://pinger.blogflux.com/rpc
http://blogsearch.google.com/ping/RPC2
http://blog.goo.ne.jp/XMLRPC
http://rpc.icerocket.com:10080
http://rpc.pingomatic.com
http://api.feedster.com/ping
http://www.holycowdude.com/rpc/ping
http://ping.syndic8.com/xmlrpc.php
http://ping.blogs.yandex.ru/RPC2

Стоит ли что-либо добавить или убрать? И есть ли от них вообще толк или это только догадки сеошников?

A7
На сайте с 02.07.2008
Offline
47
#13
Webexpert:
Плохо читали.

User-agent: Yandex
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments/feed
Disallow: /feed (# запрещает скачивать все, кроме страниц начинающихся с '/feed', таким образом Вы не папку отключаете от индексации)
Disallow: /feed/atom
Disallow: /feed/rss
Host: blogprosex.ru

Sitemap: http://blogprosex.ru/sitemap.xml (можно и не использовать в Вашем случае, у ВАс всего 50-60 страниц, я бы сделал только карту сайта)

User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments/feed
Disallow: /feed
Disallow: /feed/atom
Disallow: /feed/rss

Начнем с того, что последовательность должна быть обратной, вначале прописываются правила для всех поисковых систем, а потом делаются исключения для определенных User-agent-ов

Далее Вы делаете дубликацию кода. Зачем повторять код, если Вы не собираетесь вносить корректировки для определенной поисковой системы, получается у Вас идут те же исключения для Яндекса, что и для остальных поисковых систем.

должно выглядеть так:


User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments/feed
Disallow: /feed
Disallow: /feed/atom
Disallow: /feed/rss

User-agent: Yandex
Host: blogprosex.ru

Также, можно не прописывать User-agent: Yandex, а просто прописать ее в User-agent: * в конце директиву Host (она должна быть обязательно последней). Просто остальные системы её использовать не будут, т.к. это фича Яндекса.

Здесь про анализ Яндексом файла роботс, а вот тут про стандарты роботс на которые стоит ссылка из предыдущего документа и напсано, что вначале должны использоваться правила для наибольшего колличества роботов


If more than one User-agent field is present the record describes an identical access policy for more than one robot. At least one field needs to be present per record.

и там же есть участок относительно дупликации


If the value is '*', the record describes the default access policy for any robot that has not matched any of the other records. It is not allowed to have multiple such records in the "/robots.txt" file.

Ну а если по теме:

spiderbuber:
Выложил сайт. Контент - уник. Прогнал пару раз по социалкам. Добавил в гулю и яшу еще 10 марта - в выдаче ни там ни там нет :( Хотя уже прошел ап тица и ап выдачи... Как быть?

Последнее время индексация идет долго, если не ставить внешних ссылок, да даже если их ставить и постоянно добовлять в адурилку проходит недели 3, иногда меньше, иногда больше, прежде чем сайт появляется в выдаче Яндекса.

S
На сайте с 06.08.2008
Offline
130
#14

Axiom777, Вы меня просто окончательно запутали :(... оставил Ваш вариант. Что можете сказать по "Disallow: /wp-content/" - стоит ли это делать?

A7
На сайте с 02.07.2008
Offline
47
#15

Удалиете robots.txt вообще, если не понимаете зачем он нужен...;)

Без этого файла сайты также живут... просто будут индексироваться не нужные страницы... когда разберетесь, какие страницы вам не надо индексировать прочитайте мануал Яндекса и делайте как там написано, со временем разберетесь

Talisman13
На сайте с 20.01.2007
Offline
211
#16
Axiom777:
Начнем с того, что последовательность должна быть обратной, вначале прописываются правила для всех поисковых систем, а потом делаются исключения для определенных User-agent-ов

Где это вы такое вычитали?

Вот хотя бы прочитайте тему и 18 пост в отдельности несколько раз чтобы лучше дошло.

A7
На сайте с 02.07.2008
Offline
47
#17
Talisman13:
Где это вы такое вычитали?
Вот хотя бы прочитайте тему и 18 пост в отдельности несколько раз чтобы лучше дошло.

Если существуют правила, то их не просто так пишут.

Стандарты и наследование, что прописано для всех поисковых систем работает и правила написисания также. Если объявляется в robots.txt новый user-agent, то он наследует все предыдущие правила и в них можно прописать другие.

Относительно другой темы, там идет о другом разговор.

Crawl-delay: - какой поисковик пользуется данной перемнной?

Если существуют проблемы, то надо писать в службу поддержки.

Talisman13
На сайте с 20.01.2007
Offline
211
#18
Axiom777:
Стандарты и наследование, что прописано для всех поисковых систем работает и правила написисания также.

Сами вы написисания. :D

Бред новичкам советуете.

A7
На сайте с 02.07.2008
Offline
47
#19

Talisman13 Я был не прав

S
На сайте с 28.10.2005
Offline
296
#20
spiderbuber:
Axiom777, Вы меня просто окончательно запутали :(...


User-agent: Yandex
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments/feed
Disallow: /feed
Host: blogprosex.ru

User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments/feed
Disallow: /feed
Sitemap: http://blogprosex.ru/sitemap.xml

яндекс тоже Sitemap увидит

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий