Урлы выглядят как http://site.com/moda-i-stil/stili-v-odezhde/stil-xippi-v-odezhde/
Для яши в роботс:
User-agent: Yandex
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: */feed
Disallow: /trackback
Disallow: */trackback
Disallow: /comments
Disallow: */comments
Disallow: /wp-comments
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /*?*
Disallow: /*?
Disallow: /category/*/*
Disallow: /cgi-bin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /wp-content/cache
Disallow: /wp-admin/
Disallow: /wp-includes/
Host: site.com
Sitemap: http://site.com/sitemap_index.xml
Но такой вариант, как утверждают разработчики Ворпресс, подходит в большинстве случаев. И кто тогда прав?
Ой ли, ой ли!:) Да мне постоянно попадаются такие тексты с "ошипками" - что в Гугле, что в Яндексе, и ладно бы только орфография и/или пунктуация были бы неверными, так еще и весьма нескладно все написано, как будто японцы на русском языке пишут. А пару раз в Топ-10 даже поисковый спам попадался - реально невозможно было читать, хотя статья была все же по теме.
Если это анализатор от самого Яндекса, то кому тогда верить?
Тут еще дело в том, что сайт мой на Вордпресс, а роботс в таком виде, как сейчас у меня, рекомендован самими разработчиками этого движка. Рекомендуют закрывать категории, метки и архивы во избежание дублей
Во-вторых, урлы реально выглядят все же не совсем так, как я описала я в виде site_name/category_name/subcategory_name/article_name т.е. самого слова category в урлах от Вордпресс вообще нет
В-третьих, почему они не могли просканировать html карту сайта, ведь она не принадлежит ни к какой категории и через нее можно просмотреть все страницы сайта?
И в-четвертых, самое главное: почему быстрый бот сумел таки захватить 1 страничку из категории, но это не смог сделать основной робот?
ЗЫ Я получила все же ответ от Платона, но такое ощущение, что я там разговариваю с глухими да к тому же еще и не совсем живыми:) Я им одно - они мне другое:)))
Да, и еще вспомнила: есть страница site.ru/blog где, естественно, все анонсы статей с "Читайте далее", на нее есть ссылка с главной и она, разумеется, не закрыта от индексации. Почему яшины боты ее не просканировали?
Нет, это п..ец этот яша:) Даже в Бинге уже мой сайт есть!)))
что-то я не пойму Яндекс((( Сайт у меня совсем новенький, он для меня первый вообще. Гугл весь мой сайт проиндексировал уже на следующий день после регистрации в Вебмастере. Быстрый робот Яши с неделю назад захватил 1 страничку (урл выглядит как site.com/category/subcategory/article_name/). На днях побывал основной бот, я это поняла по тому что стали доступны Оригинальные тексты. В Вебмастере написано: Загружено 5 страниц, исключено -4. Проиндексирована всего 1 страница - главная, статичная. Причины исключения других - доступ запрещен в роботс. Страницы эти вида /category/subcategory/ - у меня всего 2 категории сейчас, а в каждой из них еще по разделу. В роботс для Яши есть указание Disallow: /category/*/*, но онлайн анализатор показывает что и в этом случае к урлам site.com/category/subcategory/article_name/ доступ разрешен. В чем тут загвоздка не пойму. Вот сижу и гадаю, а варианты моих догадок такие:
1. Яшины боты тормоза и лентяи:) Снова второпях была захвачена одна страничка и жди теперь следующего раза
2. Основной бот сканирует страницы как то не так, как быстрый
3. все мои статьи, за исключением одной-единственной Яша счел недостойным его индекса:) Верится с трудом, т.к. статьи уникальные, качественные, выстраданные пОтом и к тому же ВСЕ в Гугле.
Вчера написала в техподдержку, но теперь понимаю что обьяснила им суть проблемы скорее всего неверно. Ответа нет. Ничего понять не могу. Восемь страниц сейчас всего на сайте, включая главную. Всего 8!
Уважаемые знатоки, подскажите, пожалуйста, ответ на эту "загадку".
Ничего себе! Обалдеть! Браво!---------- Добавлено 17.04.2014 в 04:41 ----------Уже больше года пользуюсь этой замечательной прогой, но вот вдруг возник вопрос, когда стало нужно проверить: а не скопипастили ли мои статьи? По какому принципу прога сканирует поисковики? По их выдаче? То есть тут бы как объяснить: значит, выставила порог прерывания 0 - не прерывать, и затем, если копипастер находится выше моего сайта в выдаче, то Плагиатус сначала на нем прервется? Или же на моей статье? А если мою статью сразу находит, то можно остановить проверку или же продолжить?
Вот все вроде так говорят: пиши анонс в твиттер и опа - страничка в индексе! Но вот представитель Яндекса на мой вопрос: произойдет ли МГНОВЕННАЯ индексация какой-либо моей веб-страницы, если сделать на нее анонс в Твиттере или, предположим, в соц.закладках?" (http://webmaster.ya.ru/replies.xml?item_no=16135) ответил так:
И кому тогда верить?
И потом Вы говорите: "вскочит ЗА СУТКИ". А может за эти сутки у меня этот контент (уникальный, кстати) целую тысячу раз скопипастить успееют? Вот если бы в самом деле МГНОВЕННО...
---------- Добавлено 16.04.2014 в 15:39 ----------
Да нет, спасибо Вам, но все уже решено само собой. Все страницы уже давно в Гугле, с Яндексом только задержка.
загрузила сегодня на Гугл вебмастер карту своего сайта, а Гугл возьми да и выдай:
То есть получается что заблокирован доступ ко ВСЕМУ сайту?!
А вот часть этого роботса:
Я, конечно, дилетант, но как не смотрю, не могу понять - где тут ошибка.
Извините, но "сам сайт" не может быть в индексе:) Там может быть только контент этого сайта:) Почему же они сами себе противоречат?! Я что? теперь должна дожидаться, когда яндексин бот ко мне через пятилетку на сайт припрется, и когда к этому времени мой контент весь подчистую разворуют?! И только ПОСЛЕ ЭТОГО я получу право заявлять Яндексу о своих уникальных текстах? Видимо, не зря про тупость Яндекса говорят!😂
Приветствую всех! У меня вопрос к бывалым блогерам. Как правильно запускать новый блог на Вордпресс? Вот, предположим, домен я зарегистрировал, хостинг оплатил. Что мне делать теперь: вначале переносить свой новый сайт на хостинг или же сперва регистрировать его в Гугл вебмастере и Яндекс вебмастере? И на каком этапе уведомлять Яндекс о своих статьях через сервис Оригнальные тексты: до переноса сайта на хостинг или уже после? В какой момент прописывать NS сервера хостера? Вот именно эта последовательность действий меня очень волнует.
Извините меня, дилетантку, но разве в пределах отдельно взятого сайта может учитываться какая-то уникальность если те статьи не совсем на все 100 уникальны, а между собой (!) похожи на какие-нибудь там 80-90%? Уж по отношению то к контенту, размещенному на других сайтах, они, надеюсь, уникальны?
Извините, если не совсем ясно высказала свою мысль:)
если один автор пишет, пусть даже и опытный и способный, то он в любом случае имеет какой-то свой стиль, а значит, неизбежны какие-то самоповторы. Уж другие источники он напрямую-то, надеюсь, не цитирует? Если это так, что тут плохого? :)
Хотя... видимо, я не совсем не поняла.. Если они пишут еще для кого-то...