Estelle

Рейтинг
50
Регистрация
30.10.2012
ZoomY:
Так что вы или выкладывайте оригиналы урлов, или "правильно" их скрывайте, чтобы было понятно, о чём речь.

Урлы выглядят как http://site.com/moda-i-stil/stili-v-odezhde/stil-xippi-v-odezhde/

Для яши в роботс:

User-agent: Yandex

Disallow: /wp-login.php

Disallow: /wp-register.php

Disallow: /webstat/

Disallow: /feed/

Disallow: */feed

Disallow: /trackback

Disallow: */trackback

Disallow: /comments

Disallow: */comments

Disallow: /wp-comments

Disallow: /wp-trackback

Disallow: /wp-feed

Disallow: /*?*

Disallow: /*?

Disallow: /category/*/*

Disallow: /cgi-bin

Disallow: /wp-content/plugins

Disallow: /wp-content/themes

Disallow: /wp-content/cache

Disallow: /wp-admin/

Disallow: /wp-includes/

Host: site.com

Sitemap: http://site.com/sitemap_index.xml

Но такой вариант, как утверждают разработчики Ворпресс, подходит в большинстве случаев. И кто тогда прав?

ZoomY:
Безграмотные тексты ранжируются ниже.

Ой ли, ой ли!:) Да мне постоянно попадаются такие тексты с "ошипками" - что в Гугле, что в Яндексе, и ладно бы только орфография и/или пунктуация были бы неверными, так еще и весьма нескладно все написано, как будто японцы на русском языке пишут. А пару раз в Топ-10 даже поисковый спам попадался - реально невозможно было читать, хотя статья была все же по теме.

ZoomY:
Внимание, правильный ответ:

Загвоздка в онлайн-анализаторе. Какой вы использовали? Если использовать встроенный анализатор Яндекса, то он как раз покажет, что всё от индексации закрыто.

Сама по себе структура "Disallow: /category/*/*" лишена смысла, поскольку работает так же, как и "Disallow: /category/" (звёздочка и отсутствие звёздочки равносильны любой последовательности символов в урле), соответственно идёт запрет на индексацию /category/ и всех вложенных статей и категорий. Боты Яндекса всё правильно сделали.

Если это анализатор от самого Яндекса, то кому тогда верить?

Тут еще дело в том, что сайт мой на Вордпресс, а роботс в таком виде, как сейчас у меня, рекомендован самими разработчиками этого движка. Рекомендуют закрывать категории, метки и архивы во избежание дублей

Во-вторых, урлы реально выглядят все же не совсем так, как я описала я в виде site_name/category_name/subcategory_name/article_name т.е. самого слова category в урлах от Вордпресс вообще нет

В-третьих, почему они не могли просканировать html карту сайта, ведь она не принадлежит ни к какой категории и через нее можно просмотреть все страницы сайта?

И в-четвертых, самое главное: почему быстрый бот сумел таки захватить 1 страничку из категории, но это не смог сделать основной робот?

ЗЫ Я получила все же ответ от Платона, но такое ощущение, что я там разговариваю с глухими да к тому же еще и не совсем живыми:) Я им одно - они мне другое:)))

Да, и еще вспомнила: есть страница site.ru/blog где, естественно, все анонсы статей с "Читайте далее", на нее есть ссылка с главной и она, разумеется, не закрыта от индексации. Почему яшины боты ее не просканировали?

Нет, это п..ец этот яша:) Даже в Бинге уже мой сайт есть!)))

что-то я не пойму Яндекс((( Сайт у меня совсем новенький, он для меня первый вообще. Гугл весь мой сайт проиндексировал уже на следующий день после регистрации в Вебмастере. Быстрый робот Яши с неделю назад захватил 1 страничку (урл выглядит как site.com/category/subcategory/article_name/). На днях побывал основной бот, я это поняла по тому что стали доступны Оригинальные тексты. В Вебмастере написано: Загружено 5 страниц, исключено -4. Проиндексирована всего 1 страница - главная, статичная. Причины исключения других - доступ запрещен в роботс. Страницы эти вида /category/subcategory/ - у меня всего 2 категории сейчас, а в каждой из них еще по разделу. В роботс для Яши есть указание Disallow: /category/*/*, но онлайн анализатор показывает что и в этом случае к урлам site.com/category/subcategory/article_name/ доступ разрешен. В чем тут загвоздка не пойму. Вот сижу и гадаю, а варианты моих догадок такие:

1. Яшины боты тормоза и лентяи:) Снова второпях была захвачена одна страничка и жди теперь следующего раза

2. Основной бот сканирует страницы как то не так, как быстрый

3. все мои статьи, за исключением одной-единственной Яша счел недостойным его индекса:) Верится с трудом, т.к. статьи уникальные, качественные, выстраданные пОтом и к тому же ВСЕ в Гугле.

Вчера написала в техподдержку, но теперь понимаю что обьяснила им суть проблемы скорее всего неверно. Ответа нет. Ничего понять не могу. Восемь страниц сейчас всего на сайте, включая главную. Всего 8!

Уважаемые знатоки, подскажите, пожалуйста, ответ на эту "загадку".

anser06:
Я с трудом нашел одно такое: "умный совет foxi"

Ничего себе! Обалдеть! Браво!

---------- Добавлено 17.04.2014 в 04:41 ----------

Уже больше года пользуюсь этой замечательной прогой, но вот вдруг возник вопрос, когда стало нужно проверить: а не скопипастили ли мои статьи? По какому принципу прога сканирует поисковики? По их выдаче? То есть тут бы как объяснить: значит, выставила порог прерывания 0 - не прерывать, и затем, если копипастер находится выше моего сайта в выдаче, то Плагиатус сначала на нем прервется? Или же на моей статье? А если мою статью сразу находит, то можно остановить проверку или же продолжить?

unical:
Также, прогнать по по твиттам. 30 - 40% страниц, в индекс аж вскочит через сутки. Правда если контент не уник, то будет по сложнее ))

Вот все вроде так говорят: пиши анонс в твиттер и опа - страничка в индексе! Но вот представитель Яндекса на мой вопрос: произойдет ли МГНОВЕННАЯ индексация какой-либо моей веб-страницы, если сделать на нее анонс в Твиттере или, предположим, в соц.закладках?" (http://webmaster.ya.ru/replies.xml?item_no=16135) ответил так:

Сказать, сможет ли ускорить этот процесс размещение анонса в соцсети, к сожалению, я не могу.

И кому тогда верить?

И потом Вы говорите: "вскочит ЗА СУТКИ". А может за эти сутки у меня этот контент (уникальный, кстати) целую тысячу раз скопипастить успееют? Вот если бы в самом деле МГНОВЕННО...

---------- Добавлено 16.04.2014 в 15:39 ----------

x-druid-x:
Вы заморачиваетесь с ненужными вещами. Просто домен - это не сайт, зачем голый домен добавлять в вебмастеры пс?

Да нет, спасибо Вам, но все уже решено само собой. Все страницы уже давно в Гугле, с Яндексом только задержка.

загрузила сегодня на Гугл вебмастер карту своего сайта, а Гугл возьми да и выдай:

Доступ к URL заблокирован в файле robots.txt.
Файл Sitemap содержит URL, доступ к которым заблокирован в файле robots.txt.
http://site.com/category-sitemap.xml
http://site.com/page-sitemap.xml
http://site.com/post-sitemap.xml

То есть получается что заблокирован доступ ко ВСЕМУ сайту?!

А вот часть этого роботса:

User-agent: *
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: */feed
Disallow: /trackback
Disallow: */trackback
Disallow: /comments
Disallow: */comments
Disallow: /wp-comments
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /*?*
Disallow: /*?
Disallow: /category/*/*
Disallow: /cgi-bin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /wp-content/cache
Disallow: /wp-admin/
Disallow: /wp-includes/

Я, конечно, дилетант, но как не смотрю, не могу понять - где тут ошибка.

Kot Matroskin:
Сам сайт должен быть в индексе.

Извините, но "сам сайт" не может быть в индексе:) Там может быть только контент этого сайта:) Почему же они сами себе противоречат?! Я что? теперь должна дожидаться, когда яндексин бот ко мне через пятилетку на сайт припрется, и когда к этому времени мой контент весь подчистую разворуют?! И только ПОСЛЕ ЭТОГО я получу право заявлять Яндексу о своих уникальных текстах? Видимо, не зря про тупость Яндекса говорят!😂

Приветствую всех! У меня вопрос к бывалым блогерам. Как правильно запускать новый блог на Вордпресс? Вот, предположим, домен я зарегистрировал, хостинг оплатил. Что мне делать теперь: вначале переносить свой новый сайт на хостинг или же сперва регистрировать его в Гугл вебмастере и Яндекс вебмастере? И на каком этапе уведомлять Яндекс о своих статьях через сервис Оригнальные тексты: до переноса сайта на хостинг или уже после? В какой момент прописывать NS сервера хостера? Вот именно эта последовательность действий меня очень волнует.

DianaS:
Здравствуйте,
У меня появилась необходимость проверки сайта (около 5 000 страниц) на уникальность размещенных статей, но не по всему интернету, а только в пределах моего сайта.
У моих копирайтеров намылился глаз и я начала находить статьи с плохой уникальностью. Причем она плохая только из за того, что они повторяют сами себя. Сначала писались тексты, а потом добавлялись на сайт все разом. Поэтому сейчас начала выплывать проблема повторов. И теперь нужно проверить все статьи размещенные на сайте.

Извините меня, дилетантку, но разве в пределах отдельно взятого сайта может учитываться какая-то уникальность если те статьи не совсем на все 100 уникальны, а между собой (!) похожи на какие-нибудь там 80-90%? Уж по отношению то к контенту, размещенному на других сайтах, они, надеюсь, уникальны?

Извините, если не совсем ясно высказала свою мысль:)

если один автор пишет, пусть даже и опытный и способный, то он в любом случае имеет какой-то свой стиль, а значит, неизбежны какие-то самоповторы. Уж другие источники он напрямую-то, надеюсь, не цитирует? Если это так, что тут плохого? :)

Хотя... видимо, я не совсем не поняла.. Если они пишут еще для кого-то...

Всего: 85