ruizAv

ruizAv
Рейтинг
67
Регистрация
08.06.2004
olga-top:
если прописать хост в общем списке, то робортс обработается с ошибкой. Я так считаю!

Зашел в гуглю-вебмастер, вбил роботс в виде:

User-agent: *

Disallow: /cgi-bin

Host: vodka.kiev.ua

Sitemap: http://vodka.kiev.ua/sitemap.xml.gz

и запустил анализ корневого урла. В результатах:

Синтаксический анализ результатов поиска

Значение Результат

Строка 3: bla-bla-bla Синтаксис не распознается

Строка 4: Sitemap: http://vodka.kiev.ua/sitemap.xml.gz Обнаружены данные о действительном файле Sitemap

На «bla-bla-bla» - ругается, на «Host» - не ругается.

Пример самого Яндекса:

#Пример корректно составленного robots.txt, при обработке

#которого директива Host учитывается

User-Agent: *

Disallow:

Host: www.имя_вашего_сервера.ru

ruizAv добавил 15.12.2011 в 17:32

Dwarfik:
девочка … курсы по контекстной рекламе … пафосных сео-конктор … в роботсе надо для яндекса дублировать директивы с точным указанием юзер-агента.

Вот почему-то именно такое сочетание постоянно и встречается. Сдесь же есть «пафосные СЕО», может разъяснят? Или продолжать считать это потоком сознания?

Andrey4ik:

включил данные опции.

ну и отлично, теперь в панели Вебмастера увидите что-то типа "Исключено роботом":

  • Документ запрещен в файле robots.txt
  • Документ содержит мета-тег noindex
  • Неверный формат документа
  • Документ не является каноническим

p.s. комменты, если модерируете, я бы не прятал.

p.p.s. в приведенном роботсе большинство каталогов закрыто не с целью оптимизации, а с целью безопасности.

Не оттуда заходите. На WP есть куча плагинов, например All in One SEO Pack, который, не смотря на скудность настроек, сорержит все необходимое. В нем обязательно включите опции:

  • Canonical URLs
  • Use noindex for Categories
  • Use noindex for Archives
  • Use noindex for Tag Archives
  • Autogenerate Descriptions

ну и прочие полезности в виде правки Тайтлов и добавления Тегов в Мету, но то такое. Именно использование канонических урлов режет дубли.

Я просто каждый материал тут же шлю кнопками в ФБ (через него в Твиттер), ВК и Г+ - Гугля выкатывает материал в поиск практически сразуЮ а вот Яша...

Если все это делать через кнопки от Я - будет быстрее, у кого опыт есть?

От ссылок не бывает тепло или холодно. Хамить зря пытаешься. Мнение высказал - спасибо.

Miha Kuzmin (KMY):
Вьюноша, когда ваш сайт свистнут, там автоматом все заменят, не боися.

Кто говорит про сайт и свистнут? Просто перепечатают, даже со ссылкой (завернутой в скрипт). А текст останется. Было не раз и не два, и не десять. И даже копировали целыми сайтами и не все меняли.

Вьюноша... 🍿

богоносец:
А лучше будет, если пять или семь?

Релевантность не является условием показа в выдаче

В обоих примерах снипет взят из дискрипшена. А речь шла о том, что сделать, если сниппет не из дискрипшена.

И потом, эти примеры - не сниппет по запросу, а проверка наличия слова на конкретном урле. Слово есть, в заголовке, но нет на странице - вам дискрипшн и выдали. Логика железная.

ruizAv добавил 14.12.2011 в 18:49

богоносец:
Вот один крайний случай, когда описалово покажется, каким бы оно ни было.

хрена с два

С точки зрения ПС - пофиг. С точки зрения логики - №2. Но с точки зрения вебмастера - вариант №1.

Объяснение предельно простое. Да, при переносе больше гемора, но! когда ваш материал автоматом утянут на другой сайт абсолютная ссылка в тексте будет отлично работать на вас.

Потому, кстати, нужно стараться хоть какую-то перелинковку делать в каждой статье.

Угу, в Гугле все ок. Если нужно в Я сделать вменяемый сниппет на сложной странице (например для титулки, где лента, архивы, выдержки и т.д.) - то делайте просто кусок текста с нужным описанием и парой-тройкой вхождений ключевика.

Если это нишевый сайт и конкуренции в этой тематике нет (т.е. им просто тупо больше негде разместиться) - то цена от посещалки зависит слабо.

Всего: 197