Зашел в гуглю-вебмастер, вбил роботс в виде:
User-agent: *
Disallow: /cgi-bin
Host: vodka.kiev.ua
Sitemap: http://vodka.kiev.ua/sitemap.xml.gz
и запустил анализ корневого урла. В результатах:
Синтаксический анализ результатов поиска
Значение Результат
Строка 3: bla-bla-bla Синтаксис не распознается
Строка 4: Sitemap: http://vodka.kiev.ua/sitemap.xml.gz Обнаружены данные о действительном файле Sitemap
На «bla-bla-bla» - ругается, на «Host» - не ругается.
Пример самого Яндекса:
#Пример корректно составленного robots.txt, при обработке
#которого директива Host учитывается
User-Agent: *
Disallow:
Host: www.имя_вашего_сервера.ru
ruizAv добавил 15.12.2011 в 17:32
Вот почему-то именно такое сочетание постоянно и встречается. Сдесь же есть «пафосные СЕО», может разъяснят? Или продолжать считать это потоком сознания?
ну и отлично, теперь в панели Вебмастера увидите что-то типа "Исключено роботом":
p.s. комменты, если модерируете, я бы не прятал.
p.p.s. в приведенном роботсе большинство каталогов закрыто не с целью оптимизации, а с целью безопасности.
Не оттуда заходите. На WP есть куча плагинов, например All in One SEO Pack, который, не смотря на скудность настроек, сорержит все необходимое. В нем обязательно включите опции:
ну и прочие полезности в виде правки Тайтлов и добавления Тегов в Мету, но то такое. Именно использование канонических урлов режет дубли.
Я просто каждый материал тут же шлю кнопками в ФБ (через него в Твиттер), ВК и Г+ - Гугля выкатывает материал в поиск практически сразуЮ а вот Яша...
Если все это делать через кнопки от Я - будет быстрее, у кого опыт есть?
От ссылок не бывает тепло или холодно. Хамить зря пытаешься. Мнение высказал - спасибо.
Кто говорит про сайт и свистнут? Просто перепечатают, даже со ссылкой (завернутой в скрипт). А текст останется. Было не раз и не два, и не десять. И даже копировали целыми сайтами и не все меняли.
Вьюноша... 🍿
В обоих примерах снипет взят из дискрипшена. А речь шла о том, что сделать, если сниппет не из дискрипшена.
И потом, эти примеры - не сниппет по запросу, а проверка наличия слова на конкретном урле. Слово есть, в заголовке, но нет на странице - вам дискрипшн и выдали. Логика железная.
ruizAv добавил 14.12.2011 в 18:49
хрена с два
С точки зрения ПС - пофиг. С точки зрения логики - №2. Но с точки зрения вебмастера - вариант №1.
Объяснение предельно простое. Да, при переносе больше гемора, но! когда ваш материал автоматом утянут на другой сайт абсолютная ссылка в тексте будет отлично работать на вас.
Потому, кстати, нужно стараться хоть какую-то перелинковку делать в каждой статье.
Угу, в Гугле все ок. Если нужно в Я сделать вменяемый сниппет на сложной странице (например для титулки, где лента, архивы, выдержки и т.д.) - то делайте просто кусок текста с нужным описанием и парой-тройкой вхождений ключевика.
Если это нишевый сайт и конкуренции в этой тематике нет (т.е. им просто тупо больше негде разместиться) - то цена от посещалки зависит слабо.