Да есть. В основном окупают для PR.
Всем спасибо.
С месяц назад на паралельной ветке разбирали
<H2><a href="http://site.com">text</a></H2>
Я там ничего конкретного не узнал.
Вроде бы за ссылку выделенную <H2> может быть наказывают...
Как будто, вроде бы, наверно, может... Мене эти эпитеты не нравятся.
Кто нибудь знает конкретно? Наказывают?
Я могу сказать, что такая ссылка со странностями, в некоторых случаях при верстке на Дивах, ведет себя не так, как
<H2><a href="http://site.com">text</a> </H2>
Такое мне самому не сложно сделать. А определить какой специалист хороший практически невозможно.
На мой вопрос вы ответили некачественно.
Жду ответов от других спецов. Заранее благодарю.
Встречал три варианта советов как регистрироваться в каталогах.
1 Название индивидуально для каждого каталога, пусть не очень красивое, но индивидуальное. Описаний достаточно 10 (тоесть одно описание на 150 каталогов).
2 Названий и описаний одинаковых не более 5-6.
3 Названий чем больше, тем лучше, в худшем случае 5. Описаний можно сделать 50 одинаковых.
Вопрос к Знатокам(не менее 20 раскрученных сайтов) Какой вариант правильнее?
Сегодня нашел свежую статью, в которой говорится о том, что паук сначала читает весь файл полностью, а затем выбирает, что именно ему предназначено. Тоесть стандартный файл :
User-agent: *
Disallow: /fale/
Disallow: /fale2
User-agent: Yandex
Host: www,site,ru
должен понравится всем.
Но в другой (не старой) статье написано обратное.
Что скажите Профессора ?
gutako
Я тоже думаю, что лучше немного больше времени потратить на парсинг, но потом получить больше эффекта.
Но на мой вопрос вы не ответили. Повторяю :
Кто знает
Как поисковики читают ссылки? Стоп-слова(например - на, в, еще, как...) учитываются как обычные слова, или выбрасываются?
Тут упоминались стоп слова.
Допустим есть
ссылка1 с текстом из двух слов (ключевиков).
Ссылка2 - к искомым двум словам добавляем одно или два стоп-слова.
Ссылка3 - к искомым двум словам добавляем одно слово.
Ссылка4 - к искомым двум словам добавляем одно слово плюс одно стоп-слово.
Как засчитает эти ссылки поисковик ?
Другими словами учитывается ли ссылка как таковая или ссылка без стоп-слов ?
andrej-ilin,
Оцените пожалуйста, правильно ли я понимаю -
Для сайтов на русском языке.
Для правильной склейки сайтов на бесплатных хостах, у которых нет доступа к
файлу .htaccess , нужно все ссылки прописать абсолютным путем. Ссылки
должны быть вида :
<a href="http://www.site.ru/page1.html">...</a>
A в файл robots.txt введите директиву Host и укажите главным именно
зеркало www.site.ru
Если сайт новый , не надо его регистрировать в поисковиках. На 11-20 бесплатных досках, пробиваемых по Гуглу и Яндексу поместить обьявления с сылкой вида
<a href="http://www.site.ru">Название сайта</a>
Также можно зарегистрироваться в 11-20 белых каталогах , но не с самыми
высокими PR и тИЦ . Перед регистрацией обязательно проверьте, какие ссылки обычно там ставят.
Через пол года внутренние ссылки можно укоротить до вида
<a href="/page1.html">...</a>
Но ссылки "На Главную" лучше оставить с абсолютным путем.
Встречаются утверждения, якобы для Google обязательно нужно ставить 301 редирект.
Однако я считаю, что и без него можно прекрасно обойтись, у всех роботов есть свои механизмы склейки зеркал.
Робота Yandex "зовут" Yandex
Робота Рамблера "зовут" StackRambler
Робота Aport "зовут" Aport
Робота Google "зовут" Googlebot
Робота AltaVista "зовут" Scooter
HotBot и MSN используют поисковый робот Inktomi, он называется Slurp
Другие поисковики менее популярны.
Может быть данный пример robots.txt можно урезать, но в таком
виде у вас гарантированно не будет проблемм.
User-agent: Googlebot
Disallow: /
User-agent: Scooter
User-agent: Slurp
User-agent: StackRambler
User-agent: Aport
Host: www.site_url.ru
А проблемы могут возникнуть из за месторасположения секции со звездой.
Не все роботы прваильно поддерживают стандарт.
Есть еще один способ склейки , - для Аппача можно написать маленикий SSI скрипт.
Подскажите, как этот метод работает? Универсален ли он?
Заранее благодарю за ответ.
Segey Не знаю, для кого вы выложили азы.
Теория не совпадает с практикой.
Особенно с полем Host:
Частые "немотивированные" заскоки роботов не дают спокойно спать профессионалам. Просто нужно знать то, о чем в статьях не пишут.
FlyAway
Могу только предположить, что у вас в файле Роботс , формат был неправильный или с ошибкой.
В результате главное зеркало Яша вычислил по полным внутренним ссылкам(если они были) или по умолчанию и засчитал без ВВВ.
Дальше... Через пол года у вашего хостера обновился сервис, и стал понимать неправильный Роботс. И все сьехало.
А вот на вопрос, стоит ли вам опять возвращаться к старому варианту без ВВВ, я ответить не могу.
Обратитесь в личку к профессионалу верхнего уровня, например к старичку с клюкой, у него статус - запридельщик.
Напутствие: Опишите ситуацию более подробно, у вас слишком много белых пятен.