Scmaks

Рейтинг
37
Регистрация
23.06.2006

Да есть. В основном окупают для PR.

Всем спасибо.

С месяц назад на паралельной ветке разбирали

<H2><a href="http://site.com">text</a></H2>

Я там ничего конкретного не узнал.

Вроде бы за ссылку выделенную <H2> может быть наказывают...

Как будто, вроде бы, наверно, может... Мене эти эпитеты не нравятся.

Кто нибудь знает конкретно? Наказывают?

Я могу сказать, что такая ссылка со странностями, в некоторых случаях при верстке на Дивах, ведет себя не так, как

<H2><a href="http://site.com">text</a> </H2>

Такое мне самому не сложно сделать. А определить какой специалист хороший практически невозможно.

На мой вопрос вы ответили некачественно.

Жду ответов от других спецов. Заранее благодарю.

Встречал три варианта советов как регистрироваться в каталогах.

1 Название индивидуально для каждого каталога, пусть не очень красивое, но индивидуальное. Описаний достаточно 10 (тоесть одно описание на 150 каталогов).

2 Названий и описаний одинаковых не более 5-6.

3 Названий чем больше, тем лучше, в худшем случае 5. Описаний можно сделать 50 одинаковых.

Вопрос к Знатокам(не менее 20 раскрученных сайтов) Какой вариант правильнее?

Сегодня нашел свежую статью, в которой говорится о том, что паук сначала читает весь файл полностью, а затем выбирает, что именно ему предназначено. Тоесть стандартный файл :

User-agent: *

Disallow: /fale/

Disallow: /fale2

User-agent: Yandex

Disallow: /fale/

Disallow: /fale2

Host: www,site,ru

должен понравится всем.

Но в другой (не старой) статье написано обратное.

Что скажите Профессора ?

gutako

Я тоже думаю, что лучше немного больше времени потратить на парсинг, но потом получить больше эффекта.

Но на мой вопрос вы не ответили. Повторяю :

Кто знает

Как поисковики читают ссылки? Стоп-слова(например - на, в, еще, как...) учитываются как обычные слова, или выбрасываются?

Тут упоминались стоп слова.

Допустим есть

ссылка1 с текстом из двух слов (ключевиков).

Ссылка2 - к искомым двум словам добавляем одно или два стоп-слова.

Ссылка3 - к искомым двум словам добавляем одно слово.

Ссылка4 - к искомым двум словам добавляем одно слово плюс одно стоп-слово.

Как засчитает эти ссылки поисковик ?

Другими словами учитывается ли ссылка как таковая или ссылка без стоп-слов ?

andrej-ilin,

Оцените пожалуйста, правильно ли я понимаю -

Для сайтов на русском языке.

Для правильной склейки сайтов на бесплатных хостах, у которых нет доступа к

файлу .htaccess , нужно все ссылки прописать абсолютным путем. Ссылки

должны быть вида :

<a href="http://www.site.ru/page1.html">...</a>

A в файл robots.txt введите директиву Host и укажите главным именно

зеркало www.site.ru

Если сайт новый , не надо его регистрировать в поисковиках. На 11-20 бесплатных досках, пробиваемых по Гуглу и Яндексу поместить обьявления с сылкой вида

<a href="http://www.site.ru">Название сайта</a>

Также можно зарегистрироваться в 11-20 белых каталогах , но не с самыми

высокими PR и тИЦ . Перед регистрацией обязательно проверьте, какие ссылки обычно там ставят.

Через пол года внутренние ссылки можно укоротить до вида

<a href="/page1.html">...</a>

Но ссылки "На Главную" лучше оставить с абсолютным путем.

Встречаются утверждения, якобы для Google обязательно нужно ставить 301 редирект.

Однако я считаю, что и без него можно прекрасно обойтись, у всех роботов есть свои механизмы склейки зеркал.

Робота Yandex "зовут" Yandex

Робота Рамблера "зовут" StackRambler

Робота Aport "зовут" Aport

Робота Google "зовут" Googlebot

Робота AltaVista "зовут" Scooter

HotBot и MSN используют поисковый робот Inktomi, он называется Slurp

Другие поисковики менее популярны.

Может быть данный пример robots.txt можно урезать, но в таком

виде у вас гарантированно не будет проблемм.

User-agent: Googlebot

Disallow: /

User-agent: Scooter

Disallow: /fale/

Disallow: /fale2

User-agent: Slurp

Disallow: /fale/

Disallow: /fale2

User-agent: StackRambler

Disallow: /fale/

Disallow: /fale2

User-agent: Aport

Disallow: /fale/

Disallow: /fale2

User-agent: Yandex

Disallow: /fale/

Disallow: /fale2

Host: www.site_url.ru

User-agent: *

Disallow: /fale/

Disallow: /fale2

А проблемы могут возникнуть из за месторасположения секции со звездой.

Не все роботы прваильно поддерживают стандарт.

Есть еще один способ склейки , - для Аппача можно написать маленикий SSI скрипт.

Подскажите, как этот метод работает? Универсален ли он?

Заранее благодарю за ответ.

Segey Не знаю, для кого вы выложили азы.

Теория не совпадает с практикой.

Особенно с полем Host:

Частые "немотивированные" заскоки роботов не дают спокойно спать профессионалам. Просто нужно знать то, о чем в статьях не пишут.

FlyAway

Могу только предположить, что у вас в файле Роботс , формат был неправильный или с ошибкой.

В результате главное зеркало Яша вычислил по полным внутренним ссылкам(если они были) или по умолчанию и засчитал без ВВВ.

Дальше... Через пол года у вашего хостера обновился сервис, и стал понимать неправильный Роботс. И все сьехало.

А вот на вопрос, стоит ли вам опять возвращаться к старому варианту без ВВВ, я ответить не могу.

Обратитесь в личку к профессионалу верхнего уровня, например к старичку с клюкой, у него статус - запридельщик.

Напутствие: Опишите ситуацию более подробно, у вас слишком много белых пятен.

Всего: 57