Владимир-C

Рейтинг
463
Регистрация
02.02.2006

То есть в иделале каждая ссылка со своим текстом, причем текст содержит ключевые слова относительно той страницы, на которую ссылается.

Так?

На форуме было описание эксперимента по исследованию 50 сайтов тематики "банк", из которого получалось, что Н1-Н2 на результат не влияют.

"напишите директиву Host: в файле robots.txt" - Это решение мне очень нравится!

Только о чем директива? Как она должна звучать?

Это текст для файла Роботс?

И что произойдет в этом случае? Можно чуть поподробнее о механизме?

Спасибо!

Вы - гений!

То есть показания бара - это не эталлон?

А сколько может продлиться устаканивание?

"Папочки тут не при чем. Важно, как страницы перелинкованы." - Страницы перелинкованы последовательно, друг за другом. А теперь я хочу с каждой из них дать ссылку на главную, что бы поднять её ПР.

Разумно?

"Есть вариант проспамить все страницы" - Гениальная идея! Я ведь могу поставить на них ссылки со своего другого сайта, так? Только видимо надо сделать так, чтобы сайт, с которого я сошлюсь на них, был с ненулевым ПР. Так?

Не совсем праздной, Иваныч!

Сейчас книга уже размещена именно так, как я написал, и частично подготовлена следующая, так что мне очень важно понять эти вещи.

Но если мой вопрос никто не изучал экспериментально, то я спрошу Вас иначе.

Как, по Вашему мнению, цепочка из 4-5 файлов не будет слишком длинной?

Если файлы с книгами я размещу в отдельной папочке, это не понизит внутренний ПР страниц, на которые из этих файлов есть ссылки??

Что это такое - future page rank?

Это оценки будущего значения page rank, которые делает не Гугль, а какая-то другая система, и делает по своему уразумению?

Всего: 1963