как картинку-то приаттачить, не пойму, вот дела...
сейчас таки ищет... но век воли не видать минут 20 выдавал сообщение об ошибке:
greenwood, а твой сервис http://yourguest.com.ru/test.php интересно работает - выдает сплошной список, у всех PR 0. Может, ваш скрипт уже что-то знает, чего мы не знаем? :) (кстати, оперативно вы сделали список в виде линков - приятно видеть :)))
Конечно удалю. Нужен только для того, чтоб PR видеть.
:D :D :D
точно! все начинают сначала, с низкого старта. ранжирование интернета с нуля! вот рубка пойдет...
есть, есть движение.
да вот если честно - сомнительно, что так уж они проверены... "на 99 странице" есть и те что для людей, и просто недооптимизированные... истина тут наверняка посередине.
тогда, значит, невозможно и понять, будет ли перебор по ключевику и, соответственно, пессимизация... Вот и начинаешь думать, а не делать ли, в самом деле, сайты для людей а не для пауков? :)
wolf, я напряг весь свой ум, пытаясь понять, и если я правильно понял из этого Вашего поста, заранее понять невозможно, как он будет расчленять фразу? Будет ли он многократно использовать составные части фразы?
Вот все-таки интересно понять насчет этого самого алгоритма. Конкретная ситуация: англоязычный сайт, имеется фраза, многократно осмысленно повторяющаяся в тексте страницы
"слово1-слово2-слово3-слово4".
Из них ключевиками являются:
слово2 (ок. 700 000/мес по вордтрекеру)
слово1-слово2 (ок. 60 000)
слово2-слово3-слово4 (ок.50 000)
Каждый из ключевиков нередко встречается в тексте и сам по себе.
Выдача интересует по всем трем запросам. Так вот вопрос: как Гугл будет считать плотность по каждому? Эта фраза из 4 слов каждый раз, встречаясь в тексте, будет добавлять количество всех трех ключевиков? Если нет - то к кому будет добавлять? И, опять же если нет - можно ли рассчитывать, что Гугл в длинной фразе будет вычленять несколько коротких (не однословных)?