Вроде ещё не было:
http://www.freewebsubmission.com/
http://www.best-web-directories.com/directory-list.htm (как это могли забыть
http://www.submithelper.com/User/User_Directory.aspx
http://www.auscan.biz/directories/submit-directories.html
http://www.geocities.com/sen_thil_82/free-sub.html (начинал перебирать, мне не понравились)
http://hitslog.com/submission_list/
http://www.bobby.in/directory/ (директория директорий)
http://broespeed1.googlepages.com/home
http://www.web-directories.ws/General/Free/
http://www.submitdirect.net/Submit/ (хоть и не белые, но очень полезная штука, думаю сами оцените, например для сайтов-сатилетов)
Вроде выложил :)
Ну сколько кому оборотов в секунду раскрутки сайта надо? :)
Нельзя сравнивать эти понятия. Если страница изменится или внешние факторы, то может выйти.
Не факт.
Было интересно читать где-то до 3 страницы. Затем пошло всё не в тему.
Если составлять фак на эту тему, то нужно выбрать какой поисковик имеем ввиду. А насчёт плотность ключевых слов приведу пример.
Есть сайт. На нём был сделал раздел, имеющий 11 ключевых слов(средняя плотность получается где-то 2-3%). Я совершенно забыл про него. Даже как-то и не думал о нём. 3 месяца назад смотрю логи, а он на 3 месте по среднечастотному запросу англоязычной gambling в yahoo.com. Хотя ниодной ссылки с ключевиком не стоит на это раздел(даже внутренней). Правда после нынешнего апдейта yahoo конечно сайта скатился где-то на 3-4 десяток(я им и не занимался), но сам факт,что только одными внутренними факторами(даже не сайта, а одной странички. Ccылок внутренних с ключевиком тоже ведь не было) можно было выбится в топ3 наводит на размышления.
Как-то раз читал Мэта,и он писал о таком внидрении(поверхностно,кое-какие факты) как "плохии соседи", и это же читал на webmasterworld, что у людей были такие проблемы. Проблемы возникают,если вы сслаетесь на подозрительный сайт или на вас ссылается подозрительный сайт(хотя как можно занижать за внешние факторы я не понимаю). У меня такая же проблема выпадания из индекса сайта. Через 3-4 месяца должно всё востановится, я уже однимал это тему, когда такое случилось с моим сайтом.
Можно,но гугля к этому отнесётся плохо,представляете ссылки с главной на 50 других сайтов, да хотябы на 20-30?
Насчёт anchor text - очень серьёзно стал придираться. Решение: Убирать менюшку на таких страницах или делать отдельную менюшку(оригинальную,очень хорошо помогает,если делать на 20 страничек новую и не слишком будет бросаться в глаза юзерам, то катит).
prlink, Может они берут инфу с различных дата-центров?
Смотрите тут http://livepr.raketforskning.com.
И ещё заметел, что гугля с февральского апдейта очень хорошо стал фильтровать ссылки. Была куплена ПР=6(внутренняя, стабильная уже несколько лет), а как была 3 так и осталась, и изменяться ,как вижу, не собирается.
В гугле есть это
rel="nofollow"
атрибут <a>
<a href="" rel="nofollow"></a>
Если вы думаете(скорее всего),что по ссылкам утикает ПР для страницы,то это не так. Он никуда не девается. На выдачу может повлиять слишком много внутренних ссылок(ну очень много >100),или установка ссылок не на свой сайт.
По мне так,такая система может только ухудщить положения, если все ссылки будут rel="nofollow", так как ПР будет стикать на одну страничку и там оставаться. И почитайте "растолкованный PageRank"(найдёте обязательно в поиске).
За август 100% учлись большинство, так как на сайт стартовал в начале августа и сейчас имеет по некоторым дата-цетрам ПР=4,как и ожидалось(основная масса ссылок была поставлена как раз в конце августа)