andrew-rostov

Рейтинг
86
Регистрация
28.05.2006
Учитывает ли Гугль...при расчёте PR несколько ссылок на сайт если они на одной странице? на одном сайте? (или считает за одну?)

Незнаю как с PR (имхо учитывает), но anchor text должен учитывать на каждой отдельно.

Почему же Лёлик?

Там же всё чёткий ява? Стандарт.

Я толком явы не знаю, давно я это изучал...Может программисты объяснят?

Лёлик, Извените, но я нашёл в редакции от 2002 только это

Необязательно, но будет неплохо, если эти страницы будут открываться в другом окне но НЕ ДЕЛАЙТЕ это на JavaScript, потому что роботы поисковых систем не могут следовать по ссылкам на JavaScript

Очень много тем про это поднималось на сеочате и вебмастерволд.

http://forums.seochat.com/google-optimization-7/does-google-count-javascript-links-now-20527.html?p=149832#post149832

Хочу обратить внимание на фразу

Google follows URLs in HREF attribute regardless of the presence of Javascript code.

An href attribute such as href="javascript:window.location='http://www.domain.com'" shows the target URL, so Google has not problem following it.

Google recognizes "javascripted URLs" in href attributes for at least one year, now.

Корочей говоря, если есть href="domain.com", то гугля его учитывает, если он не закрыт тегами не индексации.

ничего подобного...я могу показать сайт, которого до сих пор нет в индексе, хотя на последнем апе он спокойно получил пр4, и все внутренние в поряде..

Извените,но я высказал свою точку зрения. И она может быть не верна. А такие сайты я тоже видел.

У меня около 80 с раниц на сайте, все страницы постепенно набрали ПР2 как и на морде, хотя вот странно - одна внутренняя страница имела ПР3, а еще одна - ПР4. А после последенго апдейта ПР на нуле

Могу поделиться своими доводами. Я заметил такое же на 3 моих сайтах. И над каждым идёт постоянная работа. У всех на главной ПР=3(хотя должно было быть больше, и было больше, но после предпоследнего апдейта в феврале упала). Возмжно это обусловлено тем, что как раз за несколько недель до апдейта, все странички( кроме главных) повылетали из индекса, или вылетели во время апдейта(такое замечал не только на своих сайтах).

viktorleo, Есть более удобные сервисы. Про этот я знаю, там только 50 сайтов.

А запросы на каком языке?
K. Ermakov, Сайт англоязычный и запросы англоязычные.

Ха ещё один прикол: У Yahoo! тоже есть расхождение в выдаче по IP.

4. Позиции в поисковике...

Насчёт позиций маленькое дополнение, нужно смотреть с IP той страны, на которую ориентируется сайт. А то скачут часто, у меня сайт вроде в ТОП10,а трафа нету,смотрю IP США - 263.

как дать оптимально правильно оценку значимости сайта для гугля

Узнать какой траф идёт на сайт, это если нужен конкретный ответ на ваш вопрос. А так смотрите беки сайта. Можно alexa rank смотреть. Смотрите сколько сайту времени...Список ещё не закончен(первое,что пришло в голову). А из cуществующих пузомерок врятли что может сейчас составить альтернативу PageRank.

Вечный спор контенщиков и верящих в ссылочное. Хотя обе стороны не правы. Впадать в крайности нельзя однозначно! Если не будет контента, добрая часть трафа просто будет уходить с сайта. А один контент без ссылок обречён на плохую индексацию. А насчёт обмена ссылками. Так действительно "морды" как допинг, а обмен- это хотябы какая-то стабильность.

Всё должно развиваться гармонично, тогда будет успех.(то есть всё в комплексе должно быть).

Это моё личное мнение.

Моё IMHO:

1)Дубли ищуться в одинаковых тематиках. Если тематика "автомобили" и "кондицеонеры" то искать по логике вещей не имеет смысла. Контингент посетителей нужен разный.

2)На рунете фильтра не сказываеться серьёзно, а вот на англоязычном есть опасность.

3)Фильтр опирирует отдельными частями текста. И ищет дубли. Нужно делать рерайтинг, чтобы полностью быть спокойным.

4)Насчёт быстродействия: фильтру нужно не меньше месяца(а может и двух), чтобы обнаружить дубль.

Всего: 480