SilverMaster

SilverMaster
Рейтинг
228
Регистрация
08.10.2003
Как писал ferrum
А может просто у них база ссылок и снипеты в разных местах физически расположены (что скорее всего так и есть), и периодически у них винты со снипетами сыплются? :) Вполне вероятно ведь... Все равно ведь кэш обновляет каждый день - долго ли его восстановить, вот и хранят его на самых дешевых винтах.
шутка. хотя и не совсем веселая - сам страдал.

нету у них винтов. все в памяти.

Как писал yas
Народ а правдо что при выдаче в яндексе ценится больше:
Строгое соотвествие
или
Найдено по ссылке
??

а не пошли бы вы со своими двумя постами про яндекс и рамблер в другрой раздел?

:)

Как писал Netsah
Можно через java-скрипт написать ссылки.
Я лично в таких случаях использую ссылки через редирект - насколько это эффективно, время покажет;)

не забудь рассказать, очень интересно ;)

потому как я пользую только robots.txt

Как писал dimok
Новые страницы попали в поисковую базу точно. А каких-то глобальных скачков позиций не заметил.

у меня на сайте та часть которая была в последние несколько недель сильно переделана выпала напрочь из базы...

это конечно очень не красиво ;(

кто-то сталкивался с таким?

Как писал wolf


А зачем Гуглю еще один критерий, на который легко воздействовать со стороны? Рядовой пользователь вряд ли будет на морды жать - ему не до этого, а тот, кому нужно, исхитрится найти способ массового нажимания нужных кнопок.

У меня довольно большой опыт работы с накрутчиками, посему скажу, что используя _нормальные_ статистические выкладки можно на 99,9% определить кто есть кто, я не буду вдаваться в методику, но это действительно так, посему накрутить мордочки, а еще такими тривиальными методами как предлагает usa не удасться адназначна.

Как писал yas
Народ кстати я сменил хостинг и уже за 2 месяца потерял около 800 человек в день! посешаемость востановится?

Вот они пострадавшие в борьбе гугла с expired domains.

Ни в чем не повинные люди ;(

Как писал Yura
Сейчас uptimebot предлагает просмотр ПР для всех страниц сайта, всего можно смотреть 20 сайтов (хочу надеяться, что толпа страждущих не положит этот удобный сервис ;)). Спасибо авторам!

спасибо за лесный отзыв! http://www.uptimebot.com действительно предлагает просчет Пр-а по всему сайту, но вопрос у человека был немного не из той области.

Ему я думаю больше подойдет

http://www.top25web.com/pagerank.php

Как писал Professor
должен пропасть

Привет кстати ;)

По сути. Не думаю что пропадет. Если бы у гугля ВСЯ инофрмация по ПР пересчитывалась бы одновременно -тогда да, а т.к. пересчет идет по очереди, то скорее всего падать Пр будет плавно, и очень долго.

Как писал Ace
вот карта, звездочкой отмечено кафе

ВСЕМ СПАСИБО ;)

Как писал Farmer
Какое-то время назад была тема о том, как сделать ссылки, которые не видит Гугль, с рекомендацией писать их на Джаваскрипте и сплитить для надежности. По результатам я сделал ссылки вида:

<a href="javascript:window.location='http://www.dom'+'ain.ru/'">
Так вот он их понимает. То, что он выдирает урлы из скрипта, я знал, так вот он их еще и склеивает.
Есть какие-то другие идеи?

а почему не сделать это обычными методами..

нужные ссылки сделать через gowest.php?link=http://

а в robots.txt прописываем

User-agent: *

Disallow: /gowest.php

Я конечно понимаю что роботам плевать на роботс.txt но помоему нормальных выход. По крайней мере у себя особо утечки Пр не наблюдаю.

Да и не ходит Гугль по gowest.php... 100% проверял.

Всего: 1174