Cossack

Cossack
Рейтинг
279
Регистрация
17.12.2002
Они привели не пример, а алгоритм.

Defined, Define, Definition = Определен, определение. А потом уже сказано о алгоритме, но подробности не приведены ;).

После переноса никого пока, кроме Scooter не видели. Невезет епт. Сайт несли 11/11, и уже в 3-м cache - Site Temporarily Unavailable... млиннн. А в Google - первый cache после переноса - 25/11.

У вас там свой IP? Мои как раз DNS настраивали, выделили отдельные IPs для других сайтов. Вот и добаловались.

Почему - должен? Его просто приняли одинаковым!

Да неужели?

We usually set d to 0.85.

Перевод: Мы обычно приравниваем d к 0.85.

А почему оно должно быть?

Вопрос был поднят и повторен в связи с настойчивыми убеждениями отдельных товарищей во вредности внешних ссылок со страниц... И необходимости создавать страницы внешних ссылок ;). Про попытки считать PageRank по сайту в Excel табличках уже даже не хочется вспоминать.

Слушай, Акис, люди сказали - мы будем считать ранг страниц вот так-то.

Определять. И привели пример. На основании неправильных выводов из которого была написана куча бредовых статей, многие из которых рекоммендуются как "классные" и "полезные" даже в этом форуме ;).

Где - там? Ты, опять таки, случайно, PageRank с HITS не путаешь?

Не путаю, коэффициент d (вероятность ухода с сайта) должен быть разным для разных типов сайтов [или их групп].

Что ты называешь "вероятностью ухода со страницы"?

Не я, а Брин с Пейджем. Прочти статьи в своих ссылках [хотя бы ;)].

Тогда почему вероятность ухода со страницы является слагаемым при вычислении вероятности ее посещения?

Вот в чем и вопрос. Вычитается вероятность ухода и добавляются вероятности прихода с других страниц [привязанные к количеству ссылок с тех страниц], но нигде не сказано о различии между внешними и внутренними ссылками, более того показано, что только абсолютное количество ссылок со страницы имеет значение.

Ну я тоже переносил - и наблюдаю прямо противоположное - в первую неделю количество запросов страниц роботами упало до нуля, [в целом на 30%], потом роботы вернулись, но сейчас сайта нет по основным словам - может из-за update, может из-за переноса.

Сайт 5/10, English, обычный.

Возможно различие в языке сайта, русские пока для Google - сайты второй свежести ;), он туда доходит значительно позже.

At X-Host, we know everybody's data is important, no matter what plan they're on. That's why all our packages include full backup "snapshots" of your data every six hours. If you accidentally delete an important file, you can restore it yourself or let our customer service team know right away and we'll do our best to recover it in a recent state for you! Of course, you should ALWAYS keep your OWN backup copies of everything of any importance to you no matter what. But we'll do our best to make sure you never need them!

Steps for restoring data on your own :

1. cd into the hidden directory named .snapshot

2. Choose how far back you would like to go ( hourly, nightly, weekly )

3. Copy the restored file to where you want it. Your done!

Каждый выбирает сам ;). Многие "локальные" хостеры на самом деле - просто перепродают услуги. Такое есть даже в UK.

Октуда же там взялись разные типы сайтов, типа hubs и authorities? Или у них тоже средняя температура? Зачем Google анализирует структуру страниц сайтов и хранит их копии?

Вы сами верите в "свои" идеи? Аспиранты гранты жуют, и воду мутят. Я только что вырвался с очередного бреда о e-government. Наработался типа. Пришел громить оппонентов ;).

Я помню, когда-то мне впаривали, что там матрица не причем - а теперь убеждают, что Google в силах решить одновременно 3,307,998,701 уравнений? Эт че? Моделирование ядерного взрыва?

Попросту это выглядит так: увеличение PR страницы 1 увеличивает PR страницы 2, а увеличение PR 2 увеличивает PR 1, поскольку они ссылаются друг на друга.

Спорное утверждение, имеющее смысл только при одинаковом для всех d, то есть базирующееся на том, что поведение пользователей на всех страницах будет одинаковым - а это БРЕД ;).

Просто ты сказал довольно глупую фразу "d определяет все". Он, конечно, определяет многое, но я бы сказал что _основное_определяет_ структура ссылок сайта, т.е., система уравнений.

ПОЧЕМУ? Даже чисто математически - вся соль в нем, потому как оно есть вероятность ухода со страницы ;). Важность внутренней структуры не оспаривается, но я почти уверен, что внутренние ссылки существенно "девальвированы" по отношению ко внешним, через тот же d.

d, если ты знаешь, имеет физический смысл - это вероятность того, что юзер продолжит кликать по ссылкам.

Правильно, и от чего она зависит? Как определяется? Почему Google любит страницы с текстами и особенно с текстами вверху?

разбиение на такие независимые области - отдельная тема

Мини-пирамиды, со ссылками между вершинами для концентрации на основных пунктах меню. Старо как Google.

Умные люди давно уже вывешивают только свои белые и пушистые проекты. Или супер-клиентов с их согласия ;).

Собстевенно никогда не отрицалось, что Google смотрит IP и домен. Более того много-много раз говорилось о том, что пару недель робот будет ходить по старому IP-адресу.

Перенос желательно делать после update, но не во время crawl и не перед ним ;). Плюс желательно не "убивать" сайт на старом хотя бы в течении недели или 2-х.

Я/мы только, что экспериментировал/и с переносами и отключениями сайтов (в основном из-за ошибок в позиционировании), так вот удаленный сайт восстановился на старом IP за 2 дня, правда хост классный и роботу не выдавались коды ошибок - но повторять не советую и за жертвы ответственности не несу.

Всего: 5991