Defined, Define, Definition = Определен, определение. А потом уже сказано о алгоритме, но подробности не приведены ;).
После переноса никого пока, кроме Scooter не видели. Невезет епт. Сайт несли 11/11, и уже в 3-м cache - Site Temporarily Unavailable... млиннн. А в Google - первый cache после переноса - 25/11.
У вас там свой IP? Мои как раз DNS настраивали, выделили отдельные IPs для других сайтов. Вот и добаловались.
Да неужели?
Перевод: Мы обычно приравниваем d к 0.85.
Вопрос был поднят и повторен в связи с настойчивыми убеждениями отдельных товарищей во вредности внешних ссылок со страниц... И необходимости создавать страницы внешних ссылок ;). Про попытки считать PageRank по сайту в Excel табличках уже даже не хочется вспоминать.
Определять. И привели пример. На основании неправильных выводов из которого была написана куча бредовых статей, многие из которых рекоммендуются как "классные" и "полезные" даже в этом форуме ;).
Не путаю, коэффициент d (вероятность ухода с сайта) должен быть разным для разных типов сайтов [или их групп].
Не я, а Брин с Пейджем. Прочти статьи в своих ссылках [хотя бы ;)].
Вот в чем и вопрос. Вычитается вероятность ухода и добавляются вероятности прихода с других страниц [привязанные к количеству ссылок с тех страниц], но нигде не сказано о различии между внешними и внутренними ссылками, более того показано, что только абсолютное количество ссылок со страницы имеет значение.
Ну я тоже переносил - и наблюдаю прямо противоположное - в первую неделю количество запросов страниц роботами упало до нуля, [в целом на 30%], потом роботы вернулись, но сейчас сайта нет по основным словам - может из-за update, может из-за переноса.
Сайт 5/10, English, обычный.
Возможно различие в языке сайта, русские пока для Google - сайты второй свежести ;), он туда доходит значительно позже.
At X-Host, we know everybody's data is important, no matter what plan they're on. That's why all our packages include full backup "snapshots" of your data every six hours. If you accidentally delete an important file, you can restore it yourself or let our customer service team know right away and we'll do our best to recover it in a recent state for you! Of course, you should ALWAYS keep your OWN backup copies of everything of any importance to you no matter what. But we'll do our best to make sure you never need them!
Steps for restoring data on your own :
1. cd into the hidden directory named .snapshot
2. Choose how far back you would like to go ( hourly, nightly, weekly )
3. Copy the restored file to where you want it. Your done!
Каждый выбирает сам ;). Многие "локальные" хостеры на самом деле - просто перепродают услуги. Такое есть даже в UK.
Октуда же там взялись разные типы сайтов, типа hubs и authorities? Или у них тоже средняя температура? Зачем Google анализирует структуру страниц сайтов и хранит их копии?
Вы сами верите в "свои" идеи? Аспиранты гранты жуют, и воду мутят. Я только что вырвался с очередного бреда о e-government. Наработался типа. Пришел громить оппонентов ;).
Я помню, когда-то мне впаривали, что там матрица не причем - а теперь убеждают, что Google в силах решить одновременно 3,307,998,701 уравнений? Эт че? Моделирование ядерного взрыва?
Спорное утверждение, имеющее смысл только при одинаковом для всех d, то есть базирующееся на том, что поведение пользователей на всех страницах будет одинаковым - а это БРЕД ;).
ПОЧЕМУ? Даже чисто математически - вся соль в нем, потому как оно есть вероятность ухода со страницы ;). Важность внутренней структуры не оспаривается, но я почти уверен, что внутренние ссылки существенно "девальвированы" по отношению ко внешним, через тот же d.
Правильно, и от чего она зависит? Как определяется? Почему Google любит страницы с текстами и особенно с текстами вверху?
Мини-пирамиды, со ссылками между вершинами для концентрации на основных пунктах меню. Старо как Google.
Умные люди давно уже вывешивают только свои белые и пушистые проекты. Или супер-клиентов с их согласия ;).
Собстевенно никогда не отрицалось, что Google смотрит IP и домен. Более того много-много раз говорилось о том, что пару недель робот будет ходить по старому IP-адресу.
Перенос желательно делать после update, но не во время crawl и не перед ним ;). Плюс желательно не "убивать" сайт на старом хотя бы в течении недели или 2-х.
Я/мы только, что экспериментировал/и с переносами и отключениями сайтов (в основном из-за ошибок в позиционировании), так вот удаленный сайт восстановился на старом IP за 2 дня, правда хост классный и роботу не выдавались коды ошибок - но повторять не советую и за жертвы ответственности не несу.