- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Известно, что сайт с 10К страниц практически не индексируется Гуглем, если на него не стоит ни одна ссылка. Если поставить тяжёлую ссылку, то он хорошо индексируется. Какая часть страниц сайта останется в индексе, если эту тяжёлую ссылку убрать? Как максимизировать количество оставшихся в индексе страниц (правильная перелинковка? субдомены? сетка доменов?).
Слава Шевцов, у Гугла есть некоторое пороговое значение PR, страницы с меньшим PR не индексируются. Уберете ссылку - уменьшится PR страниц - страницы выпадут из индекса. Не знаю, как быстро это происходит, но страницы с почти нулевым PR в индексе на всегда не останутся.
Слава Шевцов, у Гугла есть некоторое пороговое значение PR, страницы с меньшим PR не индексируются.
Это предположение или проверенный факт?
Это предположение или проверенный факт?
Я об этом читал в какой-то англоязычной публикации пару лет назад. Думаю, вы сможете ее найти. Откуда автор взял эту информацию, я не знаю. Но очень похоже на правду.
Слава Шевцов, у Гугла есть некоторое пороговое значение PR, страницы с меньшим PR не индексируются. Уберете ссылку - уменьшится PR страниц - страницы выпадут из индекса. Не знаю, как быстро это происходит, но страницы с почти нулевым PR в индексе на всегда не останутся.
Если бы это работало в чистом виде, то PageRank в сети уже не было бы. Дело в том, что при каждой итерации обрезались бы страницы с PageRank ниже уровня. Из-за этого при следующей итерации соседние с ними страницы получали бы PageRank чуть меньше, чем ранее и Гугл о них бы забывал. Дальше идёт цепная реакция с отпаданием крайних страниц, которые свой PageRank получали от уже отвалившихся. А так, как все страницы в сети для PageRank равноправны, то даже сайты с PR10 в короткое время получили бы минимальный PageRank и вывалились из индекса ☝
Думаю, что есть ещё какие-то условия: на субдоменах, например, разрешено индексировать без PR до N страниц. На доменах - М страниц. По крайней мере, Гугл ходит по страницам нескольких слинкованных моих доменов, у которых нет внешних ссылок, но есть ссылки друг на друга. Даже по четыре страницы в индексе показывает. Причём эти страницы взаимно слинкованы на разных доменах.
Как-то Сегалович высказал про Рунет то, что не правильно считать ссылочное ранжирование, не имея в индексе поисковика всех страниц. То есть отображать в индексе можно не все (например, с PageRank выше порога), но иметь нужно все - иначе результаты будут неадекватные.
Дело в том, что при каждой итерации обрезались бы страницы с PageRank ниже уровня.
Скорее всего, в расчете PR участвуют все документы. В индексе их хранить ни к чему - ведь нужна лишь информация об их ссылках.
Думаю, что есть ещё какие-то условия: на субдоменах, например, разрешено индексировать без PR до N страниц. На доменах - М страниц.
Гуглу по фигу, на какого уровня домене расположена страница.
То есть отображать в индексе можно не все (например, с PageRank выше порога), но иметь нужно все - иначе результаты будут неадекватные.
Возможно, так и происходит.
Не готов дискутировать на эту тему.
Как-то Сегалович высказал про Рунет то, что не правильно считать ссылочное ранжирование, не имея в индексе поисковика всех страниц. То есть отображать в индексе можно не все (например, с PageRank выше порога), но иметь нужно все - иначе результаты будут неадекватные.
Вот это интересно ...., а еще интересней будет показывать всё, а не 10-15 страниц поиска ☝
Известно, что сайт с 10К страниц практически не индексируется Гуглем, если на него не стоит ни одна ссылка.
если нет ни одной ссылки, так и одну страничку не проиндексирует :)
Скорее всего, в расчете PR участвуют все документы. В индексе их хранить ни к чему - ведь нужна лишь информация об их ссылках.
спорно, но красиво
greenwood, вряд ли спорно. Вот к примеру, в яндексе последнее время быстробот занимается только собиранием ссылок. Контент основному боту не передается.
если нет ни одной ссылки, так и одну страничку не проиндексирует :)
Согласен. Вопрос в том, что будет, если была куплена ссылка PR8, все страницы проиндексировались, ссылку убрали. Что лучше удержит страницы в индексе в таком случае: один домен, домен с поддоменами или сетка. Будет ли вообще остаточный эффект через три месяца после снятия ссылки или нет.