- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если я сегодня поставил ссылку на свой сайт. Вижу что робот ее проиндексировал. Изменения в выдаче ждать после апдейта или мгновенно?
Всем спасибо
ждать ......
Вы сами поняли, что сказали? :) Апдейт - он для того и нужен, чтобы показывать изменения...
Ждать, как минимум до следующего апдейта.
Я представил себе Яндекс идеальной системой. ССылки мгновенно индексируются, рейтинг на лету пересчитывается.. :)
И никакой поисковик сразу выдачу не меняет после индексации новых ссылок?
а ты представь какие мощности нужны чтобы базу перелопачивать после индексации каждой новой ссылки.
яндекс и так, мне кажется, быстрее всех апдейтится.
Индексация и пересчет ИЦ не совпадают по времени (не всегда совпадают)
Немаленькие. Но дело не в мощностях, а в подходе. Апдейт же все-равно выполняется. Что мешает выполнять апдейт постоянно?
Nick N., то самое ограничение мощности :) Представьте себе, что на пересчет нужно Х вычислительной мощности (говоря условно :) ). После любого изменения базы (робот нашел новую страницу или новую ссылку) нужно делать пересчет всей базы. Звучит абсурдно. Поэтому логично было сделать сначала накопление определенного числа изменений, а уже потом пересчет - опять те же затраты X вычислительной мощности. Получается значительный выигрыш в эффективности. Остается выбрать оптимальный размер новых данных для пересчета. Это могут быть данные за 1 час работы робота, или за день, или за неделю. Яндекс выбрал 2-3 дня. Видимо для них это оптимум.
Опять же вопрос надежности. Если при обновлении произошел сбой, то это сразу может быть видно и можно будет сделать, к примеру, откат. При постоянном апдейте, как мне видится, это значительно сложнее.
Аж слезы наворачиваются:)
Что непонятно?
Кстати, еще к вопросу о ссылках. Сегодня смотрел старые тестовые сайты. И заметил одну общую картину - все сайты с внешними ссылками немного опустились, а сайты без таковых - немного приподялись. Изменения не очень существенные, но поразила их однонаправленность - не спишешь на естественные колебания. так что высказываемые соображения по снижению веса ссылок небеспочвенны.