- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
у меня у нескольких сайтов постоянно скачут беки.. то +30 то -30.. иногда аж -100 (как сейчас). Это независимо от апдейтов..
Причем, что интересно - смотришь сначала беки (первую страницу) - пишет, что общее количество ~280.. нажимаешь на последнюю страницу- 139..
при последнем обновлении тица этот самый тиц подрос до 180..
но вот эти безумные скачки беков меня напрягают :(
к чему бы это?
Яндекс на ходу клеит бэки. Обсуждалось не раз.
Убирает нечеткие дубли, для быстроты - находу.
Убирает нечеткие дубли, для быстроты - находу.
А вот за каким хреном это вообще делать? Я ещё понимаю убирать дубли страниц из выдачи, но беки... Мне кажется, что по сравнению с нагрузкой поиска обычными пользователями, та нагрузка, что привносит собой просмотр беков просто ничтожна.
та нагрузка, что привносит собой просмотр беков просто ничтожна.
А нафига оставлять дубли?
А нафига оставлять дубли?
А может дадим пользователю решать, что дубли, а что нет? Или лучше пусть будет выдача по 60-90 сайтов из 2000? Вон у Рамблера никакой фильтрации не замечал - в выдаче по 4-5 тыс сайтов, и ничего не загинается поисковик. Да, у рамблера траффика в 2-2,5 раза меньше... И что? Увеличение парка серверов в 2-2,5 разорит Яндекс?
jorevo, тебе очень интересно видеть подряд 250 одинаковых страниц? Парнтерки, передранные статьи и т. п. Мне, например, не очень.
jorevo, тебе очень интересно видеть подряд 250 одинаковых страниц? Парнтерки, передранные статьи и т. п. Мне, например, не очень.
Нащёт "подряд", это на вашей совести, а если по существу мне приятней видеть всю выдачу, из которой я выберу сам, что мне нужно, чем милостливо подсунутые мне 70 сайтов. Если программисты Яндекса не могут столько времени разобраться с кешированием, удалением дублей и пр. то пусть лучше двигаются по экстенсивному пути развития, наращивая количество серверов, а программирование оставят тем, кто в этом понимает.
Если программисты Яндекса не могут столько времени разобраться с кешированием, удалением дублей и пр
Кто сказал, что не могут?:)
Кто сказал, что не могут?:)
Не могут, BigBrother говорил. Позавчера беседовал с И. Сегаловичем, так он очень удивился, что по слову "москва" всего 10 страниц. С его компутера все страницы видны, и я долго пытался убедить его, что глюк есть. В итоге, видимо, опыт удалось воспроизвести через прокси и он отнес мои запросы спецам :) Вообще, забавно как-то, с другой стороны странно 😕
господа, вы не путайте просмотр бэков и выдачу простую
в бэках нет никакой склейки на лету, все это чушь. объяснятся всего лишь тем, что не все сервера кластера успевают отдать информацию. лимит по времени жесткий. проверяется элементарно. сделайте запрос часа в 4 ночи, когда нагрузка минимальна. показывается все. проверено не 1, не 2 и даже не 10 раз на разных сайтах. регулярно пользуюсь этим, когда надо проверить свои бэки или собрать беки конкурентов для пополнения базы каталогов.