- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Хочу услышать мнение здешних экспертов по поводу высказанной теории о том, почему так трудно влезть в индекс Яндекса, особенно новым проектам, вне зависимости от их репутации, ссылок и т.д.
Приведу один пример: сайт roi.ru (Российская общественная инициатива). Все ссылки естественные, с самых авторитетных источников, которые только могут быть. Естественный прогон по соцсетям в громадных масштабах, РОИ не торгует ссылками, там вообще нет ссылок, бесплатное занесение в ЯК, очень старый домен без дропа и т.д.
Однако, на roi.ru сейчас как минимум 2525 инициатив, все они есть в sitemap, но в индексе у Яши всего 969 страничек. Какое еще может быть объяснение, кроме отсутствия я Яндекса технической возможности?
Конечно, они только за счет экономии на серверах и выживают в этом суровом мире :D
Есть сайт из 240 материалов в индексе 90. При этом, в индексе остались новости, которые зачастую 300-400 символов, а нормальных статей нет. Нет целых разделов. Писал в яндекс - бла-бла-бла.
Если это так, тогда почему просто не купить еще железа для апгреда?
Какое еще может быть объяснение, кроме отсутствия я Яндекса технической возможности?
Остальная часть страниц, по мнению Яндекса, не представляет интереса для пользователей.
Причем тут мощности серверов вообще?
Если это так, тогда почему просто не купить еще железа для апгреда?
Если покупать, то явно не по 2Тб, а много, а на много и денег надо много.🤪
Остальная часть страниц, по мнению Яндекса, не представляет интереса для пользователей.
Причем тут мощности серверов вообще?
Как при чем? Они заверяют, что фильтр АГС специально придумали, чтобы экономить на месте :D
Остальная часть страниц, по мнению Яндекса, не представляет интереса для пользователей.
Причем тут мощности серверов вообще?
Как инициативы на РОИ могут не предоставлять интереса пользователям? Это же не какой-то ГС, это почти государственный ресурс, созданный на основании Указа самого Президента для волеизъявления граждан. Получается развитие демократии не входит в интересы пользователей, по мнению Яндекса?
Хочу услышать мнение здешних экспертов по поводу высказанной теории о том, почему так трудно влезть в индекс Яндекса, особенно новым проектам, вне зависимости от их репутации, ссылок и т.д.
Приведу один пример: сайт roi.ru (Российская общественная инициатива). Все ссылки естественные, с самых авторитетных источников, которые только могут быть. Естественный прогон по соцсетям в громадных масштабах, РОИ не торгует ссылками, там вообще нет ссылок, бесплатное занесение в ЯК, очень старый домен без дропа и т.д.
Однако, на roi.ru сейчас как минимум 2525 инициатив, все они есть в sitemap, но в индексе у Яши всего 969 страничек. Какое еще может быть объяснение, кроме отсутствия я Яндекса технической возможности?
Ну и при чём тут вина Яндекса, что он не хочет или не может забирать большее число страниц ? =)
Точно можно сказать, обыкновенные, простые сайты, если норм навигация, перелинковка, их удобно грузить, ботам удобно + учесть, что боты стараются смотреть на страницы максимально приближенно к человеческому восприятию удобности сайта (в этом один из главных смыслов алгоритмов заключается) - с них Яндекс забирает очень-очень высокий процент страниц, почти все, ну что-то выкинет конечно, 100%-но не будет ничего, но 90-95% при нормальном отношении к сайту будет в индексе, вернее при нормальном отношении к тем, кто будет сайтом пользоваться =)
roi.ru трудно назвать отличным сайтом, такое моё восприятие было как зашёл ..=)
Ну и при чём тут вина Яндекса, что он не хочет или не может забирать большее число страниц ? =)
Точно можно сказать, обыкновенные, простые сайты, если норм навигация, перелинковка, их удобно грузить, ботам удобно + учесть, что боты стараются смотреть на страницы максимально приближенно к человеческому восприятию удобности сайта (в этом один из главных смыслов алгоритмов заключается) - с них Яндекс забирает очень-очень высокий процент страниц, почти все, ну что-то выкинет конечно, 100%-но не будет ничего, но 90-95% при нормальном отношении к сайту будет в индексе, вернее при нормальном отношении к тем, кто будет сайтом пользоваться =)
roi.ru трудно назвать отличным сайтом, такое моё восприятие было как зашёл ..=)
Может быть я что-то не понимаю, но, ИМХО, бот Яндекса кушает что угодно, учитывая ссылки на других сайтах, sitemap, общие принципы построения сайтов и т.д., но в индекс попадает лишь малая доля от этого. Думаю, все видели заоблачные числа загруженный роботом страниц в Вебмастере Яши, но почти всегда подавляющее большинство их не в индексе, даже если вычесть запреты в robots.txt.
Может быть я что-то не понимаю, но ИМХО, бот Яндекса кушает что угодно, учитывая ссылки на других сайтах, sitemap, общие принципы построения сайтов и т.д., но в индекс попадает лишь малая доля от этого. Думаю все видели заоблачные числа загруженный роботом страниц в Вебмастере Яши, но почти всегда подавляющее большинство их не в индексе, даже если вычесть запреты robots.txt.
Просканировали страницы сайта, а потом уже иной этап
1) определяться насчёт качественности, удобства страниц,
2) ранжировать как, выдавать страницы те или иные - или нет,
3) малокачественные, малонужные, малоудобные опустить из выдачи того,
что просканировано
и куча-куча всего иного в расчёт берётся
Но главное, если делаешь сайт - и хочешь не иметь проблем и трудностей,
смотреть глазами сторонних пользователей, насколько им сайт будет удобен, нужен, тп