- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Кстати, а почему Гугл почти не делает группировку по сайтам, как считаете?
Это надо у Гугля спросить. :)
почему Гугл почти не делает группировку по сайтам, как считаете?
Есть мнение, что Google не знает понятия сайт* и каждую страницу оценивает по отдельности. Потому и page rank считается для каждой страницы, и имеет место положительный эффект от т.н. "внутренней" перелинковки.
* - для группировки-то он может "узнавать" его...
Есть мнение, что Google не знает понятия сайт* и каждую страницу оценивает по отдельности. Потому и page rank считается для каждой страницы, и имеет место положительный эффект от т.н. "внутренней" перелинковки.
* - для группировки-то он может "узнавать" его...
Яндекс и Рамблер тоже оценивают страницы по-отдельности. Другое дело, что можно учитывать релевантность на уровне 95%страниц+5% релевантности страниц сайта. Из чего следует, что Гугл дает "чистые" результаты для конкретных страниц, совсем не учитывая вес других страниц на этом же сайте. А Я и Р чуть добавляют/уменьшают общий вес, смотря на другие, релевантные страницы этого же сайта (не все, а именно релевантные). Получается так.
А Я и Р чуть добавляют/уменьшают общий вес, смотря на другие, релевантные страницы этого же сайта (не все, а именно релевантные).
Весь вопрос в том, насколько это "чуть" влияет. :)
Весь вопрос в том, насколько это "чуть" влияет.
Есть подозрение - что никак. Знаю такой пример - есть очень объемный сайт, Яндекс знает около 150К страниц.
На каждой станице есть навигационная ссылка на морду с тестовым названием сайта. Понятно, что как ссылки эта навигация смысла не имеет, но текст ссылки является текстом страницы, во всяком случае он есть в "сохраненной копии".
Вполне возможно, что наличие ключевой фразы и не делает страницу очень уж релевантной, но их количество - 150К!
Если бы Яндекс учитывал релевантность страниц окружения - просто количеством можно было бы задавить все остальные сайты, но этого не происходит.
На своих сайтах заметил такую тенденцию.
Большие сайты, с широким информационным наполнением падают в по высокочастотным поисковым запросам. Сайты посвященные грубо говоря одному поисковому запросу, состоящие из 5-10 страниц, наоборот поднимаются.
Наблюдает кто-нибудь похожую тенденцию? И не выльется ли такая нелюбовь Яндекса к порталам в необходимость создания дорвеев?
такое уже замечено года два назад ...я тогда назвал это общей релевантностью сайта запросу (хотя точных доказательств не нашлось)
Дорвеи тут не причем а скорее всего это участь сайтов "не целевых", где информация или обо всём или неочем .
Я лично считаю, что в данном случае гугля правильнее делает, когда выдает релевантную страничку, а не релевантный сайт
всё ИМХО конечно
гугля правильнее делает, когда выдает релевантную страничку, а не релевантный сайт
Кстати, да. Я сразу внимания не обратила, Коля помог:
Человек-то, наверное имел в виду главную страницу, а назвал это сайтом.
Если бы Яндекс учитывал релевантность страниц окружения - просто количеством можно было бы задавить все остальные сайты
Функция учета релевантности других страниц вовсе не обязана быть линейной. Аналогия: плотность ключевика на странице, безусловно, учитывается, но никому не приходит в голову написать ключевое слово миллион раз.
Есть подозрение - что никак. Знаю такой пример - есть очень объемный сайт, Яндекс знает около 150К страниц.
На каждой станице есть навигационная ссылка на морду с тестовым названием сайта. Понятно, что как ссылки эта навигация смысла не имеет, но текст ссылки является текстом страницы, во всяком случае он есть в "сохраненной копии".
Вполне возможно, что наличие ключевой фразы и не делает страницу очень уж релевантной, но их количество - 150К!
Если бы Яндекс учитывал релевантность страниц окружения - просто количеством можно было бы задавить все остальные сайты, но этого не происходит.
В этом случае формула может быть такая: Р=Р1*P2,
где Р1 - релевантость самой релевантной страницы на сайте
Р2 - некий средний вес по релевантности остальных страниц.
Поскольку на больших сайтах страниц, относящихся к теме, может быть много, но их средняя релевантность существенно меньше самой релевантной, итоговая релевантность занижается. Но при именно такой формуле чем больше страниц, тем меньше итоговая релевантность, что неправильно. т.к. большое количество страниц по теме означает явное соответствие сайта запросу. Значит, надо уменьшить влияние Р2 и, например, брать дисперсию от этих других многих страниц (но именно хоть сколько релевантных запросу). Т.е. Р=Р1*Д(Р2). И дальше уточняем формулу. Вариантов можно придумать много. Это один из них.
но никому не приходит в голову написать ключевое слово миллион раз.
дело было наверное года два назад - продвигал московский сайт по строительным инструментам .... громадный сайт
Запросил мне выслать исходники его и прогнал на подсчет слов на всем сайте (не помню какой программой)
Выявил самые частые повторяющие на страничках.
посмотрел по выдаче по ним
оказалось что хоть и не в топе, но именно по этим словам сайт более менее был выше в выдаче нежели по другим (хотя распределение было по страничкам неравномерное)
стали сайт разносить по темам по сабдоменам
эффект не преминул положительно сказаться