- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
2 Dm
Давно, за пол года думаю много апдейтов было. Сайт соответсвенно практически не менял.
А если у каталога со ссылками тоже хорошо оптимизирована страница и есть внешние ссылки :-)))))
При одинаковом количестве ссылок каталог всё равно выигрывает за счет релевантности. А поскольку IMHO вес ссылок уменьшился, то каталогу ещё проще перегнать корпоративный сайт.
ИМХО: Яндекс отдает приоритет сайтам продвигающимся по меньшему числу запросов.
Значит вперед, плодить дорвеи :-)))
5000 наименований товаров - 5000 доменов.
odd,
у меня ситуация очень похожая. продвигали страницу типа "аппарат".
весной - она находилась по запросу "аппарат" (3-й клик от главной) в топ 10, летом в серпе появилась (практически на той же позиции в топ10) "комплект аппарата" (2-й клик), осенью - главная. пришлось далее двигать главную. там правда была еще правка страницы (увеличили до 2% плотности ключевик - эксперимент), но это уже другая тема
Здесь согласен, остальные страницы тоже могут учитываться.
Dm, я писал не о деталях реализации (которые нередко выходят за грань здравого смысла), а о потребности пользователя (и, следовательно, декларируемой цели поисковой машины). Задавая навигационный запрос, юзер хочет узнать, "где лежит информация". Ответом на этот вопрос является скорее сайт, а не страница.
Правильное замечание !
ИМХО: Яндекс отдает приоритет сайтам продвигающимся по меньшему числу запросов.
Не думаю, что так. "Приоритет" скорее кажущийся - чем больше запросов, тем меньше совпадений запросов с текстом ссылок при одинаковом количестве ссылок.
2 Dm
При одинаковом количестве ссылок каталог всё равно выигрывает за счет релевантности.
Количество повторений слов не добавляет релевантности странице. Ключевые слова должны просто быть в определенных местах. При этом каталог скорее всего проигрывает, потому что у него внутренняя страница, против главной у сайта продавца.
5000 наименований товаров - 5000 доменов.
"выходит что так" :).
Количество повторений слов не добавляет релевантности странице. Ключевые слова должны просто быть в определенных местах. При этом каталог скорее всего проигрывает, потому что у него внутренняя страница, против главной у сайта продавца.
совершенно согласен. излишек может даже навредить (поэкспериментировал). повысил % ключевых на странице (было 5 слов из 1000 стало 20) - стало хуже и в Р и в Я. Ян заменил страницу на главную, а Рам на прайс (xls - файл).
А влияет ли на релевантность наличие на сайте других релевантных страниц?
Что касается Яндекса, то в докладе Сегаловича на первой конференции есть кое-что по этому поводу. В лом искать сборник для точной цитаты, своими словами скажу, что там сказано, что влияет, но влияние это учитывается очень осторожно, дабы не дать необоснованного преимущества сайтам с большим количеством страниц.
При этом, релевантность главной страницы по запросам только уменьшалась
Вы чем релевантность считаете?
Вообще говоря, ставя вес главной страницы гораздо больше страниц второго уровня, поисковик, Яндекс в частности, решает несколько проблем.
1. Действительно сообщает пользователю место, где есть нужная ему информация.
2. Борется со старыми страницами.
Здесь есть своя сермяжная правда. Гугл, например, почти не делает группировку страница сайта (делает, но редко). Таким образом, ему нужно совершенно четко выдавать нужную, наиболее релевантную с его точки зрения страницу. Но тогда обработка информации имхо занимает гораздо больше времени, на это тратится на больше ресурсов. А так выдал главную страницу, и не мучиться. Хотя релевантность, конечно, считается для всех страниц. Чтобы выдавать ту самую, нужно очень хорошо учитывать внутреннюю перелинковку, составлять PageRank (вИЦ) всех страниц сайта. Но то, что страницы на сайтах часто удаляются, устаревают и т.п. - очень большая проблема, и выдачей морд она решается. Грубо, но решается. Гугл здесь идет своим, имхо, правильным путем. Но дело, скорее в достатке у Гугла мощностей.
statev, по поводу того, что плитика Яндекса - "выдал главную страницу, и не мучиться" - это Вы чушь сказали. Без обид.
Абсолютно без обид %), но это _способ_. Практический проверенный на базе в несколько десятков миллионов веб-страниц месяц назад. %) Кстати, а почему Гугл почти не делает группировку по сайтам, как считаете?