- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Ну да. Почему-то они считают, что все запросы - информационные. Если юзер информацию легко найдет - то склейка полезна хотя бы.
Но юзеру-то надо фирму найти и выбрать (поставщика услуг), а их много почти одинаковых. И ему нужен набор ссылок. И информационным поиском там не пахнет.
А выковыривать "еще с сайта", понятно, никто не будет.
Правильно, так и надо.
Нечего плодить лишний контент. Лучший сайт может только один. А других пользователям не нужно. Лучше меньше, да лучше. Это же очевидно!
Самое интересное, что большинство компаний на доменах третьего уровня даже ничего и не заметит.
Ещё хорошая идея: просто выкидывать из индекса сайты, на которые никто не переходит (наверное, такую статистику можно собирать) один за другим. И оставлять только тех, кто напишет письмо в техподдержку. Зачем держать в базе сайты, которые самим хозяевам по барабану? Заодно на вычислительных мощностях можно сэкономить.
Может ещё есть идеи по улучшению качества поиска? %)
andre, все это замечательно, но бОльшая часть сайтов - некоммерческие, нехотят, несобираются и не должны быть таковыми. В Вашем варианте они будут серьезно ущемлены в поиске. Останутся
Согласен, господин Волож описывал модель b2b. Бизнес для бизнеса, это на большом временном растоянии может привестии, а скорее всего так и будет к ухудшению поиска.
Только вот Яндексу он лучше оттого, что там ссылочное ранжирование, вИЦ, теги разные и т.д., а вот пользователю надо чтоб товары получше, да цены пониже.
Небольшой оффтоп:
Вот вы тут говорите о доменах 3-го уровня, об слиянии разделении ... А как вам www.tm.ru?
Вот вы тут говорите о доменах 3-го уровня, об слиянии разделении ... А как вам www.tm.ru?
Отличный сайт! :) В ответ на любой запрос выдает "страница не найдена" и
- - -
Каталог «Торговые Марки России» - проект некоммерческий...
Стоимость размещения Полного пакета информации в Каталоге...
Срок размещения Стоимость размещения
6 мес. 23 000 р.
9 мес. 29 000 р.
12 мес. 35 500 р.
36 мес. 70 000 р.
Цены указаны в рублях без учета НДС (20 %) и НП (5 %).
- - -
Что же тогда теперь "проект коммерческий"?..
😕
Идея разумная, но вот только им надо учитывать ссылки с таких сайтов, для ранжирования нормальных сайтов. Поэтому индексировать всё равно придется, и мощности не сэкономить.
Есть еще идеи :)
Если пользователь вводит что-то типа "купить, продажа, цена.." в тексте запроса, выдачу нафиг не показывать, а показывать только Маркет. Там пусть и покупает.
Когда я работал в дизайн студии сэйлзом, я в наглую проходил по этому каталогу (tm.ru) и вызванивал клиентов. Люди очень удивлялись, что за сайт они должны были платить раз и навсегда (хостинг-копейки) :)
Я говорил о конкретном решении по группировке выдачи. Доводы в пользу решения Яндекса достаточно хорошо изложены на предыдущих 11 страницах обсуждения. Перечитайте их еще раз, и если у вас появятся аргументированные возражения (в форме "запрос -- оценка качества поисковой выдачи без группировки -- оценка качества выдачи после группировки"), с удовольствием их выслушаю.
Тут не рассматривался еще один аспект склейки.
Насколько я представляю (может представляю неправильно, Вам на Яндексе виднее ;) ) на позиции в выдаче влияет индекс цитирования сайта. Об этом я могу судить проанализировав первую страницу выдачи по запросу. Сайты с большим индексом цитирования попадают в выдачу даже если на них слова запроса встречаются раз или два. Сайты с низким индексом цитирования попадают в выдачу только при действительно большой релевантности запросу.
Так вот собственно вопрос что делает Яндекс с индексами цитирования склеенных доменов? Если складывает то сайты склеенные на домене с большим количеством поддоменов имеют вероятность получить больший индекс цитирования и наоборот если поддоменов на хостинге было немного - то конкурировать с большими склеенными хостингами такие сайты не могут . Собственно это произошло с одним из моих сайтов, который имел региональную направленность и невысокий индекс цитирования. Он выдавался на первой странице по запросу названия города. Потом плавно свалился с первой страницы на восьмую без каких либо изменений на самом сайте. Если нужно - выложу ссылки и запросы.
В результате посетители с Яндекса идти почти перестали, хотя с рамблера и гугла идут как и раньше.
Идея разумная, но вот только им надо учитывать ссылки с таких сайтов, для ранжирования нормальных сайтов. Поэтому индексировать всё равно придется, и мощности не сэкономить.
А зачем? %)
Есть активные сайты (которые как-то заметны для пользователей) - видимая область.
Текущие значения PR/ИЦ/вИЦ можно взять за константы и в дальнейшем учитывать столько ссылки между сайтами "миниинтернета".
При этом даже качество поиска не будет падать в течение какого-то времени, пока процентов 20 сайтов из видимой части не умрут своей смертью.
euhenio, браво! А ещё можно исключить из поиска все "лишние" рекламные агентства и оставить только дилеров Яндекса. Короче, идей много, было бы желание.
P.S. Похоже, действительно осеннее обострение началось...