- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
А есть варианты, как улучшить выдачу по низкочастотным запросам? Что делать с говносайтами и как вообще отделить мух от другой животной продукции? :)
Варианты всегда есть. Как тут правильно замечали - надо искоренить причину. А причина одна - востребованность говносайтов на рынке ссылкоторговли как доноров (MFA-вариант я пока не беру в расчет ввиду гораздо более низкой экономической эффективности). То есть нужен удар от Яндекса в этом направлении. Яндекс пока все свои проблемы пытается решить алогритмически. Но похоже, в данном случае алгоритмический метод конкретно буксует. Мимикрия говносайтов впечатляет. Крупные SEO-компании почти поностью отказались от практики говносайтостроительства (получив в своё время серьёзные оплеухи), отдав ее на откуп куче мелких "субподрядчиков"-вебмастеров, и предпочитая покупать места на донорах на уже хорошо сформировавшемся рынке. Получается, общие закономерности уже плохо вычисляются - всяк вебмастер сам себе режиссер. Поэтому, На мой взгляд, в сложившейся ситуации более эффективны были бы ручные методы. Но, во-первых, это вопрос политический, а во-вторых, тогда перед Яндексом становится вопрос квалифицированных и некоррумпированных кадров, которые могут довольно быстро и достаточно полно решить проблему говносайтов. И тут уже на первый план выйдет вопрос времени и твердости характера. Уверен, принцип таракана говносайтам не поможет. Если захотеть дожать - можно будет дожать.
А на сколько вероятно то, что яндекс стал приближаться по частоте индексации к гуглу?
Я уже много лет пользуюсь Яндексом и всегда нахожу то, что ищу.
Как то давно, на первой волне популярности гугл, я было пытался искать через буржуйский поиск, но быстренько сделал от туда ноги. Больше туда не вернусь.
Вижу по своим сайтам (6 штук), что Яндекс знает больше, чем гугл, особенно, когда не расскручиваешь
wolf, все дело в том, что рунет растет как на дрожжах и ручные методы будут становиться все менее и менее эффективны (уже 3 млрд. страниц, а сколько будет через пару лет?). Тут нужны действительно алгоритмические методы, которые позволяли бы если не исключать говносайты из выдачи, то хотя бы не ранжировать их высоко. А мы видимо, что порой они лезут в топ. Может быть сказывается недостаточность именно хороших сайтов по многим тематикам?
Мне кажется надо бить не по самим говносайтам, а по их эффективности т.е. совершенствовать механизмы ссылочного ранжирования и остальных алгоритмов, определяющих релевантность документов.
квалифицированных и некоррумпированных кадров, которые могут довольно быстро и достаточно полно решить проблему говносайтов
а тут встанет вопрос критерия: говносайт-недоговносайт-недосайт-сайт...
wolf, все дело в том, что рунет растет как на дрожжах и ручные методы будут становиться все менее и менее эффективны (уже 3 млрд. страниц, а сколько будет через пару лет?). Тут нужны действительно алгоритмические методы, которые позволяли бы если не исключать говносайты из выдачи, то хотя бы не ранжировать их высоко. А мы видимо, что порой они лезут в топ.
Разговор о причинах уже забыли, я так полагаю? За очередным миллиардом говносайтов можно долго и смачно гоняться, вычисляя характерные особенности движков или ядра входищих/исходящих ссылок. Но если отрубить стимул для предпоссылок их возникновения - этот миллиард вымрет сам. А отрубить это на современном этапе, на мой взгляд, можно только вручную. Посеив хаос в сформировавшихся финансовых потоках, стимулирующих говносайтостоительство.
А отрубить её на современном этапе, на мой взгляд, можно только вручную.
Да ладно!
Сквозняки просто перестать фильтровать. Все как и сейчас функцией денег останется - но выглядеть куда цивильнее будет.
а тут встанет вопрос критерия: говносайт-недоговносайт-недосайт-сайт...
Пока алгоритм ранжирования является частной собственностью - полагаю, этот вопрос не существеннен - главное, официальным представителям поисковиков не проболтаться, классифицировав случай с конкретным сайтом так, чтоб можно было инкриминировать дискриминацию, или как это там в ваших юридических терминах называется. В общем, всё валить на загадочный алгоритм ;)
Да ладно!
Сквозняки просто перестать фильтровать. Все как и сейчас функцией денег останется - но выглядеть куда цивильнее будет.
Да, вроде как уже перестают ;) Но это не панацея. Просто приведет к перераспределению ценообразования на ссылки, а проблемы не решит. Хотя, конечно, многих такой шаг заставит понервничать...
Пока алгоритм ранжирования является частной собственностью - полагаю, этот вопрос не существеннен - главное, официальным представителям поисковиков не проболтаться, классифицировав случай с конкретным сайтом так, чтоб можно было инкриминировать дискриминацию, или как это там в ваших юридических терминах называется. В общем, всё валить на загадочный алгоритм
не получится. помните осенний разговор про антимонопольное законодательство? так вот, чтобы всё заработало, Я. должен срочно уменьшить свою долю в поиске до меньше 30%... иначе можно легко все эти иннициативы придушить исками. это просто пока еще крупные интересы не задеты. а как заденут, то прецеденты принудительного включения в индексацию моментально возникнут.