- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Сколько можно об одном и том же? Нет чёткого распознавания, но и /* и /& показывают достаточно, погрешность там маленькая. На то что они показывают - идёт трафик без ограничений, робот на эти страницы заходит чуть ли не ежедневно. На остальные страницы - трафик почти нулевой, робот заходит раз в несколько месяцев.
И неважно как это называть, соплями, не соплями, фильтром, не фильтром - суть не меняется. Это работающий способ определения проблемных страниц. Правда ничего с ними сделать нельзя, только наблюдать, и надеяться на лучшее...
Серьезные заявления. Во первых, как часто на этих страницах бот - зависит только от ПРа сайта по сути. По логам сервера - он всегда и на всех страницах тусит на нормальных сайтах.
По поводу соплей, то, что в / - далеко не всегда будет адекватно выдаваться и далеко не всегда там будет бот. Тоже самое и с /* | /&. Есть такие страницы, которые в /& и с них идет отличный траф, есть и наоборот.
Никаких закономерностей нет. Зато люди здесь начинались всякой ерунды. Понаблюдали за своими сайтами с копипастом, а теперь что-то советуют. Нет такого понятния как /& - это проблемный страницы, уверяю. Есть проблемные сайты.
Советую читать западных людей и слушать больше их. Любая ваша "проблемная" страница, лечится 10-20 ссылками.
Другой вопрос, что если это был достаточный объем "уникальной" информации по отношению к остальному тексту на странице - эти ссылки даже не всегда нужны.
Но за счет внутряков, такие страницы тоже идеально лечатся.
Соотвественно, я бы не стал принимать здесь все за истину и тем более доверять сервисам сомнительного характера. Достаточно почекать rian.ru или вики. И вы поймете, что это глупость. Любая их новость или страница - отлично собирает траф.
Почему сайт становится проблемным? Не из-за проблемных страниц?
У меня сотни статей, такое решение проблемы мягко говоря сложновато. Есть еще способы? :)
Сайт становится проблемным - по разным причинам. Копипаст - играет главную роль. Дублированный контент по страницам. Не важно в каком виде. Вы можете просто взять и посчитать, сколько у вас уникальных слов на каждой странице, и сколько у вас копипаста. (включая меню и прочий мусор)
Гуглу надо как-то определять, где информация важная, а где посредственная, если есть внешние ссылки - ему намного проще это сделать. Если это большой объем уникальной информации - ему намного проще это сделать. Если у домена много входящих ссылок - ему намного проще это сделать.
Дальше вы можете сами приложить голову. Но я бы советовал не зацикливаться на этом, а развивать ресурс. Сделать его полезным и качественным.
Постить уникальный материал, гугл оценит - уверяю. Внутреяя перелинковка может вам тоже помочь, если она сделана правильно.
lcatlas, так если бы материал не был уникальным (нет ни одной копипастной статьи), я бы не удивлялся и не писал в эту тему :)
Серьезные заявления. Во первых, как часто на этих страницах бот - зависит только от ПРа сайта по сути. По логам сервера - он всегда и на всех страницах тусит на нормальных сайтах.
Нас интересует, как часто Гугол обновляет содержание в кэше, не так ли? Можно отрицать эту закономерность, но она существует: для страниц в основном индексе он это делает гораздо чаще. Смотрю на многочисленных примерах в теме про аудит сайтов (я ВСЕГДА смотрю содержание кэше, кстати).
Никаких закономерностей нет. Зато люди здесь начинались всякой ерунды. Понаблюдали за своими сайтами с копипастом, а теперь что-то советуют. Нет такого понятния как /& - это проблемный страницы, уверяю. Есть проблемные сайты.
Помимо приведенной, есть и ряд других. Возьмем для примера обычный, средненький сайт. Если его страницам не прописать описание DESCRIPTION, или оно или TITLE слишком короткие или не уникальные - то с 90% вероятностью такие страницы улетают в "сопли". Это разве не закономерноть, и не прямое ли указание веб-мастерам, как приводить в порядов свои сайты?
Еще одна закономерность, совсем не очевидная: если у сайта малый процент страниц в основном индексе - то позициии и траффик даже по этим страницам далеки от возможного. Однако стоит элементарно прибить "сопливые" страницы и поудалять их из кэша Гугла - так траффик на "хорошие" начинает чудесным образом расти, да и общий его объем повышается. Хотите сказать, что этим не надо пользоваться?
Про копипаст: Вы в курсе, что ЛЮБАЯ страница вне основного индекса - это потенциальный "донор контента"? То есть, если проверить ее на последнее обновление кэша и убедиться, что она содержит уникальный текст, то, что называется, "бери - не хочу". И никакой Гугл за это не покарает! Другое дело, что нахождение таких халявных доноров трудно и требует навыков.
Еще одна закономерность: по результатам последнего АПа можно утверждать: если страница по всем показателям (расположение на сайте, внешние ссылки) должна была получить PR, а у нее даже не 0, а N/A - то она почти наверняка в "соплях". И ни ПР-ного веса, ни ссылочного, она уже не передает. Хорошо, с "весом" еще можно поспорить: мол, откуда это известно и как докажешь; но с PR'ом-то все очевидно! И крайне легко проверяется. Практически ВСЕ страницы из основного индекса, расположенные аналогично, получают PR, и при этом НИ ОДНА из "сопливых" его не получает. Это выполняется с 90% точностью. Отрицать, что это закономерность... можно, конечно, но будет выглядеть как-то нелепо. Потому, что проверяется легко.
Любая ваша "проблемная" страница, лечится 10-20 ссылками.
Это не соответствует действительности: не любая; и, скорее, не "лечится", а "сбиваются симптомы". Кроме того, этот способ никак нельзя рекомендовать для SEO: мы же говорим о том, как сделать хорошо, а не о том, как нивелировать влияние допушенных косяков и ляпсусов. И потом: редко, когда пробленая страница бывает одна; как правило, их целый выводок типа тысяч страниц с товарами в Интернет-магазинах. Ставить по 10...20 ссылок на все, или через одну? :) А не проще ли, не пуская деньги на ветер, найти причину их неполноценности и ее устранить? Тем более, что она обычно лежит на поверхности.
Прежде, чем ставить ссылки на "убитые" страницы, их надо вытащить в основной индекс. А для этого НЕОБХОДИМО сравнить их с хорошими и найти, что называется, "десять отличий". Инструмент для этого - анализ разницы выдачи site:site.com и site:site.com/*. И мне не составит труда показать на практике, как это работает. А вот найти опровержение будет проблемно; разве, что ->
Достаточно почекать rian.ru или вики. И вы поймете, что это глупость. Любая их новость или страница - отлично собирает траф.
В случае таких "примеров" я говорю следующее: в чем проблема? Создавайте свою Википедию или CNN, пишите на них поганые страницы - и они тоже будут собирать траффик. Каких-нибудь десять лет труда бригады журналюг-копирайтеров и редакторов, полмиллиона естественных внешних ссылок - и вуаля! - золотой ключик в кармане! Кстати, ЛЮБАЯ страница того же RIAN прекрасно выдавливается из ТОПа даже копией с нее на узко-тематическом и достаточно авторитетном в этой области сайте. А при удачном раскладе - например, когда публикуется серия новостей, - она даже отправляется в "сопли" и ПЕРЕСТАЕТ быть в выдаче на первых десяти страницах Гугла. Соответственно, и траф с нее становится нулевым. Я такой "финт ушами" активно использую для продвижения по региональным новостным запросам.
P.S. Я знаю еще две отличные темы для холивара: влияние PR на ранжирование по запросам и наличие или отсутствие "бонуса новичка"/"песочницы". :)
На одном из сайтов провожу следующий эксперимент:
Заменил СЕО компонент так, что бы ссылки изменили свой вид. Соответственно Гугла проиндексировал новые ссылки и в индексе образовалось куча дублей, но трафик немного вырос, что уже радует, посмотрим что будет после удаления старых ссылок (дублей).
Сейчас сижу удаляю старые страницы из индекса. Неужели нельзя было форму сделать для массового удаления, по одной это ужас просто 🤪
Никто не знает как удалять сразу много страниц, по маске например? 🍾
Постить уникальный материал, гугл оценит - уверяю. Внутреяя перелинковка может вам тоже помочь, если она сделана правильно.
Не подскажите, какая внутренняя перелинковка считается правильной? Как правильно линковать статьи внутри сайта?
Не подскажите, какая внутренняя перелинковка считается правильной? Как правильно линковать статьи внутри сайта?
Про перелинковку: внутренняя перелинковка страниц на сайте с точки зрения SEO.
Про перелинковку: внутренняя перелинковка страниц на сайте с точки зрения SEO.
Спасибо. Интересная инфа.
Сорри за оффтоп, но есть подозрение, что вот здесь:
"Он заслуживает того, чтобы остановиться на нем в отдельной статье в этом разделе о внутренней перелинковке сайтов."
вы забыли прописать ссылку.