- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Заметил очень интересную особенность: изучил порядка 50 сайтов на предмет попадания страниц сайта в суплементал, оказалось что нету ни одного сайта, у которого все бы 100% страниц были бы в основном поиске. Максимально что удалось обнаружить - 90%. При этом эти 10% страниц неосновного индекса - очень качественные страницы с уникальным текстом и без дубляжа на других страницах.
Предположение: каким бы не был бы хорошим сайт, Гугль все равно запихнет часть страниц в неосновной индекс
Возможное решение: сделать как раз 10-20% специальных страниц, чтобы Гугль их добавил в сопли и тогда основные продвигаемые страницы не пострадают и будут в основном индексе
Хотелось бы услышать критики!
Бред. Как заставить гугла засунуть в сопли специальные страницы? Проще на те, что в соплях, ссылок наставить.
Бывают сайты с 100% в основном индексе, это сайты там где мало страниц.
Z-Style добавил 07.07.2010 в 12:14
Возможное решение: сделать как раз 10-20% специальных страниц, чтобы Гугль их добавил в сопли и тогда основные продвигаемые страницы не пострадают и будут в основном индексе!
Чем больше % страниц сайта в suplemental, тем хуже сайт выглядит в глазах ПС. Сделаете так, и будет у вас в дополнительном не 20% а 40%. Да и заезженная это тема, не стоящая обсуждения мне кажется.
Бред. Как заставить гугла засунуть в сопли специальные страницы? Проще на те, что в соплях, ссылок наставить.
Если уж на то пошло, то таким страницам никакие ссылки не помогут, а если и понаставить ссылок - то эффект только через несколько месяцев будет.
-BoB4uK- добавил 07.07.2010 в 12:25
Бывают сайты с 100% в основном индексе, это сайты там где мало страниц.
Z-Style добавил 07.07.2010 в 12:14
Чем больше % страниц сайта в suplemental, тем хуже сайт выглядит в глазах ПС. Сделаете так, и будет у вас в дополнительном не 20% а 40%. Да и заезженная это тема, не стоящая обсуждения мне кажется.
Вынужден с Вами согласиться
Не думаю, что умышленное создание плохих страниц - полезная практика для сайта в целом.
Не думаю, что умышленное создание плохих страниц - полезная практика для сайта в целом.
Это да, тут не поспоришь!
Вот что заметил в последнее время: если раньше (скажем, в начале года) по всем правилам сделанные страницы автоматически занимали место в основной выдаче (за редким исключением), то сейчас это не так. В частности, по сильно-конкурентным запросам, если страница чужда общей тематике сайта, то она скорее окажется в "соплях", нежели в основном индексе. Причем "чужда" - это не абсолютно чужда, а просто этот запрос ранее на сайте не присутствовал.
По мере накопления "массы тела" по этому запросы страницы чудесным образом возвращаются в основной индекс. Но бывает, что прозябают в "соплях" очень долго, несмотря на свою явную "хорошесть".
С другой стороны, страници среднего и низкого качества, но описывающие предмет, по которому сайт хорошо раскручен, стоит большого труда загнать в "сопли". Они по-прежнему неплохо попадают в основной индекс Гугла.
Заметил также вот что: если раньше страницы с географическим запросом в TITLE (например, "создание сайтов в Новосибирске") практически всегда попадали в основной индекс, то сейчас, с начала лета, такое выполняется далеко не всегда. По всей видимости, это какие-то происки Мэй-Дея; сочетания "конкурентный запрос + география" больше не являются пропуском в основной индекс.
=====================
Однако алгоритм временного "убиения" страницы Гуглом по-прежнему работает! Заключается он вот в чем: предположим, создана объективно сильная страница по новому для сайта запросу с приличной конкуренцией. Скорее всего, она на денек появится в основном индексе, после чего на пару недель покинет его, или индекс вообще. Потом может всплыть - а может и не всплыть!
Проводил эксперимент: имеется связка сильных статей на тему копирайтеров (4 штуки, головная и три "дочки", перелинкованные кольцом). Эта связка статей была выставлена на сильном сайте, никаким боком не относящимся к Интернет-делам. В результате три недели страницы пребывали неизвестно, где, после чего всплыли на третьей странице выдачи Гугла по соответствующим запросам, и застряли там надолго.
Затем эта же связка была перенесена на сайт о SEO, а из кэша Гугла была удалена. Они сразу же попали в основной индекс, а через пару недель одна из них влетела в ТОП-10, где и обитает с постоянной пропиской. Остальные показываются тоже неплохо - куда лучше, чем с прежнего, более авторитетного в целом, сайта! При этом других материалов на тему копирайтерства на сайте нет, если не считать отдельные упоминания.
/ru/forum/comment/6534840
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
2 Вилли - спасибо за замечание.
интуитивно нечто подобное чувствовал, но словами не формировал до конца ;)
Просто анализировал количество релевантных страниц запросу на сайте. Если менее 5% - писал исчо. :)
сочетания "конкурентный запрос + география" больше не являются пропуском в основной индекс.
алгоритм учитивает "коммерческость вопроса" давно - данные берет из адвордс :)
я очень редко встречал сайты с абсолютным показателем, где гугл саплиментал ратио равен 0. Это как правило молодые сайты которые только попали в индекс, или же небольшие мега трастовые с солидной репутацией. Думаю показатель Ратио меньше 20% это более чем солидный результат. Проверяется при помощи этой системы - http://www.thedownloadplanet.com/supplemental/