- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Мои наблюдения то плюс то минус хотя сетка была полностью в индексе страниц на сайте по 1000 и более уникальность контента 50-60%
site.ru - 51 - 36
site.ru - 56 - 58
site.ru - 1260 - 45 - 41
site.ru - 3606 148 - 156 - 151
site.ru - 276 - 68 - 64 - 66
site.ru - 3156 - 174 - 110 - 109
site.ru - 2534 - 67 - 82 - 83
site.ru - 49 - 49 - 49
site.ru - 49 - 49 - 50 - 49
site.ru - 944 - 847 - 87 - 79 - 80
site.ru - 72 - 70
site.ru - 2069 + 2101 - 156 - 129 - 206
site.ru - 2494 - 2492 - 171 - 167 - 169
site.ru - 2 - 128 - 51
site.ru - 89 - 73 - 40
site.ru - 83 - 78 - 46
site.ru - 55 - 70 - 34
site.ru - 112 - 81 - 57
site.ru - 62 - 71 - 45
site.ru - 240 - 47 - 52 - 50
site.ru - 52 - 39 - 37
Пришел ответ от Платона:
Наши алгоритмы устроены так, чтобы на запросы пользователей давать наиболее полный ответ, и в связи с этим в результаты поиска попадают наиболее релевантные и уникальные страницы сайтов:
http://help.yandex.ru/webmaster/?id=1114408 .
При этом наш робот помнит о других страницах сайтов; если на них присутствуют ссылки, он периодически переобходит их, и со временем они также могут быть включены в результаты поиска.
Мы всегда работаем над совершенствованием алгоритмов, принимающих решение по включению тех или иных страниц в результаты поиска, и примеры страниц Вашего сайта переданы в поисковый отдел нашей компании для анализа и последующей корректировки алгоритмов. Внесение изменений в алгоритмы - достаточно сложный процесс, который требует времени, так как затрагивает много различных сайтов.
В принципе, ничего нового за исключением того, что робот проходит по старым ссылкам. Намекают на покупку ссылок?
awasome, они намекают, а я в целях эксперимента в начале недели купил в сапе по паре ссылок на выпавшие страницы)
Посмотрим что это даст.
iworkshop, в том-то и дело, что ссылки практически с начала создания сайта куплены. Подожду еще ап
Тоже такая проблема с сайтами. Вот например по одному. Сайту несколько месяцев, спустя пару апов попало в индекс 200+ страниц. Потом начали вылетать. С каждым апом все меньше и меньше. Еще заметил, что старые страницы, которые были в индексе заменяются новыми.
Было что в один ап влезло 30 страниц, потом снова вылетели, и так уже пару месяцев подряд. Сейчас на сайте более 500 страниц качественного копирайта по 3000-5000 символов б.п., а в индексе всего 80 страниц.
Может какая то песочница яндекса для новых сайтов?
Кстати трафик с яндекса только растет.
Товарищи по несчастью, а как у вас дела обстоят с дублированным контентом? На нескольких своих сайтах заметил следующее. В индекс попадают не статьи по 1000-2000 символов, а пагинация главной страницы с анонсами из этой статьи (всего 150-200 символов).
Архивы, теги и календари уже давным-давно не делаю. Как только зарядили АГС. А вот пагинация стоит на всех сайтах и, что самое интересное, на более старых сайтах (от 6 месяцев) никак не мешает индексации основных статей.
Кстати, в сегодняшний ап заметил очередное уменьшение страниц. Незначительно. Всего 10-30 страниц с каждого сайта вне зависимости от добавления уникального контента.
Gothic добавил 12.12.2011 в 12:43
Кстати, покупка ссылок на выпавшие страницы помогает? А то я только недавно озаботился этим. В индекс попало только 6 страниц-доноров, но на акцепторов это (пока?) никак не отразилось.
Кто может помочь с дублями по ДЛЕ? Как оказалось генерируются дубли в огромном количестве, а как их закрыть не знаю. В роботсе вроде закрыто все, а вот человек с форума показал что на каждую страницу очень много дублей.
Вот на примере этого сайта sovets.net (не сочтите за рекламу)
Вводим с любой статьи предложение (например статья которая выводится на главной - Как выбрать вечернее коктейльное платье) в строку гугла "Впереди встреча Нового года и много вечеринок, связанных с этим праздником" и видим 4 результата. На моем сайте этих результатов намного больше.
Так вот как сделать чтоб этих дублей не было. Роботсом это не закроешь. Нужно закрыть как я понял краткое описание.
P.S. никто не может подсказать?
Кто может помочь с дублями по ДЛЕ? Как оказалось генерируются дубли в огромном количестве, а как их закрыть не знаю. В роботсе вроде закрыто все, а вот человек с форума показал что на каждую страницу очень много дублей.
Вот на примере этого сайта sovets.net (не сочтите за рекламу)
Вводим с любой статьи предложение (например статья которая выводится на главной - Как выбрать вечернее коктейльное платье) в строку гугла "Впереди встреча Нового года и много вечеринок, связанных с этим праздником" и видим 4 результата. На моем сайте этих результатов намного больше.
Так вот как сделать чтоб этих дублей не было. Роботсом это не закроешь. Нужно закрыть как я понял краткое описание.
P.S. никто не может подсказать?
Для Гугла это нормально. В Яше немного по другому. У самого сайты на ДЛЕ. Тоже понимаю, что анонс это своеобразный дубль, но делаю ананосы, так как сайт для людей в первую очередь, а во вторую - для поисковиков... ☝
awasome, последние новости с фронта, так сказать.
Из 20тим проблемных страниц в индексе уже 10.
т.е. что то из сделанного сработало.
Что было сделано.
На всех страницах разбавлен контент и увеличен его объем(контент и так был уникальный качественный рерайт, но добавили ещё).
И на все страницы в сапе куплено по 2-5 безанкорных ссылок(безанкорных, чтобы не зря покупать). По тематике ссылок особо не фильтровал, думаю сработало просто наличие ссылок на выпавшие страницы.
awasome, последние новости с фронта, так сказать.
Из 20тим проблемных страниц в индексе уже 10.
т.е. что то из сделанного сработало.
Что было сделано.
На всех страницах разбавлен контент и увеличен его объем(контент и так был уникальный качественный рерайт, но добавили ещё).
И на все страницы в сапе куплено по 2-5 безанкорных ссылок(безанкорных, чтобы не зря покупать). По тематике ссылок особо не фильтровал, думаю сработало просто наличие ссылок на выпавшие страницы.
Контент пока не разбавлял, а ссылки были куплены давно. Те страницы, на которые куплены ссылки, действительно в индексе (почти все). Видимо, придется разбавлять контент. Проблема в том, что такая трудность по нескольким сайтам одновременно... Похоже на фильтр, но Платоны уверяют в обратном