Добрый день! Подскажите, как может повлиять количество страниц сайта на раскупаемость ссылок? Есть сайт с тиц 20, цена за размещение - 3$, за написание - 2$. В индексе ~100 страниц. Сайт и домен 2009 года. Посещаемость ~600/сут. Тематика - IT. Заявок нет вообще. Насколько я понимаю, цены у меня не шкалят, параметры в норме, в чем может быть дело? Грешу на малое количество страниц сайта, может ли это являться причиной низкого кол-ва заявок?
От индексации, я так понимаю, он закрывается?
А можно подробнее про такое отслеживание эффективности? Т.е. создается страница дублирующая контент осн. страницы и попасть на такой дубль можно только с контекста ?
Я, честно говоря, так и не понял, есть ли какая-либо возможность заранее определить у хостера данную уязвимость (если дело все таки в ней)?
По-моему такое происходит более или менее постоянно. На сайтах, где объем страниц большой, я на это внимания особо не обращаю если не страдает посещаемость.
Все нормально. Давно у вас такое происходит?
У всех отписавшихся сайты на WP или разные движки?
Делал сайт, в индекс вошла только одна страница из примерно 30. Эта страница была на 3 месте по запросу "Интел" около дня (первое место - Intel.com, второе - ark.intel.com). Потом вылетела, по итогу сайт начал индексироваться месяца через два, но страницы писались для сайта все это время. Т.е. не было сайта созданного сразу на 1000+ стр.
Такая же фигня... Три года сайт был в топе по своим запросам, недели две назад упала посещаемость почти в три раза. Основное падение по яндексу. Однако, судя по тому, что основные вч держаться на месте, попадали нч и сч за которыми особо не следил.
Нормальный титл :) Коротко и по делу...