- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если один большой делать, то как предпочтительнее, все микронч выписывать, или грубо говоря принцип Парето использовать, выписать 20% самой частотной семантики, потом ещё один сайт сделать и выписать там 20%? Или прям долго и нудно долбить все нч и микронч чтобы полностью всю возможную семантику расковырять?
Да, можно использоваться этот подход. Не везде принцип Парето статистически достоверен, но как стартовая методология вполне себе.
Да, можно использоваться этот подход. Не везде принцип Парето статистически достоверен, но как стартовая методология вполне себе.
Можно то можно, но то будет эффективнее в данном случае в плане денег?)
Да, можно использоваться этот подход. Не везде принцип Парето статистически достоверен, но как стартовая методология вполне себе.
У него с 300 страниц лям трафа в месяц, я бы вообще не трогал этот сайт, ИМХО =) Оно всё равно упадёт, кады его ключи вычислят...
Оно всё равно упадёт, кады его ключи вычислят...
В смысле?
В смысле?
Ну у тебя 300 страниц приносят в инфо столько трафа - это опасно =) Там по этим страницам в топе кто-то же есть? Они могут это увидеть =)
Из вашего опыта следует, что меньше 1000 страниц сайты продвигаются хуже?
Начиная с какого объёма продвижение идёт получше, как по-вашему? Именно с 1000 страниц и выше?
С 1000 страниц больше будут делиться ссылками юзверы, чем с 10 страниц. Соответственно жирнее будет с 1000 страниц., так как инфо-шума о домене в иннете будет больше.
Ну у тебя 300 страниц приносят в инфо столько трафа - это опасно =) Там по этим страницам в топе кто-то же есть? Они могут это увидеть =)
Да там в принципе конкуренция довольно плотная была даже когда я заходил, просто я сделал лучше по всем фронтам, начиная от самого контента и заканчивая тем, что у меня сайт посимпатичнее и гораздо удобнее. Ну и онпейдж у меня лучше, плюс анкорных ссылок навалил где-то на 400 тысяч рублей.
С 1000 страниц больше будут делиться ссылками юзверы, чем с 10 страниц. Соответственно жирнее будет с 1000 страниц., так как инфо-шума в иннете будет больше.
Это тоже лабуда.
Да там в принципе конкуренция довольно плотная была даже когда я заходил, просто я сделал лучше по всем фронтам, начиная от самого контента и заканчивая тем, что у меня сайт посимпатичнее и гораздо удобнее. Ну и онпейдж у меня лучше, плюс анкорных ссылок навалил где-то на 400 тысяч.
Сайт симпатичнее - это вообще лабуда =)) То есть вы с 300 страницами влезли в топ, где в десятке только старые жирные сайты? В обе ПС примерно одинаково?
С 1000 страниц больше будут делиться ссылками юзверы, чем с 10 страниц. Соответственно жирнее будет с 1000 страниц., так как инфо-шума о домене в иннете будет больше.
Я на это даже не надеюсь. Есть страница, где больше 6кк просмотров зафиксировано, куча комментов какой классный контент и 0 репостов 😀