- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, друзья. Попасть под агс за продажу ссылок в sape совсем не сложно. А как обстоят дела с pr.sape? Код продажи на сайт не устанавливается, все делается ручками.
Есть ли у кого-то наблюдения и умозаключения на сей счет? Буду признателен за ваши ответы.
Вечные ссылки - зло для сайта. И дело не в коде и не в конкретной бирже.
Просто их ресурс, то количество, что вы сможете продать - ограничен. После чего сайт будет хуже ранжироваться, выпадать из индекса, фильтроваться и т.п.
Просто их ресурс, то количество, что вы сможете продать - ограничен.
Спасибо за ваш ответ. Не могли бы вы поделиться вашими наблюдениями - какое количество страниц с вечными ссылками в статьях является критическим для сайта, к примеру, с 2000 страниц в индексе?
Точно вам никто не скажет! :)
Кто-то говорит 50х50%, кто-то 60х40, некоторые говорят продажных статей должно быть в два раза меньше чем не продажных...
Лично мое мнение - продажных должен быть минимальный процент.
Попасть под агс за продажу ссылок в sape совсем не сложно
С какого перепугу? :D
Вечные ссылки - зло для сайта.
Абсолютно согласен.
---------- Добавлено 28.01.2014 в 05:45 ----------
какое количество страниц с вечными ссылками в статьях является критическим для сайта
Нет никакого критического количества.
Имею 4 сайта в этой бирже. По моим наблюдениям сайты плохо ранжируются в поиске, страницы долго индексируются.
Имею 4 сайта в этой бирже. По моим наблюдениям сайты плохо ранжируются в поиске, страницы долго индексируются.
У меня больше года там находится сайт, для которого позиции не важны - с индексацией проблем нет: новые страницы залезают в течении суток, как правило. Сайт, при довольно низких пузомерках приносит не значительный, но приятный доход. Поэтому у меня и появилась мысль добавить в систему сайт "пожирнее" и в як. Но этот сайт активно продвигается и падение позиций в индексе будут крайне нежелательны.
Поэтому я и решил поинтересоваться мнением уважаемых форумчан на эту тему.
Яндекс походу знает теперь всё:) и топит сайты которые учавствуют на биржах!
Яндекс походу знает теперь всё и топит сайты которые учавствуют на биржах!
Ничего он не топит. И про биржи давно уже знает.
Яндекс походу знает теперь всё:) и топит сайты которые учавствуют на биржах!
Если Яндекс и научился определять торговлю ссылками (не только через биржу, но и ручками), то уже давно. Просто до этого он привлекал асессоров для верификации выводов робота (алгоритмом назвать язык не поворачивается, поскольку очевидно, что для анализа используется нейросетевой классификатор). Настроив нейронную сеть (подобрав веса, необходимые для максимально корректной классификации с минимальным уровнем ошибок как первого, так и второго рода), Яндекс принялся за массовый анализ сайтов роботом и наложение санкций на основании заключения робота. Всё поведение Яндекса вполне укладывается в максимильную стратегию.
se non è vero, è ben trovato
Просто до этого он привлекал асессоров для верификации выводов робота (алгоритмом назвать язык не поворачивается, поскольку очевидно, что для анализа используется нейросетевой классификатор). Настроив нейронную сеть (подобрав веса, необходимые для максимально корректной классификации с минимальным уровнем ошибок как первого, так и второго рода), Яндекс принялся за массовый анализ сайтов роботом и наложение санкций на основании заключения робота. Всё поведение Яндекса вполне укладывается в максимильную стратегию.
Сколько букв то.
99,9% продажных ссылок любой школьник определит с первого взгляда. думаете одной из самых сложных аналитических разработок в мировом вебе сложнее это сделать?)))