- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Все конечно это делают по разному, и в свою очередь каждый метод имеет свое преимущество.
Итак начнем с самого начала - Старт сайта.
1) На старте сайта мы имеем довольно большой шанс попасть в песочницу, со своего опыта я убедился что сайт может туда попасть со дня первой индексации гуглем. Если сайт не попал сразу туда, он может туда попасть на протяжении первых пол года существования сайта.
Интересует вопрос есть ли статистические даные, какой % того, что сайт может попасть в песочницу, и какие факторы на это влияют?
2) Следующий шаг - фильтры.
Фильтры сделаны для борьбы гугли с СЕО, тоесть они срабатывают от резкого продвижения сайта в поисковике, многочисленым и быстрым наращиванием беклинков, спам в контенте сайта и т.п.
Со спамом в контенте все понятно, интересен вопрос с беклинками.
В практике встречал людей, которые быстрым наращиванием беклинков ставят сайт под фильтр, но при этом эфективно наращивают pr, и после оставляют сайт на отстой под фильтром, после как гугля выпускает сайт из под фильтра (4-6 месяца) он стремительно взлетает вверх. За это время пока первый сайт отсиживаеться под фильтром мы делаем еще с десяток сайтов и продвигаем таким же методом. Через определенное время мы имеем сеть сайтов которые отсидели под фильтром свой срок и на полных оборотах приносят хороший трафик.
Реальная ли эта практика, не прийдеться ли сайту страдать от этого всю его жизнь?
3) Стабильное и медленное но уверенное продвижение сайта.
Постепенно наращиваем беклинки, постепенно добавляем контент, вроде все красиво и правильно. Но, имеем шанс попасть в ту же песочницу, имеем шанс попасть под тот же фильтр, а потом думать и розковыривать настолько мелкие в оптимизации нюансы, которые могли бы содействовать попадению под фильтр и которые известны только Гугле.
Так где правда? Какое будет лучше соотношение - затраченое время и результат?
Могу вам дать общий ответ.
Судя по ослаблению дискуссий на этом сайте и усилению их на форумах связанных с PPC, сайты которые продвигались всерьез и надолго, т.е. последовательно и планово, со спокойным наращиванием контента, линков и т.п. - остались в топе, а сайты которые генерятся под временные задачи(доры, партнерские каталоги) - послетали. Делайте выводы.
P.S. Я для себя сделал такой, что Гугл стал внедрять многие положения патента.
Ну кто вам правду-то расскажет? Думаете будут воспитывать себе конкурентов?
Сделайте сайт с весьма нейтральным (с точки зрения продвижения) контентом. Объявите его ненавязчиво и когда он начнет находиться по запросам в Гугле, 5-6 месяцев пейте пиво и читайте книги. А потом корректируйте контент с точки зрения раскрутки.