- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если сравнить усилия, затраченные вами на вывод ГС
Я где-то писал, что это ГС?
Поймите, я не спорю о том, что это эфективнее (т.к. новый проект, естественно, начал уже). Вопрос в соотношении выхлопа к трудо-деньго-временезатратам. Новый проект - это пол года работы, ~ 3-4-5 тыс зелени. То, о чем я говорю - это 2 недели работы, 500 зелени. Понимаете разницу?
Очевидное решение "в лоб" выбрать всегда можно.
Сам Катс говорил, что лучше делать новый белый сайт, чем выводить ГС из под фильтров.
Катс говорил: не продвигайте сайты вообще.
попробуй написать новую статью под определенный запрос, на нее 301 со старой.
Конечно, так и хочу.
целесообразно сделать еще пару-тройку сайтов
Ну, на пару-тройку кошелька не хватит, но второй параллельно запустил уже.
а кто-то пробовал менять гео-привязку и ключи запингвиненных?
сама 3 месяца экспериментирую, пока глухо.
День добрый. Есть один важный проект, который за пол года от старта получил практически по всем нужным запросам ТОП7-ТОП5-ТОП3. В начале октября накрыл пингвин. Большая часть запросов улетела на 2-3 страницу выдачи и за весь октябрь потихоньку 50% из них вообще укатилась в небытие. Что интересно, процентов 10% запросов (по моим наблюдениями тупо отболта) остались, скатившись только на 3-5 позиций вниз. Конечно, сильнее всех пострадали активно продвигаемые ВЧ. Для себя понял, что поднять их опять в ТОП3 гораздо сложнее будет, чем начать новый проект и аккуратно провести работу.
Но недавно заметил, что непродвигаемые страницы этого проекта по СЧ, под которые на них был текст, очень даже неплохо тусуются на 2й странице выдачи вообще без внешних. Меня посетила мысль, а что если создать новые страницы этого старого проекта (даже, заточить непродвигаемые ранее) и аккуратно их раскрутить под старые запросы? Может, это будет рациональнее, чем втираться в доверие с абсолютно новым проектом?
Кто-то пробовал что-то подобное?
Не получится.
Такая же ситуация с сайтом. Попробовал проставить пару ссылок на НЕПРОДВИГАЕМУЮ НОВУЮ страницу, которая волей судеб случайно оказалась в ТОП20. Она тут же улетела за ТОП100. Прошло уже больше месяца - она там до сих пор.
Но... у моего сайта ручной фильтр.
С автоматом может и получится.
ручной фильтр можно без проблем снять , а вот автомат ..... эх но найдется же лазейка
Если сравнить усилия, затраченные вами на вывод ГС из под пингвина
А кто вам сказал, что у ТСа ГС или пингвин косит спаммеров, которые только ГС спамят?
Сам Катс говорил, что лучше делать новый белый сайт, чем выводить ГС из под фильтров
Лично я (как, скорее всего, и 95% форумчан) просто не готовы делать КАЧЕСТВЕННЫЕ новые сайты под Гугл (т.е вкладывать душу, время, средства и т.д.). Дело в том, что непредсказуемость гуглоалгоритмов достигла того апофеоза маразма, что 90% качественных СДЛов ушло под фильтры (за внешние ссылки) БЕЗ ПРАВА АМНИСТИИ, а в выдаче наблюдаем ГСы-однодневки.
ПС сам заслуживает ту выдачу, которую предлагает ©. Вот и имеем выдачу хуже, чем год или полгода назад. Дальше будет печальнее, если не откатят алгоритм...
Не получится.
Такая же ситуация с сайтом. Попробовал проставить пару ссылок на НЕПРОДВИГАЕМУЮ НОВУЮ страницу, которая волей судеб случайно оказалась в ТОП20. Она тут же улетела за ТОП100. Прошло уже больше месяца - она там до сих пор.
Спасибо за инфо.
Думаю, игра в "попробовать" для меня будет стоит свечь. Я попробую в любом случае. А там посмотрим. Даже вероятность 50/50 для меня уже стоит того.
новые сайты под Гугл (т.е вкладывать душу, время, средства и т.д.). Дело в том, что непредсказуемость гуглоалгоритмов достигла того апофеоза маразма, что 90% качественных СДЛов ушло под фильтры
Именно это я и делал с предыдущим проектом. 100% уник. Все беклинки накапливались равномерно (никаких резких приростов, по чуть-чуть, по чуть-чуть). 50% обраток - это статьи и ручные ссылки. Минимум 50% ото всех - это безанкорники и уникальные анкоры (типа "розовые слоны от СпецРозСлон"). Затрачены большие усилия на сам сайт. Единственная моя оплошность - это 3 сквозняка в скрытом слое от 3х нетематических для меня ресурсов. Но ведь это мог бы сделать и не я (чисто теоретически). В панели вебмастера указал, что не учитывай, мол, их. Толку пока 0 (Сайт еще больше улетел в небытие позже).
Вот со всем этим делом в начале октября - бац, все улетело.
Чувствуешь себя как Попка-Дурак, русская рулетка от гугла тебя режет, а ты все заново как рекурсивная функция, пока нервы не сдадут.