- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Как вылезти из под этого фильтра?
Все как и прежде: оставить только актуальный и релевантный контент без дублей, убрать все покупные ссылки, если актуально понизить тошноту ключей в тексте, добавить статей без ключей из твоего семантического ядра, но по тематике сайта и ждать следующего апдейта 🍿
так никто толком не знает, что это за алгоритм и как применяются санкции.
Я было сначала подумал, что это санкции некоторым сайтам за "распухший" флейм и прочие нетематические разделы, в которых есть или страницы с "популярными ключами" или туда ведут входящие ссылки с вч анкорами. Причем содержимое страницы не соответствует ни ключам, ни входящим ссылкам.
Но даже в этой теме утверждали, что пострадали и узкотематические сайты. Так что фиг знает.
Все как и прежде: оставить только актуальный и релевантный контент без дублей, убрать все покупные ссылки, если актуально понизить тошноту ключей в тексте, добавить статей без ключей из твоего семантического ядра, но по тематике сайта и ждать следующего апдейта
Ясно. Скорее всего сайт упал за неуникальность, хотя очень хорошо по ВЧ шел с самого создания сайта. На сайте не совсем уникальный контент, закажу рерайт на него, придется раскошелиться.
Тошноты ключей и покупных ссылок не было.
На время изменений сайт закрывать не нужно от индексации? и после изменений надо отправлять на пересмотр?
Тоже упали все адалты за последние две недели.
я так полагаю это изза анализа исходящих ссылок с сайта каким то ботом. Возможно что сайт ( у меня так точно поэтому) ссылается со всех страниц на одну и ту же партнерку (url) (url - ы) посему бот распознает сейчас это как спам и пессимизирует в выдаче.
ну а о борьбе с покупными уже все наслышаны.
зы. может и не в тему, но не читал последние 3 страницы, уж извините
так никто толком не знает, что это за алгоритм и как применяются санкции.
Я было сначала подумал, что это санкции некоторым сайтам за "распухший" флейм и прочие нетематические разделы, в которых есть или страницы с "популярными ключами" или туда ведут входящие ссылки с вч анкорами. Причем содержимое страницы не соответствует ни ключам, ни входящим ссылкам.
Но даже в этой теме утверждали, что пострадали и узкотематические сайты. Так что фиг знает.
Я провожу тесты для себя, меня интересует в первую очередь трафик а не позиции, и я вижу следующее:
1) страдают сайты у которых много-много страниц
2) страдают сайты у которых размыта тематика, т.е. много-много НЧ разных тематик
3) страдают сайты с неуником. Т.е. если тупо даже нагенерировать страницы с набором слов, они будут жить дольше чем неуник.
4) разбавление текстов уник картинками и видео, не дает особых преимуществ
5) соц сигналы, либо фильтруются, либо ушли на второй план. Т.к. 300 твитов и 300 кнопко-плюсов от G+ и FB особо, на кол-во трафика или позиции роли не сыграло
6) плохо работают большие уник статьи, например там где на 1ой странице от 10к текста и много картинок, работает хуже чем 10 страниц по 1к текста
7) дают жесткие санкции за сбор трафика через большое кол-во НЧ
Санкции которые я получал:
1) большая часть страниц выпадает из индекса
2) большая часть страниц уходит в дополнительный индекс (хоть и утверждают что его нет с 2007го), в общем туда, что считается вот так (site:name.com - site:name.com/&)
В общем итоге, снижается кол-во трафика.
В буржунете, дают вполне нормальные советы:
1) контент должен быть уникальным
2) контент должен быть "свежим"
3) должна быть четкая тематичность у сайта
4) никаких покупных ссылок
5) должна быть нормальная внутренняя оптимизация
6) не должно быть дублей
7) не должно быть копипаста
8) надо закреплять за собой авторство
9) про сам сайт я вообще молчу, это по-умолчанию: должна быть нормальная структуруа, заполнены title и description, должен быть sitemap, нужна верстка без косяков, должен быстро отдавать странички, соответственно нужен нормальный хостинг. Причем хостинг желателен в той же стране, откуда и ЦА и т.д.
10) Не должно быть быстрого роста, для молодых сайтов (не надо загонять по 10к страниц/день через сайтмап, пусть лучше сам постепенно обходит)
Это конечно все хорошо для беленьких СДЛ-ов, но мне так не хочется отказываться от своих ДДЛ-ов и ГС-ов, что у меня все равно теплится надежда, найти какое-то волшебное средство..
Но пока, в общей совокупности, трафик по этим сайтам значительно падает, от апдейта к апдейту..
Этот зверь называется "Орёл с головой Льва", имхо 88)))))))
+100500 Редко на форуме встретишь не только развернутые, но и четкие ответы
в закладки однозначно
Респект!
Многие пункты по наблюдениям совпали, о некоторых мучился например о твитах...
Откровением было узнать про сайтмап, я как разработчик небольших магазинов уже устал объяснять клиентам что не стоит времени тратить на сайтмап
Я провожу тесты для себя, меня интересует в первую очередь трафик а не позиции, и я вижу следующее:
1) страдают сайты у которых много-много страниц
2) страдают сайты у которых размыта тематика, т.е. много-много НЧ разных тематик
3) страдают сайты с неуником. Т.е. если тупо даже нагенерировать страницы с набором слов, они будут жить дольше чем неуник.
4) разбавление текстов уник картинками и видео, не дает особых преимуществ
5) соц сигналы, либо фильтруются, либо ушли на второй план. Т.к. 300 твитов и 300 кнопко-плюсов от G+ и FB особо, на кол-во трафика или позиции роли не сыграло
6) плохо работают большие уник статьи, например там где на 1ой странице от 10к текста и много картинок, работает хуже чем 10 страниц по 1к текста
7) дают жесткие санкции за сбор трафика через большое кол-во НЧ
Санкции которые я получал:
1) большая часть страниц выпадает из индекса
2) большая часть страниц уходит в дополнительный индекс (хоть и утверждают что его нет с 2007го), в общем туда, что считается вот так (site:name.com - site:name.com/&)
В общем итоге, снижается кол-во трафика.
В буржунете, дают вполне нормальные советы:
1) контент должен быть уникальным
2) контент должен быть "свежим"
3) должна быть четкая тематичность у сайта
4) никаких покупных ссылок
5) должна быть нормальная внутренняя оптимизация
6) не должно быть дублей
7) не должно быть копипаста
8) надо закреплять за собой авторство
9) про сам сайт я вообще молчу, это по-умолчанию: должна быть нормальная структуруа, заполнены title и description, должен быть sitemap, нужна верстка без косяков, должен быстро отдавать странички, соответственно нужен нормальный хостинг. Причем хостинг желателен в той же стране, откуда и ЦА и т.д.
10) Не должно быть быстрого роста, для молодых сайтов (не надо загонять по 10к страниц/день через сайтмап, пусть лучше сам постепенно обходит)
Это конечно все хорошо для беленьких СДЛ-ов, но мне так не хочется отказываться от своих ДДЛ-ов и ГС-ов, что у меня все равно теплится надежда, найти какое-то волшебное средство..
Но пока, в общей совокупности, трафик по этим сайтам значительно падает, от апдейта к апдейту..
спасибо, но позволю себе комментарии к некоторым утверждениям
:
1) страдают сайты у которых много-много страниц
если у сайта есть нормальная структура и не напихано в одну директорию тысячи статей, то и это не страшно. Если конечно, не сгенерировано десятки тысяч страниц без адекватной перелинковки. Разумеется, сюда же, в категорию риска относятся распухшие бложики, у которых заметки напиханы так blog.ru/page
пока да, но, возможно, мотя кац скоро будет думать иначе. http://www.youtube.com/watch?v=k15GpWfsxZU&feature=player_embedded#action=share в общем, лично я уже начал убирать неоригинальные фотки и изображения или уникализировать их, проверяя через поиск по картинке .:)
6) плохо работают большие уник статьи, например там где на 1ой странице от 10к текста и много картинок, работает хуже чем 10 страниц по 1к текста
Для Гугля так и есть, но если большая статья не структурирована, то это весьма закономерно даже для Яндекса и других ПС. Ну и кроме того, важно, как быстро она загружается.
Откровением было узнать про сайтмап, я как разработчик небольших магазинов уже устал объяснять клиентам что не стоит времени тратить на сайтмап
Тут я имел ввиду, sitemap.xml. Он добавляется в вебмастер и с его помощью при большом кол-ве страниц, очень удобно скармливать то, что нужно отправить в первую очередь. Т.е. то, что в сайтмапе робот индексирует намного быстрее, чем то, что найдет сам.
Сайтмап для юзеров, в каталогах и инет-магазах, я видел, что показывают только ссылки на основные разделы, типа того:
+ Главная
+ Продукция
__+ Велосипеды
__+ Самокаты
+ Доставка
+ Контакты
Товары не пихают. Такая карта сайта, для пс абсолютно не важна. Да и юзерам она не нужна, если на каждой странице, есть нормальная структура категорий, например в сайдбаре.
---------- Добавлено 12.07.2013 в 17:03 ----------
спасибо, но позволю себе комментарии к некоторым утверждениям
если у сайта есть нормальная структура и не напихано в одну директорию тысячи статей, то и это не страшно. Если конечно, не сгенерировано десятки тысяч страниц без адекватной перелинковки. Разумеется, сюда же, в категорию риска относятся распухшие бложики, у которых заметки напиханы так blog.ru/page
Да, ты всего скорее прав. Однако, я сейчас наблюдаю за сайтами, которые собирали траф по НЧ. А там не десятки тысяч страниц, а десятки миллионов. Примером, из СДЛ-ов которые попали, по моему мнению, так же под этот фильтр, может служить Rozetka. Если раньше гугл ей забивал первую страницу выдачи, то теперь это не так, хотя сайт и остался в топе.
И ещё, хочу заметить, что это лишь мои личные выводы, основанные на анализе сайтов интересующей меня тематики. В других тематиках и типах сайтов, все может быть по другому, хотя я думаю что и там будет все очень-очень похоже.
В любом случае, лично я еще жду пока все устаканится 🍿. Потом буду проводить более широкий анализ выдачи (тематики, кол-во текста на страницах, семантика, title, description, возраст, пузомерки, беки и еще много всего) и делать сайты под полученные из анализа результаты, только так можно добиться хоть какой-то стабильности.
А пока мне грустить не очем, за все что боялся, уже под фильтрами - значит бояться нечего. :) Пойду лучше за пивком 🍻 пятница-же..
Адалт, бурж выдача, один крупный по посещаемости сайт пережив всех панд и пингвинов сегодня шатнуло вниз конкретно как раз в районе 2-3 часов. Раскуртка естественными способами, без покупных ссылок, только естественный.
P.s. предыдущие два дня шел хороший прирост.
То же самое практически. Два дня рост, потом падение с топа на 9 страницу.
То же 9-го числа.
Раскрутка только естественными способами так же. 0 (ноль) покупных ссылок.
Вообще входящих ссылок единицы были.
Ниша: Гемблинг
Гугл - Гугл Аргентина Google.com.ar