- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Плагиат, да еще не самого лучшего качества
Не плагиат конечно, но лучше бы просто статью пульта показал, нежели своё чудовище показывать
Ну в топ 5 конечно старее сайты, но по остальным-то запросам держусь впритирочку к ним 5-6 места, да и этот был в топ5 до недавних пор :(. Интересно, что мой сателит на эту-же тему и то немного выше по этому запросу, хотя не продвигается ваще :) (Между собой они никак не пересекаются. Все разное - контакты, хостинги, движки, контент и т.д.)
А как определить пограничную спамность? А главное, как определить место этой пограничной спамности?
На практике убеждаюсь, что ловить пограничное состояние нужно на своем сайте самому, посмотреть что у конкурентов естественно стОит, но для каждого свое, и подробных закономерностей так никто и не словил. Я написал выше как это делать, при помощи такой технологии я вывел 100 процентов вылетевших сайтов, причем многие из них встали на гораздо лучшие места, чем были. У некоторых сайтов до сих пор ищу границу допустимого, и рез-ты только в плюс. Постепенно добавляя - убирая вхождения, гораздо лучше найти максимальные рез-ты по выдаче для каждого конкретного сайта, чем ориентироваться на некие средние по топу значения
Добавлю по своим наблюдениям, что порог спамности уже меняли как минимум один раз, так как два сайта, выведенные на этом пороге уже успели опрокинуться. Приходилось убирать по одному два вхождения у каждого чтобы вернуться.
с заменённой мордой на внутряк уже вроде понятно, что нужно искать порог, всё равно сравнивая с топ-10. Но вот как поступать, если морда вернулась, но позиции остались те же...
Недавно вернул обратно ВЧ, при чём сначала выползла морда обратно, позиции не вернулись. Взял текст из сниппета в выдаче, нашёл на морде... Только нашёл его в сайдбаре. То есть вхождения в основном тексте - яша не видит. Чуть перелопатил основной текст - всё вернулось, вхождения видит из основного текста, а не из сайдбара...
Веду к тому, что есть вероятность того, что яндекс может считать не всю страницу переспамленной, а лишь часть.
Когда прореживал текст, естественно следил, чтобы ключи и производные от ключей были более-менее равномерно распределены по странице. В предыдущий ап - уже было убрано где-то % 50 ключей от первоначального. Сейчас убрано еще где-то 30% (почти не осталось точного вхождения), но добавлен H1 и тайтл с прямым вхождением. Сегодняшние ночные подвижки по бэкам и залет новых страниц в индекс мной расценивается, как индексирование перед апом, ждем апа сегодня-завтра, в индексе похоже будут вчерашние странички.
Ждемс..
ЗЫ пока все эти терки - переливание из пустого в порожнее для меня. Надо смотреть результаты того, что сделано. Пока есть время я пробую найти в своей тематике сдл-ы, которых тоже покарали за спамность. Может что у них высмотрю для анализа.
В предыдущий ап - уже было убрано где-то % 50 ключей от первоначального.
Комментарий не лично к вам:).
Вот кстати есть один пример, когда оптимизатор убрал сразу слишком много, чем нужно было для его сайта вхождений. Сайт поднялся, но до прошлых позиций не вернулся. В следующий раз человек еще урезал, и естественно только опустился. Если есть время, стоит делать все аккуратно и постепенно,,, и четко понимая на сколько и где вы урезали каждый раз.
PS добавляя вхождения удалось поднять сайт из вышеописанного примера.
Еще раз повторюсь, любой сайт можно вывести из под фильтра, для этого если не получилось сделать это сразу интуитивно, не следует делать резких и необдуманных движух..:)
А как быть, если ситуация следующая:
Попал под такой фильтр, убрал портянку текста.
Но это страница объявлений о недвижимости, выводятся 16 последних объявлений, в поле "Тип объекта" оч. часто встречается "квартира". Т.о. на странице где-то 10-12 раз встречается слово "квартира".
Снимут ли фильтр, как думаете?
metasearch, это ерунда. Проблемы у 2-3 сложных ключей, а не однословиков. А вы что сайт, по ключу "квартира" продвигаете?
Касперский ругается на сайт ТС и блокирует какой-то вызываемый парнушный домен
перехожу по ссылке, указанной ТС в первом сообщение и меня редиректит на порнушные сайты...