- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
По моей информации, Яндекс не заказывал в АиП каке-либо программные модули для фильтрации выдачи. И, соответственно, не может их использовать для наложения фильтров.
Теперь намного понятней. Спасибо за ответ.
Тем более, она имеет заметную погрешность (60%), и использовать её для наложения фильтров не очень правильно.
Технологию с такой погрешностью использовать в фильтрах - самоубийство.
У меня тут один экспериментальный сайтик попал как раз под этот фильтр. Т.к. сайтик небольшой, раскручивался через ксапу (почти каждая страница), то теперь трафик с Яндекса почти равен нулю, даже меньше, чем был до постановки ссылок.
По всем запросам сайт на последних местах, а точнее почти всегда в дополнительных результатах ("Из результатов поиска исключены слишком похожие страницы. Показать все без исключения"). При чем по уникальному слову из названия сайта он тоже теперь на последнем месте, хотя до появления сайта такого слова в базе Яндекса не было и перед ним стоят в результатах несколько сайтов, на которые попало название моего сайта.
Думаю, все дело в неуникальном контенте. Т.к. это экспериментальный сайт, контент я сейчас быстро перепишу, хоть это и займет несколько дней.
Вопрос к коллегам: бывало ли так, что сайт попадает под такой фильтр не за дублированный контент, а только за "мусорные беклинки" или за большое количество исходящих с сайта ссылок (например, каталога ссылок)?
XTR, даю грамм пищи для размышления - не один фактор влияет на попадание сайта как под этот фильтр, так и под другие.
У меня тут один экспериментальный сайтик попал как раз под этот фильтр. Т.к. сайтик небольшой, раскручивался через ксапу (почти каждая страница), то теперь трафик с Яндекса почти равен нулю, даже меньше, чем был до постановки ссылок.
По всем запросам сайт на последних местах, а точнее почти всегда в дополнительных результатах ("Из результатов поиска исключены слишком похожие страницы. Показать все без исключения"). При чем по уникальному слову из названия сайта он тоже теперь на последнем месте, хотя до появления сайта такого слова в базе Яндекса не было и перед ним стоят в результатах несколько сайтов, на которые попало название моего сайта.
Думаю, все дело в неуникальном контенте. Т.к. это экспериментальный сайт, контент я сейчас быстро перепишу, хоть это и займет несколько дней.
Вопрос к коллегам: бывало ли так, что сайт попадает под такой фильтр не за дублированный контент, а только за "мусорные беклинки" или за большое количество исходящих с сайта ссылок (например, каталога ссылок)?
почти 300 уникальных статей, каждый день добавляю еще страницы тоже уник. на сайте быстробот съедает новые страницы.
ссылки только с сапы. Платон говорит чтобы я развивал сайт.
симптомы: по титлу не могу найти, или если нашел то в попе...как у всех короче.
хотя бы рамблер радует
XTR, даю еще пищу - такое бывает (второй случай, причем даже если внешних линков давно нет). А кто верит в "карму" сайта без понятия причин - тот дурак и шаман. И далеко не оптимизатор.
Вопрос к коллегам: бывало ли так, что сайт попадает под такой фильтр не за дублированный контент, а только за "мусорные беклинки" или за большое количество исходящих с сайта ссылок (например, каталога ссылок)?
За "мусорные беклинки" -нет, ибо это внешний фактор.
За большое количество исходящих с сайта ссылок может. Были прицеденты, но здесь еще плюс к этому играет роль совокупность несколько факторов, а не только количество исходящих ссылок.
Ceres, очень замечательная пища, но это и так понятно.
Miha Kuzmin, ты хочешь сказать, что за "мусорные беклинки" (МБ) сайт может попасть под фильр, я верно понял? У меня вызывает сомнение это.
Kolhoznik, т.е. сайт реально с уникальным контентом, раскручен через sape и под этим фильтром? Я бы на такое посмотрел, если честно (т.е. намекаю, что хотел бы урл в личку :) )
Непонятно одно, сайт жил месяца два в таком состоянии, но тут резко пошел под фильтр. Яндекс два месяца обрабатывал страницы этим фильтром? ;)
XTR, у меня тоже, но видимо такова селява. Фигово то, что проверить сейчас нельзя - ходит все туда-сюда.
XTR, у меня тоже, но видимо такова селява. Фигово то, что проверить сейчас нельзя - ходит все туда-сюда.
А я думаю, что проверить все-таки можно. Я за несколько дней обновлю контент, сделаю его уникальным и посмотрим, что из этого получится. Впрочем, гарантировать на 100% то, что сайт вышел (если выйдет) из под фильтра благодаря модификации контента нельзя.
Возможно, такой фильтр беклинков срабатывает только тогда, когда бОльшая часть страниц продвигается МБ и контент дублированный.