- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Не для, а у всех ПС это рекомендации, тема на серче была, ищем читаем, там все раскрыто.
Можно, у вас должен быть сайт со страницами 200, все остальное 404
Например есть site.com/page.html (основная)
Где-то поставили ссылку site.com/page.html?ref=123 (на странице указана каноническая site.com/page.html и <meta name="robots" content="noindex">)
Если это ссылка dofollow, то ее поисковики как-то будут учитывать для сайта, если не индексируют эту страницу?
Воровство контента не причем. У меня, как воровали контент через 15-30 минут после публикации всю дорогу так и воруют, поэтому уникальных текстов на сайте ровно ноль.
Случилось чудо,
Поздравляю!
действительно "чудеса случаются"
Случилось чудо, фильтр сняли со старого крупного сайта, точной даты не назову, не заходил в ВМ дней 10. Сидел с меткой с 11 августа. Ничего не делал, если не считать удаленных 20 дублей еще в сентябре.
Воровство контента не причем. У меня, как воровали контент через 15-30 минут после публикации всю дорогу так и воруют, поэтому уникальных текстов на сайте ровно ноль.
действительно чудо, поздравляю.
есть у меня (наверно, наивное) предположение, что (если дело в уникальности контента), то фильтр добрался постепенно до копипастеров, выйдя в конце аналитической цепочки на ваш сайт с оригинальным контентом.
Скорее всего, этот алгоритм обучается, потихоньку обновляя эту "пирамиду заимствований", и скоро мы увидим, как массово посыпятся копипастные сайты.
Сначала была мысль что МПК за тексты которые украли, но не подтвердилось. Там нет одной причины, и поэтому их не озвучивают, но главное это мусорные страницы. Сотни мусорных страниц, тысячи, и у некоторых сотни тысяч го-на на их идеальных сайтах.
С владельцами сайтов спорить бесполезно. Они всё знают и все в белом, и никому не покажут своё гениальное творение. Можете и дальше ругать Яндекс если вам от этого легче. Я тут не доктор чтоб лечить манию величия.
да, главная причина - мусорные страницы . Особенно , если на этих мусорных страницах есть реклама рся .
На моих 5 сайтах стоял поиск . Через этот поиск идут ключевые запросы по принципу сайт.ру/moskva/q-менеджер-по-продажам/, следовательно я начинаю по данным запросам массово создавать страницы под разные запросы и регионы .
Все эти сайты влетают под фильтры .
Почему ? - Потому что возрастает кол-во страниц с формулировкой МПК и когда это кол-во максимально - блок на весь сайт.
Я пишу в поддержку и спрашиваю, почему мою страницу
сайт.ру/ivanovka/q-повар-без-опыта/ яндекс заносит под фильтр МПК,
а страницу
сайт.ру/moskva/q-менеджер-по-продажам/ нормально индексирует.
и на удивление, мне отвечают не шаблонно : На данной странице у яндекса нет запросов в Ивановке, следовательно яндекс ее исключает, т.к считает ее незначимой для себя из-за отсутствия запросов у людей . Отсюда выходит, что создав много таких запросов - я забанил весь сайт .
Но,все что, я выше написал, ломается ровно в тот момент , когда на одном из таких сайтов фильтр сняли 😀
34? а должно быть ноль)) Лень исправить?
Вы читать умеете? или лень почитать?
robots.txt и каноникал, это рекомендации, а не правило. = немерянное количество дублей
Плюс спамеры по URL, создают вам еще такое же количество дублей ( сервер отдает 200)
Нет, Владимир не лень. Просто не придавал этому значения, не думал, что они так влияют. Сейчас я эти страницы исправил конечно, пока яндекс еще информацию не обновил, в вебмастере должно быть 0 скоро.
" robots.txt и каноникал, это рекомендации, а не правило. = немерянное количество дублей " - если я закрыл пагинацию в robots.txt- это нормально и достаточно или в страницах типа ?page=2 еще прописать метатег robots с noindex?
Возможно мой вопрос покажется глупым, но можете вот про это пояснить: "Плюс спамеры по URL, создают вам еще такое же количество дублей ( сервер отдает 200) "? Пожалуйста!
Возможно мой вопрос покажется глупым, но можете вот про это пояснить: "Плюс спамеры по URL, создают вам еще такое же количество дублей ( сервер отдает 200) "? Пожалуйста!
Может вот такое имеется ввиду? Это взял из поиска Гугла. Они еще и хорошо ранжируются, хотя страница там состоит из текста, что информации по такому-то запросу не найдено.
Delhi School of Economics
http://econdse.org › s=Совместимость+по+дате+рож...
vih.org
https://vih.org › search › Совместимость по дате рож...
" robots.txt и каноникал, это рекомендации, а не правило. = немерянное количество дублей " - если я закрыл пагинацию в robots.txt- это нормально и достаточно или в страницах типа ?page=2 еще прописать метатег robots с noindex?
Возможно мой вопрос покажется глупым, но можете вот про это пояснить: "Плюс спамеры по URL, создают вам еще такое же количество дублей ( сервер отдает 200) "? Пожалуйста!
- метатег robots с noindex
- ?go=http://url-spamera Несмотря на закрытие в robots.txt, яндекс это г индесирует, а зачастую выкидывает из поиска страницу каноникал. Через время, извините исправился. Но если сайт большой, и такого спама много. Таких дублей в индексе много
То есть есть некая тема на форуме.. в которой представителя яндекса слили инфу, что теги надо убирать из поиска? но при этом яндексойды стесняются об этом написать где-то у себя в блоге и вебмастере
У вас каша в голове, читайте больше. И не валите все на стеснительность Яндекса
У вас каша в голове, читайте больше. И не валите все на стеснительность Яндекса
а может я должен контентом заниматься, а не "читать больше" про закидоны поисковых систем?
Мы, владельцы сайтов, тут сидим просто потому что не понимаем что делать и пытаемся делиться опытом с этой дуростью от Яши
Почему ? - Потому что возрастает кол-во страниц с формулировкой МПК и когда это кол-во максимально - блок на весь сайт.
Я тоже сначала так думал, но маловостребованные страницы никак не связаны с фильтром МПК. В блоге Яндекса в посте про этот фильтр платоны сами написали.