- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Я этот сайт проверял 1 минуту (не весь). Чтоб понять что там пзц с дублями хватило. Яндекс виноват 🤔.
Скриншот из вебмастера, всего 34 заголовка дублируется, что составляет 0% от всего проекта. И те уже поправлены. Дублирующиеся заголовки у пагинации все равно не в индексе, т.к. там canonical на первую всегда, а остальные как неканонические исключены. Поэтому кроме этих 34 страниц которые были, дублей в поиске Яндекса нет. SiteAnalyser конечно их найдет, т.к. они не были закрыты явно в robots.txt (ну для проформы закрыл и там сейчас)
подтверждаю!
куча у меня ГС сайтов. ну есть в них необходимость.
ни одного фильтра на них нету.
а сайты, крутейшие, сложные, миллионы страниц в индексе гугла и яндекса, которые реально посещаются людьми, вновь и вновь, под МПК, сео-тексты, запросный спам.
я утверждаю и говорил неоднократно, алгоритмы эти санкционные разрабатываются умственно отсталыми. не спорю, кто Алису программировал, крутые ребята из Яндекса, а вот те, кто сайты анализирует на предмет каких то несоответствий ведениям яндекса о качественном сайте, натуральные слабоумные.
Это так и есть.
Написала на днях второе письмо (на первое ответили стандартно).
Пришел ответ, что оказывается теперь сайт еще "грешен" и в (цитата):
"Наши алгоритмы проверили ваш сайт — сейчас он не соответствует нашим критериям качества. У сайтов с оригинальным и интересным для пользователей контентом выше шанс попасть на первые страницы выдачи. А ресурсы, которые пытаются обойти поисковые алгоритмы или ввести пользователей в заблуждение, — попадают под ограничения."
Хотя речь была не о первых позициях в поиске, а о восстановлении в поисковой выдаче, потому ее вообще срезали, посещалка осталась процентов 8-10 от момента, когда повесили метку в сентябре. Это на сайте, где авторские тексты... и которые годами имели хорошую посещаемость и востребованность.
Теперь оказывается сайт пытается обойти поиск и вводит пользователей в заблуждение. Где именно и каким образом? (цитата из письма) - " Оцените свой сайт со стороны пользователя и проведите анализ конкурентов. Это поможет выявить нарушения, исправить их и улучшить позиции в поиске."
Это они так выискивают нарушения...
Слов нет. Это монополия со стороны яндекса. Ломать - не строить
Оцените свой сайт со стороны пользователя и проведите анализ конкурентов
они пишут полнейший бред в ответ на запросы в службу поддержки...
а еще они лгут, лгут и лгут...
яндекс.поиск очень НЕЧЕСТНЫЕ ребята...
У меня весь контент собственный, уникальный. Фильтра МПК не прилетало, к счастью. Зато у знакомого сайт со стихами, и ему прилетело. Хотя Яндекс подобный контент указывал в справке как исключение. Ведь не будет же автор статей рерайтить стихи Пушкина, чтобы не словить фильтр.
Но в итоге знакомый подал заявку на перепроверку и ему сняли фильтр. Так что норм.
Скриншот из вебмастера, всего 34 заголовка дублируется, что составляет 0% от всего проекта. И те уже поправлены. Дублирующиеся заголовки у пагинации все равно не в индексе, т.к. там canonical на первую всегда, а остальные как неканонические исключены. Поэтому кроме этих 34 страниц которые были, дублей в поиске Яндекса нет. SiteAnalyser конечно их найдет, т.к. они не были закрыты явно в robots.txt (ну для проформы закрыл и там сейчас)
миллионы страниц
Миллионы страниц качественно создать невозможно. Жизни не хватит.
Поэтому кроме этих 34 страниц которые были, дублей в поиске Яндекса нет. SiteAnalyser конечно их найдет, т.к. они не были закрыты явно в robots.txt (ну для проформы закрыл и там сейчас)
Вы читать умеете? или лень почитать?
robots.txt и каноникал, это рекомендации, а не правило. = немерянное количество дублей
Плюс спамеры по URL, создают вам еще такое же количество дублей ( сервер отдает 200)
Миллионы страниц качественно создать невозможно. Жизни не хватит.
34? а должно быть ноль)) Лень исправить?
ладно когда 34, а когда 4к ?
Причем какая-то часть уже давно отдает 404, но Яше как-то лень обновлять свои данные
Ок, мне не лень, я по 500 штук их удаляю через форму. То есть я (а не автоматизированная система в Яндексе) должен сидеть и вручную делать их работу. Сколько это дней - 8 дней, чтобы удалить 4к статей
А еще куча тем форумов с одинаковыми названиями. Ну представляете, какая это интересная задача 200 или 500 тем сидеть и переименовывать, чтобы что? чтобы Яше было удобней? а что, он само по содержанию не может определить
Или вот, на скрине. Что это за 172к редиректа? ну допустим когда-то было 172к статей у которых каноникал был иным. Но сейчас этих страниц нет. Но
А вот "неканоническая" это вот действительное кол-во страниц - порядка 22к. У них урл в cms типа node/id, а каноникал - ЧПУ. и 20к статей и выдают 20к нон каноникал. И это нормально. А вот 172 к редиректов это кажется Яша накопил данных за всю историю сайт со времен Неолита
с чего вот взялась такая гипотеза, что МПК вешают из-за дублей страниц? шепнул Платон Щукин что ли? Если бы это была причина, так бы Яндексоиды и писали бы - поправьте дубли страниц, а не играли в угадай-мелодию
robots.txt и каноникал, это рекомендации, а не правило. = немерянное количество дублей
У сайта структура - рубрики, страницы и теги. Причем это базовая структура многих сайтов и до недавнего времени это все было абсолютно нормально.
Теперь вдруг по мнению яндекса это все стало плохо плохо и жуткими дублями.
Пришлось позакрывать через роботс, каноникал и метатеги большую часть структуры сайта (а то же облако тегов было накоплено за несколько лет очень большим и многие посетители этим пользовались).
"это рекомендации, а не правило." - для яндекса это рекомендации? Ну если и это всего лишь рекомендации - то это означает - что вообще никакой сайт нельзя сделать правильным (по мнению яндекса), ну разве что кроме примитивного лендинга.