Keal

Keal
Рейтинг
129
Регистрация
24.05.2007

Удалять ничего не нужно, нужно улучшать контент либо делать редирект - так говорят официальные головы гугла.

А если разобраться по логике, то:

Если статейник и есть старые плохие статьи (без фоток, мало контента, переспам) на определенную тему, а также есть свежая хорошая статья на эту тему, то лучше поставить 301-ый редирект на новую "хорошую" статью.

Удалять из выдачи (noindex или каноникл) нужно те страницы, которые потенциально могут быть явными или неявными дублями: страницы для печати, пагинация, фильтры, сортировки т.д. Но тут тоже нюанс, иногда страницы пагинации могут приносить довольно ощутимый трафик.

Статья с очень малым трафиком может быть не потому, что она плохая, а потому что она написана настолько на узкую тему, что спрос по этим ключам единичный, при этом по этим супер-НЧ ключам статья может быть в топе, а значит может быть полезна читающим, несмотря на то, что читающих всего пару-тройку посетителей в месяц.

Так что трафик это не показатель и всё зависит от запроса или тематики статьи.

Бывает, конечно, исключения, когда малоизвестная фирма из Мухосранска пишет новость (в 2 предложения) о том, что у них открылся второй офис в этом же Мухосранске. Ни фоток офиса, ни какой-то подробной и полезной инфы для потенциальных клиентов, а просто два невнятных предложения. В таком случае, если заказчик говорит: "Мы не будем удалять, мы ведь потратили время на эти 2 строчки", то тут нужно либо такое закрывать в noindex, либо слать лесом такого заказчика и работать с адекватными людьми.

А убирать из индекса такое нужно потому, что Google (точнее Google Panda) это алгоритм и он не знает насколько полезна информация в 2 строчки о вашем офисе, но когда таких страниц оч. большое количество на сайте, то алгоритм (возможно и по ошибке, этого не избежать), опускает сайт потому, что алгоритму показалось, что это подозрительно и возможно мы имеем дело с плохим сайтом. Раньше Google называл такие страницы как "thin content", в переводе "скудный контент", и если на сайте таких страниц подавляющее большинство, то сайт попадает под Google Panda (или Google Fred, более обновленный, непонятный и жесткий алгоритм).

Go2Daddy:
Мне кажется, что это, могу ошибаться, из разряда "клоакинга". Создаете контент специально под ПС, который не виден пользователю.

Google не знает, виден ли блок пользователю или нет. Может быть по клику по какой-нибудь кнопке, или по нажатию чего-нибудь на клавиатуре, этот блок становится видимым, да так что на всю страницу. Давно уже ушла эра неинтерактивных сайтов, в которых всё что находится в html коде, видно пользователям на странице. Ведь на большинстве современных сайтах блок с выбором города изначально не виден пользователю и только по клику всплывает popup со списком всех городов и регионов.

Если в блоке нет ничего подозрительного (ссылки на казиношные и адалт-сайты), то ничего не будет.

Другое дело, если это делается для передачи ссылочного веса, то возможно гугл отслеживает переходы по этим ссылкам, а так как блок скрыт (0px) и никак интерактивно не раскрывается, то переходов по ссылкам не будет совсем, а значит, возможно, и вес будет передаваться минимальный.

Тут остается только догадываться отслеживает ли гугл переходы внутри сайта и ведет ли по ним какую-то статистику для усиления/уменьшения передачи веса по ним.

По идее это очень затратно по ресурсам, но никто не знает.

Клоакинг это когда гуглботу в коде показывается одно, а пользователю (в коде и не в коде) показывается другое. Причем это "другое" должно очень сильно отличаться от того, что показывается боту, чтобы прилетело наказание.

alacka:
минусинск - в гугле ?

Разумеется речь не про гугл, но ведь мы должны продвигать под обе поисковые системы.

Нет никаких правил. Просто если мы говорим о естественных ссылках, то чаще всего люди помнят домен, но не помнят какой-то конкретный URL. Поэтому естественным образом получается, что сайт получает безанкорные ссылки именно на главную.

А вот если взять естественные анкорные ссылки (которые проставляют, как правило в блогах), то анкорные ссылки чаще ведут на внутренние страницы, чем на главные.

_alex__:
Купил дроп с хорошей и разнообразной ссылочной массой за исключением одного домена,
на котором стоит сквозная ссылка. webmaster tools показывает более 300к ссылок с этого домена.
Есть ли смысл в гугле делать запрос в link disallow ?

Нет смысла

Bill_geits:

Стал мониторить проблему, как понял ситуация распространенная, но решения не нашел.
Подскажите , как можно исправить?

Да никак. Не стоит переживать по этому поводу. Вы же не можете в robots на домене метрики это поправить.

Unlock:
Насколько я заметил, обычно слив полный идет на вопрос - где такие сайты... И чтобы ТОП был хоть по сколько то серьезному запросу.
Сколько можно эти байки гнать?

Плюсую.

Тоже хочу посмотреть "крутые" сайты, с крутым контентом и юзабилити (поведенческими), которые вошли в топ, де без ссылок?

Регион/запрос/сайт интересует.

Апокалипсис:
Много лет работаю с сайтами. Главное: время на сайте и глубина просмотра. Например не стоит делать бездумную перелинковку внутри статьи, лучше сделать грамотный подбор внизу статьи, нужна хорошая мобильная оптимизация, различные сервисы на сайте. Ну и сайт должен быть для людей :)

А можете показать скриншот метрики, где видно, что поведенческие факторы увеличились? Сам сайт палить, понятное дело, не нужно.

Просто скриншот мол вот так было плохо, в такую-то дату применили правки, вот так стало хорошо.

Я так понял, раз у вас выросло именно в этот апдейт, значит какие-то правки были применены относительно недавно.

Forge:
умолчу о таких показателях, как глубина просмотров, время

А глубина просмотров и время это хорошо или плохо?

Может быть сайт неудобный, поэтому, в поисках нужного, прокликивают много чего лишнего, отсюда и глубина просмотров большая?

Тоже самое с временем, может сайт медленно грузится и надо подождать. И если бы он грузился быстрее, то и пользовательские задачи решались бы быстрее? Не думали об этом? Задумайтесь)

Апокалипсис:
malavar, Alex-PSHen, Alex-PSHen, ideaman, ssochi.com,

Тут все очень просто же: делайте интересный сайт, с уникальным контентом, хорошим дизайном и удобным юзабилити. Ничего крутить не нужно. Если сайт плохой ну накрутите вы ему ПФ, выстрелят запросы, но потом снова уйдут вниз т.к. отказы и глубина просмотра будут никакие.

А если уже есть "интересный сайт, с уникальным контентом, хорошим дизайном и удобным юзабилити", как увеличить поведенческие?

И как вы поняли что ваш дизайн хороший, а юзабилити удобное? Проводили какое-то тестирование?

Всего: 479