borisd

Рейтинг
262
Регистрация
13.02.2008
Albatron:
Скорее всего банальное аффилирование и соответствующий фильтр, если контент совпадает по смысло чуть менее чем полностью.

Типа того, только касается это только сайтов, которые ранее плотно оккупировали ТОП3 и которые и сейчас претендуют на ТОП1. Все остальные сайты в топе контентно-аффилированны не меньше, но их это не касается. У некоторых представлена расширенная информация (тупо скопипащены отрывки из книг - я так не рискую), но у меня тоже с недавнего времени представлена расширенная информация - не помогает.

---------- Добавлено 04.08.2016 в 01:08 ----------

oldi:
А крупняк, который раньше висел в топе 3-5, швыряет на дно топ-10, или вообще на 2-3 страницу выдачи

В моих наблюдениях топовые сайты не понижаются в выдаче, а выкидываются из неё. Получается негустой выбор: либо ТОП1, либо нафиг с пляжа. В итоге по половине запросов сайт в ТОП1-3, а по другой половине вообще в выдаче отсутсвует.

Candidate:
Как будто бы нас всех подталкивают плодить новые и новые сайты...

У меня тоже возникали мысли на основе базы старого сайта наплодить несколько простых новеньких, хорошо оптимизированных...

---------- Добавлено 03.08.2016 в 23:46 ----------

Candidate, а у вас насколько сильно трафик с гугла просел? И когда и с какими темпами начал проседать? У меня тенденция проседания началась с января сего года, понижение шло очень медленно и плавно, без резких скачков. В итоге трафик просел вдвое по сравнению с прошлым годом. Конечно, это тоже неплохо (не все же топы занимать), но как то странно наблюдать себя по конкурентным запросам - или в ТОП1 или вообще никак - в соплях.

Я провёл некоторые мероприятия - по возможности уменьшил вхождение ключевых слов на страницах, изменил на некоторых страницах по разному тайтлы и пр. для теста, но пока никакого улучшения на тестовых страницах не наблюдаю. Да и количество ключей у середнячков и новичков в топе значительно выше моего, они вообще над этим похоже не задумываются. Может быть связано с большим количеством внешних ссылок? У меня их более ста тысяч, они все абсолютно естественные, покупных вообще нет, но кто знает, как алгоритмы гугла на них реагируют... На конкурента вообще миллионы естественных бэков, и он тоже по некоторым запросам (правда реже, чем мой) в такой же ситуации.

SLanovY:
Подскажите, по вашему опыту когда нормально начинает идти трафик?

Несколько лет назад у меня на сайт трафик через несколько часов пошел с быстророботов гугла и яндекса. Через несколько дней посещаемость была уже несколько тысяч человек в сутки. Но это был уникальный сервис в востребованной новой актуальной теме и вообще без конкурентов (они не успевали). А потом на меня легонько наехали, посыпались угрозы и я от греха подальше проект закрыл. Сейчас понимаю, что по большей части был блеф, но там были и другие причины в технологической плоскости - для серьезного развития потребовались бы серьезные ресурсы, что сводило бы на нет доходность (те же деньги можно было бы заработать проще).

А запрет к индексации джаваскрипта и соответственно текста ссылки может повлиять на позиции сайта или вряд ли? Стоит ли разрешить индексацию текста ссылки или не стоит?

Fessen:
Но она оптимизирована под сч, в который входит нужный вч

Т.е. эта "не та" страница близко связана непосредственно с "той" страницей и расширяет её? Если бы речь касалась Яндекса, то с учетом ПФ может быть и был бы смысл направлять всех или часть пользователей на "не ту" страницу. Но алгоритмы Гугла значительно примитивней, хотя проанализировав структуру сайта он тоже мог посчитать "не ту" страницу более релевантной. Может быть на "не ту" страницу ссылка с авторитетного ресурса стоит?

Но я на очень крупных авторитетных сайтах в последние месяцы часто наблюдаю аналогичную ситуацию, но кроме как примитивностью и прямолинейностью алгоритмов объяснить ее не могу - это очевидная ошибка. На эти сайты сотни тысяч абсолютно естественных ссылок и если гугло-алгоритмы видят там переоптимизацию (причем в дорах он переоптимизацию не видит), то это говорит о его несовершенстве.

silverman_oleg, не нужен вам сеошник. А я бы и на копирайт (который никто из посетителей не читает) деньги не выкидывал. Нормальным маркетингом лучше заняться. А из классического сео достаточно ограничится тщательной проработкой структуры сайта и настройкой движка (скорость, исправление проблем с индексацией и т.д.).

Frelly, Посмотрите, какое время и на что именно приходится на загрузку в инспекторе хрома например. Маленький скрипт js и файл стилей в сжатом виде я бы оставил в шапке. Но только по одному файлу. Вызов тяжелых библиотек лучше убрать в конец страницы. Например, jquery весом 100 КБ на смартфоне с gprs может грузиться десятки секунд. Правда после он закешируется, но всё же. Я в итоге на высокопосещаемом проекте вообще от jquery отказался. Теперь даже когда кончается лимит на мегафоне и скорость падает до 64 кбит/сек, то страницы в смартфоне всё равно субъективно открываются за пару секунд.

aleksandrbol:
Тут люди не знают что делать, когда у них процент отказов 8%, а вы про 40% говорите.

Процент отказов - это один из самых бессмысленных показателей. Считать, что чем меньше, тем лучше? Глупость это очевидная ведь в общем случае. Например, я хочу узнать свой ip, ввожу запрос "мой ip" и сразу получаю мой ip и покидаю страницу. Процент отказов 100%. В другом случае мне надо будет пройти несколько разделов, ввести в форму свой ip, получить результат, что растянется на пару минут. Процент отказов будет 0%. Но какой вариант предпочтительней для посетителя? Очевидно первый, где процент отказов зашкаливает. Не знаю как в Гугле, но в Яндексе это понимают.

smirnovsxe:
Написал им письмо с просьбой подтвердить авторство

Вот зачем нарываться? Никто вам не обязан ничего подтверждать. Но скорей всего они сами фотки делали и претензии к вам из-за фоток. если это так, то минимальная сумма иска к вам будет 20000 * 600 = 12000000 (т.е. 12 миллионов) рублей.

Hatano:
У меня тут практически прямая зависимость.

В вашей конкретной тематике и на вашем конкретном сайте может быть что угодно в некоторых пределах. Но никто сейчас в поисковиках не придумывает правила - такие то значения таких-то параметров - это хорошо, а такие-то - плохо.

Всего: 2244