- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Ну то не создавайте потом темы, что мой мегоСДЛ попал под фильтр, ПАМАГИТЕЕЕ!111 Ок? (:
Но вот уже прошло достаточно времени и как я заметил эта манипуляция наоборот почему-то ухудшила ситуацию. Траф с гугла наоборот просел.
Что я не учел, почему такое произошло, казалось бы ПФ точно улучшились (время, просмотры)?
Думаю, уменьшилось время проводимое на продвигаемой странице. По моим наблюдениям гугл последнее время переместил "тумблер" проводимого времени (сделал больше), а "тумблер" кол. просмотра страниц сделал менее значимым.
Попробуйте задержать пользователя на нескольких продвигаемых страницах (для начала не на всех) а скачивание сделайте _blanc, возможно будет заметна разница. По моему так будет лучше для пользователей и возможно, дядя гугл поймёт и простит :)
Думаю, уменьшилось время проводимое на продвигаемой странице.
За счет чего это могло произойти? Ну так с первой странице пользователь по кнопке получается торрент-файл, а так переходит на вторую - и уже оттуда получает торрент-файл.
---------- Добавлено 06.04.2012 в 13:14 ----------
По моим наблюдениям гугл последнее время переместил "тумблер" проводимого времени (сделал больше), а "тумблер" кол. просмотра страниц сделал менее значимым.
Возможно.
Повторюсь, меня волнует 2 вопроса при этой схеме:
1. ПС видит, что имеется очень много просмотров страниц, которые почему-то закрыты от индексации, что есть неестественно.
2. Лишние ссылки на страницы, который опять таки - почему-то закрыты от индексации. Как минимум перераспределение внутреннего веса, слив его на страницы не участвующие в ранжировании, а как максимум - сам факт наличия таких ссылок.
Всё это рассуждения про коней в вакууме. Существуют десятки (если не сотни) типов ресурсов, правильные (для ПС) ПФ на которых будут отличаться кардинальнейшим образом.
И вообще, не в эту сторону нужно смотреть людям, пытающимся накрутить поведенческое и не обладающим нужными для этого ресурсами (материальной базой и мозгами, купленными на эти деньги).
ТС, а если немножко по другой логике посмотреть:
ПС отслеживает что? Правильно, поведенческие факторы...
Поведенческие факторы кого? Правильно, своих пользователей...
Поведенческие факторы своих людей где? Правильно, в своей ПС.
На сколько я понял ПС всегда исходят из правила "Отстраненности", то есть, на ваш сайт они не устанавливают никаких кодов (а-ля сапе и им подобные), счётчиков, не просят вас открыть доступ к админке, чтобы посмотреть как вы там что сделали, не просят доступы в Li, GA и т.п....
Поисковик довольствуется тем, что он имеет в открытом доступе, то есть:
1. Ваш контент.
2. Посетителей, которые проходят через его ПС.
3. Собственную аналитику, собранную в своей ПС.
Далее ПС её обрабатывает, делит на группы, анализирует, сравнивает внутри себя и при следующем обращении пользователя, при исходном запросе, показывает ему немножко другой результат... Далее опять анализирует, сравнивает и сей процесс бесконечен...
Пример: Не показывает в выдаче сайт (опускает его), на который ни разу не тыкнули в течении года, но он находится в топ1 и соответственно ему там делать нечего, потому, что на другие таки тыкают, но они в топ2,3,5, и надо их поднять, а этого из топ1 опустить...
А самое главное, что к участию в этих тараканьих бегах, среди сайтов с аналогичным контентом, отвечающему запросам пользователя, допущены лишь некоторые тараканы, которые соответствуют определенным условиям, таким как:
Не редиректят пользователя на другой сайт при попадании на него...
Имеют человекочитаемый, а не бредотекст, или нечто иное, но полезное (файлы)...
Не утыканные ссылками по самые помидоры...
Не нарушающие законодательство...
и т.д. В общем всё то, что называется фильтрами и то, за что сайт отправляется в бан, Магадан и т.п. страшные слова...
И чтобы накрутить что-то, то нужно ботов не на свой сайт гнать, а в ПС, чтобы они там выполняли что-либо...
Точна зрения лишь моя, не претендую ни на что, переубеждать меня не надо, я вообще работаю водителем и никакого отношения к SEO не имею :)
Пример: Не показывает в выдаче сайт (опускает его), на который ни разу не тыкнули в течении года, но он находится в топ1 и соответственно ему там делать нечего, потому, что на другие таки тыкают, но они в топ2,3,5, и надо их поднять, а этого из топ1 опустить...
Ну-ну...
Возьмём запрос: ПУТИН
Если сайт будет с заголовком: ПУТИН ПЕДОФИЛ СЕНСАЦИЯ!!!
То на него больше людей кликнут чем на википедию.
Но таких сайтов в ТОПе нет. Чуешь к чему говорю?
Вообщем смысл темы понятен - многие просто перекурили мануалов ПС о поведенческих факторах, истолковали всё это именно так, как и планировалось создателями этих мануалов и пытаются рассуждать о том, чего никогда не видели.
Вопрос ТСу: если ПС действительно такие супер-современные и обладают поистине уникальными алгоритмами, то почему дор-движение до сих пор живо (и лучшие его представители живут очень неплохо), а многие топы заполнены простейшими, сделанными на коленке школьниками дорвеями? По Вашим же словам выше видно, что "вычисляется это элементарно". А, как видите, не вычисляется. Эм? ;)
1. ПС видит, что имеется очень много просмотров страниц, которые почему-то закрыты от индексации, что есть неестественно.
От кого Вы их закрыли? Гугл уже давно не обращает внимание на роботс и индексирует то, что ему нужно. А вот по поводу того, сколько посетитель проводит времени на сайте и сколько просматривает страниц. Вот возьмем например такой запрос " Скачать фильм Американский пирог", человек попал на сайт, увидел ссылку на скачивание и ушел себе качать - это заняло времени максимум 10-15 секунд. Так это стоит считать плохим показатель, как по мне - то нет. Человек получил то, зачем он обратился к поиску. Или ему нужно перечитать кучу не нужной информации и закрыть кучу окошек пока он доберется к ссылке и таким образом продлит свое пребывание на сайте?
Неестественно это разве что для тс.
Сколько обсуждаются ПФ, столько жива тема о том, что глубина и время на сайте якобы являются значимыми параметрами для последующего ранжирования.
Если очень грубо обощить личное впечатление, то что лежит на поверхности, то идеальное ПФ выглядит например так: на посещаемом сайте появилась ссылка -- часть типичной аудитории того сайта перешло по ссылке -- оставили такие же ссылки в социалках, по которым тоже переходят посетители. И все эти люди жывые, кожаные со свежим мясом внутри. Вот както-то так и размерность - в тысячах...
Другими словами, от того сколько страниц прокликает юзер может быть вообще ничего не зависит, и правильно говорят, что ТС, вы копаете не туда.