- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если сайт под колпаком Яндекса ничего сложного имхо)))
Насчет влияния. Думаю есть. Ибо если сайт интересен пользователям, значит и интересен Яшке. Но не критичный фактор. Просто в сумме.
Человек может просто прокликать сразу несколько ссылок в СЕРПе, а потом уже их просматривать.
Может. Но таких можно и не учитывать. Поведение же среднестатистического пользователя может о многом сказать.
Учитывает ли это Яндекс? Точно знает только он. ИМХО - учитывает, но пока слабо, на уровне ощущений по моим наблюдениям за некоторыми СДЛ.
а еще берем пару тысяч прокси и делаем черные дела
В ПС не дураки сидят, иначе кабздец был бы контексту.
Человек может просто прокликать сразу несколько ссылок в СЕРПе, а потом уже их просматривать.
Да может, поведение человеков вообще систиматизации плохо поддается. :)
Так же как и кол-во просмотреных страниц не может являтся беспорным показателем качества сайта. Много страниц посмотрел - потому что сайт интересный или много страниц просмотрел потому что на сайте так все запутано что ничего не найдешь.
Иными словами, учитывать поведение посетителей на сайте для ранжирования, на данным момент и существующими технологиями -не целесообразно.
Хотя к этот вопрос не дает покоя разработчикам ПС, отсюда и попытки придумать "что-то такое".
а еще берем пару тысяч прокси и делаем черные дела
Учитываются только реальные провайдеровские IP:)
С другой стороны, траф можно тупо лить на сайт. И что, он сразу авторитет? Может там говно мусорное.
Посещаемость и поведение тоже нужно анализировать.
С другой стороны, траф можно тупо лить на сайт....
У рамблера был такой экспиремент "примесь" в выдаче на основании топ100.
С другой стороны, траф можно тупо лить на сайт. И что, он сразу авторитет? Может там говно мусорное.
Посещаемость и поведение тоже нужно анализировать.
Если просто лить трафф на неинтересный пользователям сайт, то моответсвенно время посещения и сёрфинг будут очень маленькие. Да и из самого поиска трафф особо не польёшь.
Может. Но таких можно и не учитывать. Поведение же среднестатистического пользователя может о многом сказать.
Учитывает ли это Яндекс? Точно знает только он. ИМХО - учитывает, но пока слабо, на уровне ощущений по моим наблюдениям за некоторыми СДЛ.
Суть темы как бы вот в чем: если Яндекс учитывает поведение посетителей на сайте, то может имеет смысл поставить на СДЛ Метрику Яндекса? Чтобы он мог все оценить и учесть. Не может ли Метрика стать помощником при продвижении СДЛ?
А ещё (слышал где-то) ОН учитывает IQ создателя сайта и немного IQ того, кто его продвигает.
Вы еще забыли добавить, что и размер имеет значение... Не несите чепухи, пост далеко не шуточный!
ИМХО, минимальный вес данный фактор имеет (в Гугле уже доказано), вполне логично, что если взять кое-какой абстрактный СЕРП, человек ввел запрос, зашел по первой ссылке - через 3сек вышел, зашел по второй - вышел через 5 сек, зашел по третей - так и остался там. Значит что-то есть на 3-м сайте, что привлекло юзера, задававшего вопрос, больше чем первые два. А
а еще берем пару тысяч прокси и делаем черные дела
Ну включите уже мозги! Представьте, что такого фактора ранжирования, как внешние ссылки нет.
Все продвигают с помощью плотности, высчитывают абстрактные коэффициенты полезности контента (для примера)... и тут бац... сообщение на форуме: "Ребята, вы слышали, собираются ранжировать сайты по количеству внешних, у кого больше, тот и в топе". Вашим языком можно было бы на это ответить: "а еще берем и покупаем пару тысяч ссылок и делаем черные дела"
Факторов сотни, как один из многих - это очень даже правильный подход, ИМХО.
Количество заходов на разные сайты по одному запросу и время нахождения на них ни о чем не говорит. Можно полчаса просматривать кучу страниц сайта и ничего там не найти, а можно зайти на первую страницу увидеть нужную информацию и закрыть сайт. При этом коэффициент полезности первого сайта - 0%, а второго - 100%.
А если речь идет о правильности употребления какого-то термина. Для этого бывает нужно открыть десяток разных сайтов. И все одинаково полезны для данной задачи.
Или еще. Нужен к примеру курс валют. Зашел к примеру на сайт центробанка - глянул и ушел. Результат - 100%. Зашел на другой сайт, где висит информер, но там куча другой информации, менее официальной - задержался, почитал. И что авторитетность сайта центрального финучреждения стала меньше?
Вопрос в том, оправдано ли такое скрупулезное изучение различных факторов для ранжирования.
И потом, любой алгоритм - всего-лишь набор нулей и единиц, а не самостоятельное мышление. Поисковая машина - робот, а не человек. Всегда можно обмануть. )