- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Снимаем все покупные ссылки. Быстро.
Я наоборот начал активно расставлять ссылки для одного не молодого сайта, которым раньше почти не занимался, но который после 24 поднялся в выдаче. Позиции поднимаются ещё выше с каждым днём, по мере индексации ссылок.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
По логике вещей, если на сайте есть адсенс, это означает, что монетизируется он при помощи рекламы, которая не передает ссылочного веса рекламируемым сайтам. То есть не спамит Интернет и не ухудшает релевантность поисковой выдачи гугла.
Во-первых, реклама бывает не только адсенсовая.
Во-вторых, если посмотреть на остальные вопросы, упомянутые Каттсом, то видно, что они так или иначе связаны с определением новых критериев "авторитетности" сайта, и кол-во рекламы там – только часть проблемы. Что они там ещё заложили в, скажем, алгоритм определения "похожести на журнал" – фиг его знает.
Исходя из всего прочитанного в интернете и анализа своих опустившихся сайтов напрашивается единственный вывод: в новом алгоритме используется не только машинная оценка сайтов, как раньше, а так же большое влияние на выдачу стала оказывать и ручная оценка качества ресурса тестерами-модераторами.
Я всё-таки не думаю, что сайты классифицируют люди; скорее всего, тестеры просто помогают настроить алгоритмы.
По поводу того же аналитикса - у тех, кто потерял значительную часть трафа он стоял? Небольшая выборка показала, что сайты с аналитиксом полностью лишились гуглотрафа (кроме картинок), сайты с другими счетчиками лишились трафа но не полностью.
На сайтах стоит аналитикс Гугла, трафик либо на месте, либо поднимается
Я всё-таки не думаю, что сайты классифицируют люди; скорее всего, тестеры просто помогают настроить алгоритмы.
Я всё-таки думаю, что алгоритм наполняет базу сайтов для проверки по каким-то признакам (может тупо по их крутизне в выдаче или по количеству трафика), после чего тестеры проходят эту базу ставя сайтам оценки.
после чего тестеры проходят эту базу ставя сайтам оценки.
а может по поведению пользователей? у Гугла это хорошо развито.
Я всё-таки не думаю, что сайты классифицируют люди; скорее всего, тестеры просто помогают настроить алгоритмы.
Думаю так же. На блоге Google в сообщении о запуске нового алгоритма было написано, что они сравнили его результаты с результатами, полученными ими от юзеров, использовавших расширение для Chrome, позволяющее заносить сайты в black list, и совпадение оказалось 84%. То есть как-то формализовали понятие "сайт, не полезный для посетителя".
а может по поведению пользователей?
Возможно и по поведению пользователей, и по наличию на сайте большого количества реклами, и ещё по каким-то параметрам алгоритм отлавливает сайты в список сомнительных, после чего тестеры оценивают их.
В принципе, уже почти уверен в этом (что на рейтинг влияют тестеры). Сейчас интересует другой вопрос. После получения соответствующей оценки, как долго она держится? Должны же быть какие нибудь перепроверки.
На блоге Google в сообщении о запуске нового алгоритма было написано, что они сравнили его результаты с результатами, полученными ими от юзеров, использовавших расширение для Chrome, позволяющее заносить сайты в black list, и совпадение оказалось 84%. То есть как-то формализовали понятие "сайт, не полезный для посетителя".
По моему там была речь о том, что они сравнили результаты полученные от юзеров с результатами тестеров.
По моему там была речь о том, что они сравнили результаты полученные от юзеров с результатами тестеров.
10 символов
После получения соответствующей оценки, как долго она держится? Должны же быть какие нибудь перепроверки.
Это Гугл начнет понимать только со временем, когда тысячи индусов начнут "топить" сайты конкурентов (благо проксей на всех хватит).
В принципе, уже почти уверен в этом (что на рейтинг влияют тестеры). ....Должны же быть какие нибудь перепроверки.
Сколько тестеров нужно на весь Интернет? Да еще на разных языках, когда это будет не только по США? Да еще с перепроверками? Население Земли не прибывает такими темпами.