- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Согласен с вашим мнением, но вопрос в помощи "полезным сайтам" никогда не стоял. Противоречие в действиях Гугла как раз в том и состоит, что они заявляют(точнее орут) на весь мир о супер-пупер релевантнтой выдаче и о великой заботе об Интернете. На деле же, все происходит с точностью "до наоборот": после каждой "перетряски" наверх все равно вылазят абсолютно нерелевантные, если не сказать откровенно "спамовые" сайты.
На мой взгляд, все последние изменения алгоритма привели к совершенно простой методике: чем лучше становится тот или иной сайт, чем больше он набирает контента, чем больше ссылок на него ставят с других ресурсов тем сильнее Гугл старается запихнуть его вниз во что бы то ни стало, подозревая его(сайт)(естественно, не всегда безосновательно) в "половой связи" с СЕО технологиями. Но извините - на то и существуют крупные сайты, чтобы стоять в топах! Не может, ну просто не может сайт Васи Пупкина обогнать Amazon или CNN. А сейчас мы как раз и наблюдаем: вылез наверх - получи тут же веслом по морде!
В моей нише после каждой Гугловой "свистопляски" наверх вылазит такое дерьмо, что сколько не перечитывай патенты или советы "Гуглгаев" и "Гуглгаек" все равно организм отказывается воспринимать такое положение дел. 😡
просто алгоритм и грамотная реализация - две разные вещи. Пока реализация у них хреновая и многие вещи элементарно обходятся. но думаю в течении года они все таки сумеют абсолютно все воплотить в жизнь.
monstring, немного не соглашусь с вами...
некоторые из описанных технологий, требуют больших вычислительных ресурсов... которыми гугл пока не обладает...
вы не замечали как у гугла "теряется" индекс, когда они пытаются ввсести новый фильтр? а потом делают откат и т.д... ИМХО тут вопрос стоит так: или технологии или размер индекса и скорость поиска... индексом и скоростью думаю они пренебрегать не хотят... а всю "кучу" фильтров разом не тянут... и видимо ещё долго тянуть небудут...
за дерьмо - ответишь :):)
немного не соглашусь с вами...
некоторые из описанных технологий, требуют больших вычислительных ресурсов... которыми гугл пока не обладает...
а какие конкретные технологии ?
Самое сложное (имхо) в реализации было отслеживание временных изменений страниц\ линков\и прочей информации. И первые эксперименты гугл начал как раз 2 года назад в рамках борьбы с экспаедами, а сейчас вроде уже ни у кого не вызывает сомнение существование сентбокса. Все остальное из описанного вроде реализуется и просчитывается гораздо проще.
Balabass,
Sorry, я имел ввиду только свою нишу. ;)
greenwood: за дерьмо - ответишь
- :D точно кто-то говорил, что Гринвуд на этом форуме самый понятливый. :D
Шутка типа.
что есть, то есть ( потупив взгляд - скромно ) :)
потупев взглядом :)
А может просто количество хитов упало, в связи со снижением доли выплаты вебмастерам(некоторые поснимали adsense) и претряской выдачи(на верх повылазили непрофессионалы у которых CTR меньше) - вот и мощности появились ?
Это просто предположение.