- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Давай-те подумаем что делать дальше. Какова дальнейшая стратегия?
Для этого предлагаю определить тренд.
IMHO, тренд - это ужесточение фильтра на индексацию контента. Грубо этапы: фильтр за полный копи-паст - фильтр за низкую степень уникальности - фильтр за среднюю степень уникальности. Дополнительная фильтрация генерированного контента через лингвистические алгоритмы. Вектор нам указывает на необходимость максимально качественного контента.
Какова причина ужесточения фильтра? Контент в интернете прирастает сумасшедшими темпами, для того, чтобы успеть за этим (да ещё вводя сложные фильтры), необходимо пропорционально увеличивать серверные мощности - а это деньги. С деньгами сейчас в яндексе сложно (из-за кризиса директ пустеет), а остановить процесс прироста мощности - значит отстать от гугла, а это потеря рынка - верная дорожка к забвению, которой прошёл апорт и идёт рама.
Соответственно индексировать нужно то, что хочет увидеть пользователь по информационным запросам, а по коммерческим нужно усложнить продвижение - "хочешь продавать - вот тебе маркет и директ". Поэтому генерированный контент и размноженные статьи - явное зло для яндекса - сервера забивают, люди не читают, на коммерческую выдачу влияют. Думаю, что в связи с этим не долго будут жить статейные помойки, кстати, можно видеть, как выпадают seo размноженные статьи из индекса. Можно предположить, что генерированные тексты - большее зло чем ссылочные биржи - те хоть индекс практически не забивают.
Что же делать? Ответ - работать на новом качественном уровне. Это трудоёмко, а значит дорого и долго, но сейчас это переживает весь мир - расплата за перепотребление.
iSergio, красиво сказали. Поддерживаю. На нулледе, на других форумах люди постоянно скидываются на системы по автонаполнению блогов на WP, синонимайзеры, автоматические рерайтеры и прочую хруень. Конечно же инет засирается в геометрической прогрессии. Яндексу это не надо, он борется.
...
Где то проскакивала мысль о том что теперь яндекс может загонять в бан сайт на который никто не ходит. А определять он будет это по статистике кликов (из Я.вебмастер). В принципе логично.
На мой взгляд баны происходят не за что то одно, а по сумме факторов.
Что же делать? Ответ - работать на новом качественном уровне. Это трудоёмко, а значит дорого и долго, но сейчас это переживает весь мир - расплата за перепотребление.
Быстрее, выше, сильнее, лучше красивее. Блин вы что, действительно идеалист, или маленький ребенок? Не бывает на свете ни чего идеального, те же Яшины алгоритмы иногда такой фортель выкидывают.
Быстрее, выше, сильнее, лучше красивее. Блин вы что, действительно идеалист, или маленький ребенок? Не бывает на свете ни чего идеального, те же Яшины алгоритмы иногда такой фортель выкидывают.
Выкидывают, конечно, но это процесс отладки и совершенствования, где ошибки бывают, но вероятность их появления всё убывает. Лес рубят - щепки летят. В целом, глупо не видеть очевидного - нечеловеческие тексты (я бы даже сказал - антигуманные :)) будут фильтроваться всё сильнее, а на человеческие нужно тратить ресурсы.
Выкидывают, конечно, но это процесс отладки и совершенствования, где ошибки бывают, но вероятность их появления всё убывает. Лес рубят - щепки летят. В целом, глупо не видеть очевидного - нечеловеческие тексты (я бы даже сказал - антигуманные :)) будут фильтроваться всё сильнее, а на человеческие нужно тратить ресурсы.
То, что борьба с копипастом идет это очевидно. Но вот вопрос, поможет ли это? Что-то гугль не сильно с копипастом борется, и даже на стук, о том, что мой сайт скопирован, вам ответят, мы лишь зеркало интернета. А яндекс решил резко цензором заделаться, вот и получает большую кучу говноконтента, и теперь начинает банить кучу ни в чем не повинных сайтов.