- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Ну конечно, ведь Яндекс "работает полностью автоматически".
(цитата из прежних высказываний И. Сегаловича.)
Только в автоматическом режиме:)
/ru/forum/comment/1409351
вот тебе по существу
"Ожидают оптимизаторы смены алгоритма от Яндекса?" - "Да!".
"Будут ли оптимизаторы менять алгоритмы работы" - "Да!". ☝ (Уже! ;))
Оптимизаторам – оптимизма и нос поветру!
Пессимистам – пессимизацию и продолжать бояться…
Яндекс сталкнулся с огромным количеством информацией и большой базой и им все трудней стало работать. Возникла проблема - выпадение сайтов. Но это как то их не затрагивает - если выпал сайт, то есть другие и человек всегда найдет нужную информацию. Это только для нас плохо. Будем ждать когда все устаканится, не будет глюков и будет стабильность в работе.
А мне нравилась стабильность в серепе, потому что когда мне надо было найти сайт я просто набирал слова и те сайты, на которые я заходил, были в серпе и не надо было их запоминать. А теперь придёться их в избраное добавлять.
Я уже начинаю приспосабливаться к новому алгоритму, то есть у меня уже не один сайт и так сделают многие, после этого база яндекса вырастит немерено, так что им придётся делать новую фишку чтобы всё это ранжировать.
Мне как пользователя yandex волнует не только качество ранжирования но и качество выводимых сайтов, чтобы на них было приятно посмотреть и удобно пользоваться, а после того что происходит будут вылазить сайты, которые не отличаются качеством :)
Так что из-за этого многие пользователи могут уйти в другой поисковик.
Яндекс сталкнулся с огромным количеством информацией и большой базой и им все трудней стало работать. Возникла проблема - выпадение сайтов.
А Рамблер или Апорт не столкнулись с огромным количеством информации? :)
Только в автоматическом режиме:)
/ru/forum/comment/1409351
По нашей статистике 99,5% вылетов (не бана!)- последствия неправильной настройки сервера, кривого robots.txt и другие причины, обусловленные ошибками вебмастера и хостера.
50% из оставшегося - игры с редиректами и размножением контента - в общем тоже личное дело вебмастера.
Но вот ради оставшихся 0,25% мы и мониторим руками все вылеты - ибо возможность нашей ошибки полностью исключить нельзя, и чем быстрее мы ее поправим - тем лучше.
А по поводу бана ответ простой - если мы начнем показывать бан - появится возможность его автоматически мониторить. Такой подарок дорвейщикам мы делать не будем.
Вообще у нас есть некоторые идеи по данному поводу, но если у кого-то есть, на его взгляд, ценная мысль по поводу того, что бы он хотел видеть в вебмастерской зоне - пишите в личку. Только просьба - без банальностей, и не ожидайте обязательного ответа.
Спасибо за ответ.
Нельзя ли подробнее расшифровать, что входит в понятие "размножение контента" с точки зрения Яндекса?
А если эта "пара-тройка" будет вводится поодному и с некоторым промежутком временным, то можно будет и даже не заметить этого изменения в алгоритме (утрирую) :) Т.е. как обычно, новые заморочки :)
По нашей статистике 99,5% вылетов (не бана!)- последствия неправильной настройки сервера, кривого robots.txt и другие причины, обусловленные ошибками вебмастера и хостера.
Если есть ошибки в настройках сервера, кривой роботс и т.п., то как сайт вообще попал в серп, чтобы потом оттуда вылететь?
Если есть ошибки в настройках сервера, кривой роботс и т.п., то как сайт вообще попал в серп, чтобы потом оттуда вылететь?
Значит, когда попал, всё было нормально. А потом посыпались ошибки или кто-то кривыми ручками покопался в роботсе. :)