- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Так если это все из за нового фильтра.
Который если нашел не уник текст, и он понижает в выдаче полностью весь сайт.
То это является уязвимостью.
К примеру, на этом сайте или на хабре я напишу статью. Которая будет полностью взята с другого сайта, собственно будет не уником.
И гугл возьмет и понизит все эти сайты.
Разве это нормально?
Получается, что таким образом можно бороться с конкурентами.
Так если это все из за нового фильтра.
Который если нашел не уник текст, и он понижает в выдаче полностью весь сайт.
То это является уязвимостью.
К примеру, на этом сайте или на хабре я напишу статью. Которая будет полностью взята с другого сайта, собственно будет не уником.
И гугл возьмет и понизит все эти сайты.
Разве это нормально?
Получается, что таким образом можно бороться с конкурентами.
Не думаю что из-за нескольких неуник статей гугл понизит сайт в выдаче, тем более такой как серч или хабр:) Но вот если сайт целиком на копипасте, то я думаю здесь фильтр уместен и это логично, иначе чем вы отличаетесь от миллионов аналогичных сайтов?
У меня тоже траф пропал! Я думаю проблемы у них там а не у нас, скоро востановится!
Не думаю что из-за нескольких неуник статей гугл понизит сайт в выдаче, тем более такой как серч или хабр:) Но вот если сайт целиком на копипасте, то я думаю здесь фильтр уместен и это логично, иначе чем вы отличаетесь от миллионов аналогичных сайтов?
Вот именно. Я возьму напишу статью на своем сайте. А ктонить возьмет и запостит статью на хабр.
Хабру ничего не будет, а вот мой или ваш сайт пойдет лесом.
Относительно не уника. Гугл сам не уник, у него на сайтах отображается наш с вами контент.
Это не график сошел на нет, а был пик времени загрузки страницы (около 100 секунд). После него Гугл мог принять решения не выдавать в результатах такой медленный сайт...
согласен=скорость загрузки тоже фактор ранжирования☝
...скорость загрузки тоже фактор ранжирования
Тогда вопрос - как вычислить то чем гугл мерят скорость загрузки? Подозреваю, что это не Googlebot/2.1 ибо не видно, чтобы он тянул js по логам сервера...
Сайт из какого контента состоит? Откуда взят?
По теме
Matt Cutts: Google Algo Change Targets Dupe Content
http://www.webmasterworld.com/google/4259541.htm
Algorithm change launched
http://www.mattcutts.com/blog/algorithm-change-launched/
January 26 2011 Change - Back to "Zombie Traffic"
http://www.webmasterworld.com/google/4258897.htm
согласен=скорость загрузки тоже фактор ранжирования☝
Тем не менее не настолько, чтобы трафик ушёл в ноль после одного подвисания сайта. После серьёзного перебоя опустившийся в выдаче сайт возвращает позиции за два три дня. И при этом трафик какой-никакой, но есть.
И вообще, в новом году рекомендуется сконцентрироваться не на ссылочной массе, а на качестве ссылок и сниппетов. CTR - это тоже фактор ранжирования и похоже ему дали значительно больший вес.