- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Так если это все из за нового фильтра.
Который если нашел не уник текст, и он понижает в выдаче полностью весь сайт.
То это является уязвимостью.
К примеру, на этом сайте или на хабре я напишу статью. Которая будет полностью взята с другого сайта, собственно будет не уником.
И гугл возьмет и понизит все эти сайты.
Разве это нормально?
Получается, что таким образом можно бороться с конкурентами.
Так если это все из за нового фильтра.
Который если нашел не уник текст, и он понижает в выдаче полностью весь сайт.
То это является уязвимостью.
К примеру, на этом сайте или на хабре я напишу статью. Которая будет полностью взята с другого сайта, собственно будет не уником.
И гугл возьмет и понизит все эти сайты.
Разве это нормально?
Получается, что таким образом можно бороться с конкурентами.
Не думаю что из-за нескольких неуник статей гугл понизит сайт в выдаче, тем более такой как серч или хабр:) Но вот если сайт целиком на копипасте, то я думаю здесь фильтр уместен и это логично, иначе чем вы отличаетесь от миллионов аналогичных сайтов?
У меня тоже траф пропал! Я думаю проблемы у них там а не у нас, скоро востановится!
Не думаю что из-за нескольких неуник статей гугл понизит сайт в выдаче, тем более такой как серч или хабр:) Но вот если сайт целиком на копипасте, то я думаю здесь фильтр уместен и это логично, иначе чем вы отличаетесь от миллионов аналогичных сайтов?
Вот именно. Я возьму напишу статью на своем сайте. А ктонить возьмет и запостит статью на хабр.
Хабру ничего не будет, а вот мой или ваш сайт пойдет лесом.
Относительно не уника. Гугл сам не уник, у него на сайтах отображается наш с вами контент.
Это не график сошел на нет, а был пик времени загрузки страницы (около 100 секунд). После него Гугл мог принять решения не выдавать в результатах такой медленный сайт...
согласен=скорость загрузки тоже фактор ранжирования☝
...скорость загрузки тоже фактор ранжирования
Тогда вопрос - как вычислить то чем гугл мерят скорость загрузки? Подозреваю, что это не Googlebot/2.1 ибо не видно, чтобы он тянул js по логам сервера...
Сайт из какого контента состоит? Откуда взят?
По теме
Matt Cutts: Google Algo Change Targets Dupe Content
http://www.webmasterworld.com/google/4259541.htm
Algorithm change launched
http://www.mattcutts.com/blog/algorithm-change-launched/
January 26 2011 Change - Back to "Zombie Traffic"
http://www.webmasterworld.com/google/4258897.htm
согласен=скорость загрузки тоже фактор ранжирования☝
Тем не менее не настолько, чтобы трафик ушёл в ноль после одного подвисания сайта. После серьёзного перебоя опустившийся в выдаче сайт возвращает позиции за два три дня. И при этом трафик какой-никакой, но есть.
И вообще, в новом году рекомендуется сконцентрироваться не на ссылочной массе, а на качестве ссылок и сниппетов. CTR - это тоже фактор ранжирования и похоже ему дали значительно больший вес.