- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Миф или реальность?
Есть мнение что реальность (не моё).
Миф или реальность?
Есть мнение что реальность (не моё).
Технически не представляет большой проблемы фильтрация неуникального контента при индексации, но является проблемой определение первоисточника, поэтому индексируется все.
Kislov, имхо миф.
Сначала индексируется - потом анализируется.
тоже есть такое ощущение, в основном относится к сателитам.
Без письма в саппорт похоже вообще не индексируются
Имхо
Вообще для определения первоисточника, было бы целесообразным сделать аддурелку, в которую автор добавляет текст и домен на котором это будет стоять. Это закрепилось в ПС и все, все остальные ресурсы считаются плагиатом.
Вообще для определения первоисточника, было бы целесообразным сделать аддурелку, в которую автор добавляет текст и домен на котором это будет стоять. Это закрепилось в ПС и все, все остальные ресурсы считаются плагиатом.
не все знают об эдурле. Многие делают сайты для людей и ничего не знают об оптимизации.
Так что тот, кто первый добавил, еще не значит, что он первый написал.
И представьте себе масштабы - каждый раз добавлять в Яндекс, что я написал такой-то текст. С ума ведь можно сойти - у некоторых объемы гигантские, чтобы все добавлять.
Kislov, имхо миф.
Сначала индексируется - потом анализируется.
Тоже так считаю.
Интересно как анализируется информация потом.
Есть сайт. Проиндексировали сначала, потом выпал из базы. Контент в большей степени неуник, но есть и уникальные статьи.
Тут можно письмо Платона вставить.
Если Ваш сайт недавно появился в Сети или не содержит оригинального контента,
его присутствие в результатах поиска может быть ограничено. Если на Вашем
сайте велика доля заимствованного контента, либо многие страницы сайта похожи
на созданные автоматически и не предназначенные для чтения пользователями,
сайт может отсутствовать в поиске полностью. Развивайте сайт для
пользователей, выкладывайте оригинальные материалы по теме сайта, и он
появится в поиске.
--
С уважением, Платон Щукин
Служба поддержки Яндекс.Ру
http://help.yandex.ru/
Похоже уже банят за неуникальный контент.
Причем заметил, что чем больше источников, тем сложнее яндексу определить уникальность контента. Новостные сайты с неуникальным контентом взятым из множества источников индексируются хорошо.
Миф или реальность?
Есть мнение что реальность (не моё).
Этот процес похож на склейку и технически сделать его на стадии индексаци очень сложно...Ибо теже беки бы сразу бы клеялись...
Тоже так считаю.
Интересно как анализируется информация потом.
Есть сайт. Проиндексировали сначала, потом выпал из базы. Контент в большей степени неуник, но есть и уникальные статьи.
Тут можно письмо Платона вставить.
Похоже уже банят за неуникальный контент.
Причем заметил, что чем больше источников, тем сложнее яндексу определить уникальность контента. Новостные сайты с неуникальным контентом взятым из множества источников индексируются хорошо.
Kislov, вообще это не бан, это фильтрация...
Сощественной разницы будет сайт в индексе или нет для нас нет, ибо он нам находясь под фильтром ни чего не даст...А вот для Ядекса разница есть. Зачем нагружать базу страницами которые все равно под фильтром и не участвуют в поиске?
Похоже уже банят за неуникальный контент.
Вроде как не банят, а исключают из поиска. Для понятия бана, нужен точный ответ сапорта.
Есть целая сетка по медицинской тематики(боюсь что уже была), она была создана с целью привлечения посетителей. Внешних ссылок почти не было.
Так вот с последнего времени сайты начали выпадать из базы целиком.
В течении 2х недель выпали все.
Писал в сапорт, ответили что рады что я это заметил, и постараются наладить))
Контент на сайтах 95% заимствованный, с ссылкой на первоисточник.
Поменял контент на одном из сайтов, полностью переписал.
Жду 1.5 месяца, а не индексируется. Писал опять а сапорт, ответ такой же.
А яндекс приносил львиную долю трафика.
Вот что делать никак не пойму.
В гугл не миф. В Яндексе - не знаю.
Гугл, кстати, хавает все подряд и даже не задумывается. Ему пофигу уник контент или нет. Как говорит wolf, в русском гугле ещё нет тех фильтров, которые есть в англ. Даже траффик иногда идёт на сайты с неуник контентом.