- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт "каталог статей" с добавлением статей от вебмастеров с внешними ссылками. Все статьи проверяются на уникальность. Гугл зафильтровал сайт оставив в выдаче не больше 20 страниц, но все статьи выкинул. Как можно избавиться от фильтра?
NoRef, Статьи и сейчас уникальные или они были таковыми на момент проверки перед публикацией, а что потом стало - неизвестно?
Есть сайт "каталог статей" с добавлением статей от вебмастеров с внешними ссылками. Все статьи проверяются на уникальность. Гугл зафильтровал сайт оставив в выдаче не больше 20 страниц, но все статьи выкинул.
Как раз сейчас обновляю свою базу статейников.
Раньше я их фильтровал только по количеству стр. в яндексе, а в этот раз решил проверить, как они в гугле себя чувствуют, ну так вот – вы все дохлые, даже если и в индексе, то все равно под фильтрами.
Как можно избавиться от фильтра?
Наполнить его не генерированными в алсабе, а действительно уникальными и полезными для людей статьями.
Каталог пополняется статьями, которые размещают вебмастера. Естественно с ссылками на свои сайты. Каталог бесплатный, перед размещением лично проверяю статьи на уникальность с помощью копискейпа. Сайт делался не для сапы или миралинкса, а для развития. Просто на данном этапе нет финансовых возможностей для оплаты копирайтера.
terranodar вполне возможно что статьи уже не уникальны.
Наполнение сайта уникальными статьями без внешних ссылок сможет вывести проект из под фильтров гугла ?
NoRef, Ещё как может. По-моему он называется "ты последний".
В чём дело? Между тем, как робот индексирует статью и тем, как она появляется в выдаче проходит какое-то время. В этот временной зазор статья не будет находиться через поисковик, а следовательно будет считаться уникальной. Т.е., если я добавлю статью к себе на сайт сегодня, а в Ваш каталог завтра, то Вы её посчитаете уникальной т.к. моя статья ещё не появилась в SERP. Однако, бот зайдёт на мою статью раньше, чем на ту копию, что у Вас. В результате У меня будет приоритет авторства, а у Вас - дубль. Но выяснится это только через некоторое время.
Само по себе это не фатально, но только для хороших сайтов, которые живут и кормятся не только за счёт статей. К примеру каталогу rusarticles наличие дублей статей ничуть не мешает иметь высокий для каталогов ТИЦ и притом растущий!(на моём сайте можно в этом убедиться).
Упс... речь о гугле. Но, думаю, ситуация в общем схожа
NoRef
Упс... речь о гугле. Но, думаю, ситуация в общем схожа
Я бы так не сказал.
Из приблизительно 200 проанализированных статейников нормально индексируемых Яндексом, около 90% под фильтром или вообще не в индексе у Гугла.
Из приблизительно 200 проанализированных статейников нормально индексируемых Яндексом, около 90% под фильтром или вообще не в индексе у Гугла.
И впрямь - загадка...
Бурж. Гугл на ура "кушает" размноженные статьи, держит в индексе и выдаче + позиции растут. В РУ-ЮА Гугле проблема со статьями извечна (непонятно, почему даж при анриал % уникальности Гугл все-равно выкидывает статьи из индекса)...
kievrent добавил 22-02-2011 в 20:01
Все статьи проверяются на уникальность. Гугл зафильтровал сайт оставив в выдаче не больше 20 страниц, но все статьи выкинул.
Кста! А Вы сам каталог чем-то "прокачивали", чтобы все попадало и держалось в индексе? Сколько у Вашего каталога бэков?
И впрямь - загадка...
Бурж. Гугл на ура "кушает" размноженные статьи, держит в индексе и выдаче + позиции растут. В РУ-ЮА Гугле проблема со статьями извечна (непонятно, почему даж при анриал % уникальности Гугл все-равно выкидывает статьи из индекса)...
Думаю дело не только в авто размножении и уникальности.
К примеру те же самые нагенеренные статьи отлично живут и индексируются на фришных блогсервисах, и сами блоги никаких санкций за это не получают.
К примеру те же самые нагенеренные статьи отлично живут и индексируются на фришных блогсервисах, и сами блоги никаких санкций за это не получают.
отлично живут. Вот и думается мне, что "прокачанность" ресурса - немаловажный фактор!
kievrent, genjnat Проверил топовые каталоги по запросам "каталог статей", "белый каталог статей" из Яндекса - 80% случаев гугл фильтрует статьи. Разница страниц в индексе у Яндекса и Гугла существенна. Видимо гугл недолюбливает подобные сайты, хотя rusarticles себя прекрасно чувствует.
Ссылочного на сайт не так много: ручная регистрация в каталогах и небольшое количество ссылок с сапы, чтобы додавить запросы в топ для трафика. Но сайт молодой поэтому показатели малы ТИЦи ПР малы.
Я так понимаю варианта выхода из под фильтра 2: наращивание ПР и увеличение страниц с уник. контентом без исходящих ссылок (может у гугла есть некий рубеж для сайтов когда кол-во страниц с внешними ссылками переваливает за число страниц без них и накладывается фильтр)