- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В предпоследний апдейт выпало несколько сайтов.
1. На сайтах висело по паре статей уже 1,5 месяца, все сайты были в индексе. Две недели назад добавил контента. В результате сайты вылетели из индекса. Движок - wordpress. Ссылки не продавались.
Перенес один сайт на другой хостинг, пару дней назад был индексирующий робот.
2. На сайте продавались ссылки. По моему мнению, причина бана - внутренние дубли (теги, страницы авторов и др.) и необновление. Добавил robots.txt, закрыл в нем страницы меток, авторов и архивы по датам, до этого robots.txt не было. Индексирующего робота пока не было.
3. На сайте продавались ссылки. К внутренним дублям можно причислить только страницы категорий и то, что контент добавлялся в одну категорию сразу много, что могло стать причиной их сходства с индексными страницами. Добавил контента, запретил в robots.txt страницы архивов по месяцам.
4. На сайте продавались ссылки. Движок - joomla. С морды была ссылка на категорию в виде блога, то есть было дублирование, хоть и небольшое.
5. Сайты вылетели из индекса еще в ноябре. Писал Платону, в результате получил ручной бан. Последнее время заметил, что индексирующий робот часто ходит по этим сайтам. Что это значит?
Нужен совет, есть ли шанс попасть сайтам снова в индекс. Пока планирую следующее:
1. На сайтах без ссылок поставить заглушку и ждать.
2. На сайтах, где есть ссылки, кроме изменения robots.txt добавлять регулярно контент и ждать.
3. Есть еще вариант на сайтах без ссылок сделать на десяток страниц качественный сайт и написать Платону. В этом случае есть вопрос, какого рода должен быть такой сайт, чтобы успешно пройти проверку.
Тому, у кого есть реальный опыт и желание помочь, а не теоретические знания, скину урлы в личку.
Была подобная ситуация с рядом сайтов на WP:
1. Везде был уник. контент
2. после бана было добавлено куча уни. контента
3. Суппорт Яндекса ответил, что из-за особенностей движка WP бана быть не может
4. сайты так и не вернулись
А как быть с тем, что по сайтам ходит индексирующий робот?