- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Задумался вот над чем: имеется, скажем, десять сайтов, расположенных на одном сервере. На каждом из них проиндексировано более 100 тысяч страниц, роботы ходят ежедневно. Контент на них очень похожий - все они обращаются к общей базе публикаций о закупках, но позиционируются как специализированные отраслевые порталы. Шаблоны страниц отличаются названиями сайтов: в тайтлах названия порталов повторяются на всех страницах, в шапке - тоже.
По одинаковым урлам открываются одинаковые страницы (за исключением шаблона). Сайты - не помойки, продвигаются индивидуально, тИЦ у них от 100 до 1500, парочка есть в каталоге Яндекса.
Текст на главных страницах - разный.
Вопросы:
1. Какова вероятность, что эти сайты будут склеены автоматически или вручную, какой будет выбран основным, от чего это зависит и как можно предотвратить склейку?
2. Подключаться к биржам ссылок не хочется по политическим соображениям, но вот рекламировать на этих сайтах другие сайты той же сети - вполне можно. Будет ли эффект, если, предположим, запустить эдакую собственную ссылочную кампанию, чтобы на этих сотнях тысяч страниц появился блок (полезный для людей и для поисковиков) с разными ссылками на другие сайты из этих десяти с нужными ключевыми словами (на разные страницы)? Подразумевается тот же эффект, как если бы я покупал все эти ссылки на бирже и размещал на десяти посторонних сайтах?
3. Когда поисковики проверяют айпишники сайтов и whois-информацию о владельце (это у сайтов одинаковое), чтобы добавить их все в непот-лист?