- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вот что придумал… (Еще не видел такого, но если это велосипед, то сразу скажите.)
Часто встречаешь мнение, что неуникальность контента сильно понижает позиции в выдаче, отсюда возникла идея сыграть на этом.
Хочу написать специальный сайтовый движок, суть которого по определенному списку раз в неделю обходить сайты одной не особо конкурентной тематики, собирать данные и формировать на их основе собственные страницы. Получится такой простенький сайтик-дайджест, содержащий все статьи со всех сайтов данной тематики. Продублировать его (сайт) с небольшими изменениями дизайна и навигации в количестве около десяти. На каждой странице проверять откуда пришел посетитель и если с поисковика, то переадресовывать куда-нибудь, куда не страшно.
Этические проблемы особо не интересуют, итак ясно что это мерзко, но кто-то тут говорил что в seo, как в любви, все средства хороши.
Интересует ваше мнение: реально ли это повлияет на позиции конкурентов?..
deadcat , мне кажется, что это не стоит усилий. И на позиции конкурентов не повлияет
Т.е. неуникальность контента не влият не вес сайта?..
Мне кажется, что технически отслеживать уникальность довольно трудно, но в принципе реально, не сложнее чем зеркала искать... Странно было б со стороны поисковиков не учитывать этот параметр...
Или дублеров надо больше?.. Сто?.. Или может быть тысяча?..
deadcat, потратьте лучше время на что-нить дельное.
А смысл-то какой, если тематика не особо конкурентная - то в ней можно напрямую получить конечный результат. А если конкуренция сильная - то ее участники в состоянии будут противодействовать.
я очень сильно матюкался, когда один из моих сайтов выкачали и влепили линки на свой сайт, трафик получили жирный, но потом я написал в саппорты и все эти доры выкинули ...
Полагаю, пара миллионов вполне способна с этим справиться 😂
Ох, интерес чисто академический... Смысл в том, чтоб изучить этот эффект, обсудить меры противодействия ему...
Спасиба...
deadcat, зачем заспамлять базу поисковой системы лишними дубликатами?
Читайте Засорение индексов поисковых машин дубликатами страниц. Wolf правильно написал, только в вашем случае не идентификаторы сессий, а простые копии этого же самого. Но суть от этого не меняется.
Как зачем?.. В этом и суть -- засорить, пессимизировать, понизить, отфильтровать, подвергнуть чистке... Только не в рамках одного домена а в рамках нескольких конкурентов... Ясно дело, что это плохо... Вопрос только кому именно...
Имхо - ерунду Вы говорите.
За замусоривание ни один поисковик Вам спасибо не скажет.