- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте ребята.
Прошу отнестись к теме серьёзно и разобрать её детально, а то я немножко некомпетентен в том, что сделал.
Что я сделал?
Есть сайт, на котором размещены только уникальные тексты. Весь сайт очень хорошо проиндексирован. Тоесть проблем с индексацией в гугле нет. (речь в данном топике пойдёт только о гугле).
Что я сделал? Я решил снизить расходы на текст. Заказал размножение одной статьи в 2 к символов и разместил на сайте около сотки размноженных статей. (все статьи размножались из одной статьи, которая была написана копирайтером и имела уникальность в 93 процента).
На выходе из этой статьи получилось 100 текстов, которые имели уникальность от 89 до 93 процентов (до размещения).
После чего я взял все эти статьи и разместил на сайте. Буквально через 2 - 3 дня все они попали в индекс G. Затем я вновь проверил уникальность и она уже составляла от 35 до 55 процентов, что неудивительно.
p.s. кстати с размножением я сталкиваюсь впервые и меня крайне удивляет тот факт, что когда "размножатели" проверяют текст, то он у них уникальный, а вот после индексации уже нет. Ну это ладно. Ведь проверяют они его не в ПС, а между собой. Хотя тоже немного странно почему между собой он уникален, а после индексации нет.
И вот что самое интересное:
Проходит несколько дней после размещения текста. Сегодня захожу посмотреть сколько в индексе страниц и вижу на 50 страниц меньше.
И самое главное- гугл выкинул не 50 произвольных страниц, а именно те страницы, на которых текст был размножен! Причём выкинул ВСЕ! Подчастую! Я бы ещё понял если бы он выкинул часть этих текстов или оставил хотя бы одну такую страницу в индексе, но он выкинул их ВСЕ!
Короче теперь ни одной размноженной страницы в индексе гугла нет, а вот 372 оставшиеся страницы остались нетронутыми...
Кстати на размноженные странички были закуплены ссылки, часть из которых уже в индексе.
Теперь вопрос возникает - как это так? Каким боком он умудрился выкинуть именно размноженный текст, а остальной оставить нетронутым???
Может быть потому что все эти тексты были размещены в один день? Может быть так???
И есть ли шансы, что эти тексты снова вернутся в индекс G? Или шансов уже точно нет?
p.s. я просто впервые эксперементирую с размноженным текстом и мне очень интересно как что и почему. Прошу присоединиться к теме и помочь разобраться в этом вопросе.
Это вам гугл так тонко намекнул что завтра в школу
Это вам гугл так тонко намекнул что завтра в школу
Ваша репутация не даёт мне возможности адекватно оценить уровень вашей компетентности в данном вопросе.
Высокая уникальность это скорее по адвего, к примеру текст.ру я уверен покажет процентов 5-10 не больше. И самое главное - причина удаления явно с уникальностью не связано, а скорее всего гугл расценил статьи как дубли. Т.е одна статья на 50 страницах с разными урлами.
Высокая уникальность это скорее по адвего, к примеру текст.ру я уверен покажет процентов 5-10 не больше. И самое причина удаление явно с уникальностью не связано, а скорее всего гугл расценил статьи как дубли. Т.е одна статья на 50 страницах с разными урлами.
1) Не одна статья, а размноженная статья.
В некоторых местах присутствуют разные слова. Предложения тоже выстроены по разному. В общем размноженная статья:)
2) явно с уникальностью не связано - а уникальность и дубли не есть одно и то же? Дубли не бывают уникальными:)
Впрочем это всё и так понятно.
Интересует немного другое-разве такие тексты отсеиваются одним разом? Как он умудрился выкинуть сразу все не затронув остальные? И есть ли шансы на возврат этих страниц в индекс?
Хотелось бы из Вашего собственного опыта что-нибудь...
гугл молодец - а вaши размножители лохи :)
алгоритмы у гугла мощные, простой провинциальный размножитель уже давно ничего не может поделать с этим.
На выходе из этой статьи получилось 100 текстов, которые имели уникальность от 89 до 93 процентов (до размещения).
статьи, обычно, не размножают для последующей их публикации на своём сайте.
на сайте (СДЛ) должны быть только сливки (уник), а сыворотка на других ...
я бы снёс такие статьи с сайта.
вaши размножители лохи :)
Возможно:)
Хотя это был человек с SE с многочисленными положительными отзывами.
---------- Добавлено 01.09.2013 в 15:33 ----------
уже давно ничего не может поделать с этим.
Хм. Слышал и копипаст годами живёт. Тогда кто может? Хочу снизить расходы на тексты:)
Кстати почему я решил сделать размножение? Есть один конкурент в моей нише, у которого по всему сайту текст размножен. Примерно по кило текста на каждой странице, а к этому тексту добавлено 200-300 символов уника. И живёт уже ооочень долго! Всего таких страниц более 300 штук у него.
Может быть его спасают те 200-300 символов уника к каждой размноженной страничке?
Дубли не бывают уникальными
Дубли бывают явные (чистый копипаст) и неявные (присутствует техническая уникальность, а по смыслу копипаст)
Если вы допустим размножали статью про "Розовых слонов", то у вас на сайте получилось 100 статей про розовых слонов с разной степенью технической уникльностью, но идентичные по смысловому содержанию. (не явные дубли) Такие статьи не нужны не гуглу, не конечному пользователю.
Статьи размножают совершенно для других целей, а уж чтоб на своем сайте выкладывать - это тупизм
Дубли бывают явные (чистый копипаст) и неявные (присутствует техническая уникальность, а по смыслу копипаст)
Если вы допустим размножали статью про "Розовых слонов", то у вас на сайте получилось 100 статей про розовых слонов с разной степенью технической уникльностью, но идентичные по смысловому содержанию. (не явные дубли) Такие статьи не нужны не гуглу, не конечному пользователю.
Статьи размножают совершенно для других целей, а уж чтоб на своем сайте выкладывать - это тупизм
Вопрос остаётся актуальным.
Почему конкурент живёт уже больше года с такими страничками, в которых присутствие уника составляет всего 10-20 процентов?
1) Не одна статья, а размноженная статья.
В некоторых местах присутствуют разные слова. Предложения тоже выстроены по разному. В общем размноженная статья:)
Так я и говорю о том что ваши 50 статей гугл расценил как одну. Т.е вы по его мнению разместили на 50 страницах один материал. И не важно что там разные слова для него это одна статья. Проверьте свою уникальность в сервисе текст.ру там алгоритмы проверки лучше чем в адвего. И не путайте уникальность и дубли в данном кантексте так как статья у вас уникальная но расположена на 50 страницах