- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые гуру.
У меня опять появился вопросик.
Но сначала маленькая предыстория. Есть у меня варез-портальчик на DLE. Журналисты каждый день добавляют порядка 300-400 новостей. Так как меня утомило заниматься ручной модерацией, написал я тут себе в помощь модуль. На данный момент он (модуль) может "просматривать" базу новостей и искать одинаковые заголовки, выводя потом это все в удобном для удаления виде. Естественно 90% новостей с одинаковым заголовком, имеют и одинаковый текст описания. Буквально сегодня я прилепил к модулю функцию для проверки индексации отобранных (по одинаковому заголовку) новостей, что бы знать, какие из них удалять. Но был сильно удивлен, так как практически все эти новости находятся в индексе Яши. Еще раз повторюсь. У них ОДИНАКОВЫЕ заголовки и ОДИНАКОВОЕ описание.
Собственно сам вопросик. Имеет ли смысл удалять дубли если они вошли в индекс ?
Сайт используется исключительно под сапу и, естественно, я ратую за максимальное кол-во страниц в индексе. Поэтому просто тупо удалять не хочется =)
Дублирование контента увеличивает шанс под АГС попасть. Для вареза это актуально.
Поэтому нужно оценить масштабы дублирования...если это небольшой процент от всего контента (особенно если остальной контент уникальный), то ничего страшного нет - не стоит замарачиваться.
Я рекомендовал бы убирать дубли... Все таки есть шанс попасть под АГС.
Я тоже склоняюсь к тому, что дубли нужно удалять, но если это относительно малое количество документов, тогда можно оставить все так как есть и получать доп. доход с сапы.
Переставить абзацы текста, разбавить описание, отрерайтить немного, добавить элементов и плотнее трамбовать в сапе :-)
Я также склоняюсь к мысли, что дубли надо удалить.
Переставить абзацы текста, разбавить описание, отрерайтить немного, добавить элементов и плотнее трамбовать в сапе :-)
Вы хоть представляете сколько для этого надо времени и сил? ТС написал в день добавляю 300-400 новостей, представьте сколько надо времени что бы все это обработать как Вы предлагаете🚬
ИМХО, по мне лучше удалить дубли и лишится половины заработка с сапы, чем попасть под АГС и потерять заработок вообще.
Если дубли, это одинаковые тексты с разными адресами, то до АГС будет понижение в выдаче Яндекса.
Еще раз приведу ссылку.
http://forum.gt-e.ru/blog.php?u=63&b=3
Причина появления дублей другая, но результат понижения четко зафиксирован.
Вы хоть представляете сколько для этого надо времени и сил? ТС написал в день добавляю 300-400 новостей, представьте сколько надо времени что бы все это обработать как Вы предлагаете.
3-4 минуты на рерайт, ну ещё пару часов на раскидывание: Запихну текст в рерайтер, поставлю на низкий уровень, чтобы читабельность не упала, нажму плэй. Зато это 300-400 страниц, а как написал ТС сайт у него "исключительно под сапу".
Я же не настаиваю, мне все равно, я мимо проходил 🚬