- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Слышал, что в связи с новыми алгоритмами Яндекса, будут удаляться дубли страниц. Дубли это как я понимаю - абсолютно одинаковые страницы. АГС кажется фильтр.
Есть такой вопрос - если на сайте будет 50 страниц, и в них только 2 слова в тексте отличаются друг от друга, будут ли это дубли?
Дело в том, что это 50 страниц краски для волос, и различия только в цвете краски. А скажем рерайтить 50 раз один текст, это сложно.
Да, и если всё же эти 50 страниц не войдут в индекс, скажется ли это как-то на всём сайте вцелом?
я думаю есть какой нибудь процент совпадения....
в вашем случае это дубли.
если на сайте будет 50 страниц
Как я понимаю, ваш сайт еще не в индексе ? В этом случае лучше
рерайтить 50 раз один текст
, поскольку можно даже в бан попасть. Дело в том, что сайт с таким содержанием по факту (для Яндекса) ГС ("ваш сайт не представляет интереса для пользователей").
я думаю есть какой нибудь процент совпадения....
В идеале это 0 - 1 %, не больше, (с риском: 20 - 30 %). С другой стороны, много магазинов живут в индексе с одинаковыми описаниями товаров, но я бы не стал рисковать.
Да уж, насоветовали. Если б так было на самом деле, все ИМ с однотипными товарами были бы зафильтрованы.
Не будет никаких проблем, при условии что сайт реальный, а не ГС созданный 2 дня назад и без входящих ссылок.
Даже если вдруг случайно попадет под фильтр, по письму платону его снимут.
Вот в том то и проблема, что он только что проиндексирован. Ссылок 580 с одного сайта, там сквозная.
Ладно, буду что-нибудь писать. Всем спасибо!