Тут можете посмотреть мой анализ:
/ru/forum/comment/10371765
Остальные картинки:
Зачем гадать, когда можно проанализировать?
Отобрал интересные для анализа сайты:
1. Форум. Почти все ссылки безанкорные.
2. Посещаемый специализированный сайт. Ссылки разных типов. Большая часть Sape, часть естественных.
3. Ссылки и контент аналогичны второму. ПФ чуть хуже. Юзабилити намного хуже.
4. Специализированный сайт. 100% копирайт. Закупается в Adwords. Ссылки Sape, но в блоках и с говносайтов.
5. Сгенеренный говносайт. Ссылки - немного Sape и немного естественных.
6. Копипаст. Ссылки - только перекрестный обмен и естественные.
7. 100% копирайт. Ссылки - только Sape.
8. Разный контент. Ссылки - в основном Sape и естественные.
Выводы:
1. Контент не имеет значения
2. ПФ не имеют значения
3. Adwords не имеет значения
4. Перекрестный обмен не вредит. Возможно даже немного помогает.
5. Нормальные ссылки Sape не в блоках и с нормальных сайтов не вредят. Возможно даже немного помогают.
6. Ссылки с блоков в Sape влияют отрицательно.
7. Ссылки с говносайтов влияют отрицательно.
Что влияет явно положительно, пока не нашел :) Похоже, что просто перераспределили траф от опущенных сайтов.
На всякий случай уточню, что я намного больше сайтов проанализировал, просто не стал на всё скрины делать. Ситуация такая же.
За неуник фото - врядли.
За неуник и отсутствие контента в подписях - запросто.
Это всё ля-ля, для форумов домохозяек.
А для нас у "обладателей лицензий" нет ни внятных партнерских программ, ни условий распространения, и даже часто самого "онлайного" товара нет.
Если смогут осилить, тогда будет эра всего лицензионного. Пока же и говорить не о чем.
Cell как всегда на профессиональной высоте 😂
Им конкретный магазин по барабану. А вот написать какой-то общий алгоритмик для всех магазинов сразу, они очень даже могут. И Платонов проинструктировать :)
Вы правы! Однако страдают ведь обычные джумловцы. Которые просто не в теме "правил" Яндекса.
Вы знаете, а я согласен! Нефиг всякие веб-сайты чужие индексировать. У меня на ДДЛ никаких дублей нет, велком, Яндекс! ☝
Вы задаете очень правильные вопросы ☝ Почему Яндеукс не отсеивает такие страницы шинглами, а предпочитает банить целый сайт, это очень хороший и правильный вопрос.
Ведь дубли страниц как в раз создают не профессионалы сео, обычные веб-мастера, которые даже не понимают, что так делать "нельзя". :)