Иногда запускаю, но больше угроз помогают найти:
Auslogics Anti-Malware
Glarysoft Malware Hunter Pro
Loaris Trojan Remover
Malware.Fighter.Pro
Trojan Killer
Вопрос как раз в том, как безобидные ключи крякнутый софт отличить от того крякнутого софта, который реально несет угрозу.
Иногда крякнутый софт начинает лезть по левым ссылкам и Каспер их банит, вот тогда я этот софт удаляю.
Подскажите, пожалуйста, как понимать?1. Если постраничную навигацию закрывать от индексации с помощью метатега: <meta name="robots" content="noindex, follow" />
2. Зачем в таком случае ставить каноническую ссылку на первую страницу листинга (раздела)?
Робот обратится к странице. Увидит, что индексировать её запрещено, но можно переходить по внутренним ссылкам с этой страницы для поиска целевых страниц. Верно?А каноникал направит его в начало каталога.Не возникнет ли ошибка/противоречие?
Роман, смотрите. Canonical никуда не перенаправляет (это не редирект). Canonical указывает на приоритет канонической страницы, чтобы помочь поисковой системе отделить значимые целевые страницы от второстепенных, которые для индекса не нужны.
Противоречий здесь нет, вы можете использовать все средства для оптимизации процесса индексации вашего сайта, как вместе, так и раздельно. В целом Яндекс вообще просит указывать каноническую страницу (для любой страницы, которая будет помещена в индекс), поэтому ваше право указать, а можете и не указывать - Яндекс напишет, что каноническая страница не найдена (я имею ввиду уже не страницы пагинации, а родительскую категорию, потому что именно она будет в индексе).
noindex, follow - явный запрет на индексацию и указание следовать по ссылкам.
Я просто не очень понял, домены будут заточены под одни и те же ключи или вся рабочая семантика на одних и те же ключах.
Если это PBN история для монетизации, то вполне себе, а если вы хотите на постоянной основе получаться трафик и пробираться в значимые топы, то я бы не организовывал так работу.
Пожалуйста.
Лучше тот доступный способ, который будет лучше все получаться.
Я к тому, что каких-то определённых предпочтений нет. С крауда может и замотивированный клиент придти (если крауд качественный), но в целом, каждый оптимизатор использует те средства которые ему доступны в конкретный момент при конкретных обстоятельствах.
Ах вот оно что, понятно..
Я думаю так. Если там будет прослеживаться одно и то же содержание, с общей стилистикой и общими картинками, то пожалуй это может быть причиной для ограничения в ранжировании.
Если и сайты, и вёрстка, и содержание, и элементы будут абсолютно разные, то вполне. Общий рекламный код я думаю тоже может рассматриваться как признак схожести.
Кроме того, я думаю, весьма непросто на одну тему писать несколько непохожих топовых материалов, пересекающихся по общим запросам. Если только разные люди писать будут.
Мысль понятна - спасибо, но такой вариант не подходит.
Вопрос даже не в том, чтобы ограничить, а скорее в практике использования большого объёма пользовательского варезного софта - насколько они "пробивают" современные средства антивирусной защиты и с какими последствиями.
Ну тогда это может быть частным случаем продвижения информационных запросов.
Как правило так и делается, коммерческие запросы охватываются целевыми посадочными страницами, а весь пул информационных запросов переносится в блог/в раздел статей и из блога/статей делаются сквозные связки для рекомендации товара/услуг коммерческого раздела сайта.
Соб-но, сами статьи в данном случае будут тоже посадочными страницами и конечно есть рабочая резонность увеличивать их поисковую видимость.
Только тут нужно хорошо понимать потенциал конверсии ваших статей. Если статьи слабые (формальные и написаны вообще наёмным копирайтером, который отрерайтил чужие тексты), то в видимость таких статей я бы не стал вкладываться.
Начните хотя бы с одного, но помните про принцип "не хранить все яйца в одной корзине".
Думаю, вы преувеличиваете опасения. Если готовы делать сайт на голову выше по качеству, чем конкуренты, то дороги открыты.
Полагаю, что нет. Не было раньше точно, сейчас я тоже не сталкивался ни с одним подобным случаем.
Вот случаев, где один автор старательно клепает сайты под информационку на одном двидке у меня в рабочем активе есть, но ограничений в ранжировании я не вижу.
Соб-но, а за что наказывать? За то, что у вас хватает энергии и сил вести несколько проектов? :)
Вот примеры муниципальных организаций я видел, но статейники.. тем более если разные тематики..
Даже повода не вижу.
Не Антоний точно :)
Передача ссылочного от видимости донорской страницы, увы, не измениться.
Тестировал лет 5 назад - позитивных результатов не получил.