- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Пролог
Как говорил один мой знакомый, лучший способ избавиться от неприятностей – это в них не попадать. И с этим нельзя не согласиться. Как в интернете, так и в реальной жизни нас на каждом углу подстерегают проблеммы и только тот, кто правильно мыслит и сохраняет голову холодной в них попадает реже. По этому уже написаны целые философские трактаты, но на самом деле всё просто: надо сначала думать – а потом делать. Мастер неделями проектирует деталь и только потом завод ставит её на конвейер, потому, что спроектировав неправлильно один макет – не получатся и все остальные дифференцируемые от него детали. Создание сайтов – это тоже своеобразный конвейер. Особенно, когда люди работают над сотнями проектов. Стандартная мысль начинающего сателлитчика: надо брать массовостью. Пока одни будут баниться – другие будут закрывать дыру. Это первая ошибка: неправильный подход к делу.
Определение 1: не жалейте времени. 100 сайтов, сделанные за 100 дней будут существенно отличаться от 100 сайтов, сделанных за 10 дней.
А можно сделать так: просто не попадать под фильтры и баны. Звучит глупо? Не думаю. Сейчас мы с вами в корне перевернём стратегию массового создания сайтов, чтобы не попадать под фильтры и иметь стабильный доход.
Везде важна психология и рассудительность. Понятно, что в основном сети сателлитов делаются под сапу и лиекс. Вы уже видели на многих форумах и сообществах выражения типа : за сапу банят. А я отвечу: банят за «глупую» сапу. Но не за умную. Хотя об этом чуть ниже.
Определение 2. Продажа ссылок будет жить еще долго, так, как структура интернета и поисковых систем основана на ссылочном ранжировании.
Яндекс умеет распознавать покупные ссылки, но не делает из этого погромов.
Выдержка из доклада Яндекса в Мадриде:
Для проверки алгоритма идентификации платных ссылок мы использовали две тестовых выборки. Первая включает в себя около 1700 полезных естественных ссылок и 1850 платных ссылок, отобранных вручную методом случайной выборки (точность алгоритма оценивалась только по естественным ссылкам). Мы смогли идентифицировать ссылки, принадлежащие одному сервису обмена ссылками, и получили таким образом подборку платных ссылок, которую использовали в качестве второго тестового образца. Из 300 миллионов ссылок, присутствующих в нашем графе, алгоритм идентифицировал как платные 50 миллионов ссылок (17 %).
В результате тестирования было установлено, что точность описанных алгоритмов достигает 94 %, а эффективность — 97 %.
Идентификация платных ссылок позволяет оценивать релевантность ссылок для коммерческих и некоммерческих запросов независимо друг от друга. В первом случае, платные ссылки учитываются при вычислении коммерческого рейтинга, а во втором — игнорируются. Это делает формулу вычисления рейтингов более эффективной и повышает качество поиска, нейтрализуя влияние чрезмерной оптимизации на некоммерческие поисковые запросы и делая результаты поиска более разнообразными.
Надеюсь, все теперь поняли, что, размещенный на вашем сайте код ссылочной биржи никак не влияет на страницы в индексе! Другое дело, неправильная методика продажи ссылок может выступить киллером ресурса-донора. В дальнейшем мы с вами будем пользоваться Основным правиломнепоподания в бан.
Основное правило: смотрите на сайт глазами робота.
Теперь о нашумевшем АГС-17. Этот фильтр, как вы знаете, существует уже давно, но в последнне время заметно активизировался. Сносятся дубликаты страниц, различные теги и календари. И уже многи в панике от данных инструментов отказались.
Определение 3: меньше слушайте других, подумайте сами: то же облако тегов позиционируется как дополнительное меню и даже сам Яндекс использует его у себя на блогах.я.ру. Значит банят не за само облако тегов, а за его неправильную структуру.
АГС в меньшей степени зацепил возрастные домены.
Это важно: сайт с «возрастом» имеет больший авторитет в глазах Яндекса, нежели недельный сайт, залетевший в индекс. У меня сайты на доменах, которым 8 мес и выше живут безбедно, при низком качестве исполнения. Выводим теорему №1.
Доказательство: Создаем сайт, заливаем на хостинг, вбиваем в индекс, не вешаем коды бирж, и забываем о нём на 2-3 месяца, при этом ежедневно автоматически обновляя его (*).
*как автоматически обновлять сайт описано ниже.
Робот также смотрит на количество страниц на сайте. Создание сайтов с «классическим набором» 100-250 страниц уже не прокатит. Минимальное количество страниц должно быть 300+, чтобы не привлекать к себе внимания робота и по этому аспекту. Лично у меня ни одни многостраничный сайт под АГС не попал, в том числе варезники и киношники на копипасте.
Определение 4: Яндекс любит многостраничные сайты, часто «закрывая» глаза на копипаст и т.д. Правильно сделанные варезники банятся Яндексом крайне редко.
Если рассматривать АГС и «шаблонность», то прямых доказательсв по бану за использование шаблонного дизайна нету. Чтобы это доказать, воспользуемся нашим основным правилом:
Я могу предположить, что далеко не все люди, которые занимаются сайтами, могут еще и уметь верстать и рисовать. На сайте главное контент а не его подача.
Не надо бояться шаблонов – просто желательно их чуток переделывать: хотя бы на шапке лого нарисовать. Понятно, что яндекс этого не видит, но сайт принимает «сдльность». Однако делать 30 и больше сайтов на одном шаблоне – глупо. За это легко и в бан попасть.
Итак, на данный момент мы имеем следующее: для создания множества сайтов надо выделить и множество времени, сайты за сапу не банятся, чтобы повысить «авторитетность» сайта нужно дать ему отстояться, ежедневное обновление сайта покажет роботу, что он имеет дело с чистым СДЛом, шаблоны в сайтостроении, облако тегов, календарь – вещи обыденные, количество страниц на сайте напрямую влияет на «непоподание» его под фильтр.
Сейчас перейдем к технической части.
Часть 1. Выбор CMS.
Dle, Wordpress, Drupal, Joomla, Php-nuke, Slaed, Maxsite CMS, Zebrum… Список можно продолжать бесконечно. Для сайтостроения выбирайте прежде всего удобную для вас систему. Яндекс не забанит ваш сайт только из-за того, что он сделан на Wordpress или Dle, так, как на этих же движках живут сотни и тысячи отличных проектов. Лично я использую Dle за его легкость в обращении, низкое «давление» на сервер, СДЛьный вид, большое количество бесплатных шаблонов. Wordpress тоже хорошо и с ним вы тоже можете работать. Но пример создания «правильного» для робота Яндекса сайта (см Основное правило) буду делать именно на DataLifeEngine.
Часть 2. Контент.
Отнеситесь к этому серьёзно. Для создания «правильных» сайтов ни в коем случае не используйте синонимайз. Это перечеркивает все наши СДЛьные (с т. зрения робота) порывы. Понятно, что для сотни сайтов по 300+ страниц копирайта и рерайта не напасёшься. Выход один – скан. Чистый и без крокозябликов. Проверьте его вручную, удалите переносы и мусор – и у вас получится контент, ничем не отличающийся от копирайта. Если уникальность по Адвего составляет 70% и выше – используйте смело. Робот не забанит сайт за такой контент .
Часть 3. Выбор доменного имени.
Если делаете сайты для прибыли – конечно используйте .ru. На них, как показывает тенденция, всё раскупается быстрее. Тем не менее, не стоит «забивать» и на gTLD и экзотику. У меня 2 сайта в .in и .bz приносят прибыль, а первому даже присвоен регион – Минск. Однако не рекомендую использовать домены 3 уровня и .cn. Это будет просто пустой тратой вашего времени.
Часть 4. Подготовка контента, картинки.
Ни в коем случает не делайте все посты одинакового размера. Если есть маленький завершенный очерк в 50 символов – публикуйте его, если есть большая статья – разбейте на подстатьи и придумайте каждой хороший заголовок. Так делают на всех СДЛ-сайтах, так будем делать и мы. Картинки не являются обязательным критерием, но, подобрав хотя бы к парочке постов (особенно тех, что будут выводиться на главной) тематические картинки – вы даёте роботу понять – перед ним хороший качественный сайт.
Продолжение
Кому статья понравилась - обсуждаем и голосуем:)
И...???
Давайте хотя бы
Определение 2
Определение 3
Теорема 1 и т.д.
Выложил по-максимуму. Больше - лимит не разрешает :)
очень разумная и полезная для начинающих статья.
целое руководство к действию :)
Спасибо за статью. Много вполне логичных умозаключений. Теперь буду делать сайты, учитывая замечания сделанные в статье.
Яндекс любит многостраничные сайты, часто «закрывая» глаза на копипаст и т.д.
Один из моих сайтов, такова уж его судьба оказалась, сидит сейчас в бане Яндекса. Как сказал уважаемый Александр Садовский, причина - отсутствие уникального контента, то есть копипаст (за это спасибо предыдущему владельцу домена).
Одним словом, не стоит утверждать однозначно. 🚬
Пы.Сы. Ведуццо работы по выводу =)
Минимальное количество страниц должно быть 300+, чтобы не привлекать к себе внимания робота и по этому аспекту. Лично у меня ни одни многостраничный сайт под АГС не попал, в том числе варезники и киношники на копипасте.
ну может у вас нет, а вот в биржах ежедневно пополняю гбл такими бывшими многостраничниками, которые выелетели. Вообще, я лично давно уже пытаюсь к каждому проекту относится как к сдл. В таком случае, можно и Платону написать если что, да и ссылки дороже.
Farell, варезы обычно вылетают за использование попапов и прочего уг.
статья отличная. Для новичков самое то, для себя взял полезное. Спасибо
варезы обычно вылетают за использование попапов и прочего уг.
да, у меня пару сатов вылетело из-за клик андера. Убрал - вернулись)) А вообще, правильно, ибо нехрен такую рекламу пихать, ужасно бесит.
Нам препод в универе говорит: вы эту книгу с интернета не качайте. Я сам вам её на почту сброшу. А то пока скачал - столько порно-баннеров насмотрелся, что чуть инфаркт не хватил. А я ржу себе тихо - нех.. с варезников книги качать :)
Про попапы помню писал пост отдельный