- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Большая часть озвученного ТС ну никак не сходится с моими наблюдениями... Кто бы не был автором или коллективом авторов, я привык доверять своему опыту, а он мне подсказывает что в песок попадают не зависимо от того есть ссылки с трастовых сайтов (определить которые достоверно кстати и не возможно) или нет... Так же как и насчет сапплемента, ссылки далеко не всегда могут помочь, да и как интересно мне на 15K страниц понаставить ссылок? И то только два момент которые резанули глаза... Можно по каждому пункту пройтись и найти то, что не согласуется с личным опытом... Дело каждого кому доверять, но слепо верить как здесь выразились "не лохам" я бы не рекомендовал....
ненадо ничего менять.
Я так и подумал... Второй год уже статус кво...
andrew13_k, Hi!, спасибо Вам за то, что поделились наблюдениями.
всей толпой кинулись критиковать статью, а статья на самом деле обзорная и весьма полезная. Можно залезть на форум и читать 100 страниц обсуждения фильтра -30 и в конце концов ничего на понять и не сделать однозначных выводов.
Я думаю в общем и целом статья грамотная и тот кто понимает и имеет опыт он ее поймет, скорректирует со своими наблюдениями, но конечно чего-то нового или супер дельного не найдет. А для новичков очень даже полезная статья, т.к. обобщает основные моменты. Многие очень однобоко подходят к оптимизации а потом удивляются почему 1 млн ссылок, а сайт так и не вышел на 1ю страницу или пропал навсегда.
IG7, новички почитают и получат не верные, а в некоторых случаях в корне не верные данные...
Существуют наказания и за слишком быстрое развитие сайта. Поисковой системе не понравится, если на вашем сайте каждый день будет появляться новая тысяча страниц. Вы, скорее всего, будете заподозрены в автоматической генерации материалов, и, в зависимости от отягчающих вашу вину обстоятельств, ваш сайт либо окажется в OmittedSupplemental Results, либо в бане.
Как обойти ограничение фильтра: если вы и в самом деле автоматически создаете страницы, установите ограничение для генератора. Приемлемое значение 5000 страниц в месяц. Если ваш сайт пользуется хорошей репутацией или очень популярен, коэффициент допустимого прироста может повыситься.
Хочется прокомментировать данный пункт.
Возьмем для примера двух монстров yahoo и google.
У них проиндексировано порядка 10 миллионов страниц, делим это количество на 10 лет (примерное время их жизни), получаем прирост 1 миллион страниц в год, соответственно в среднем 83,3 тыс. в месяц !
Вот такой прирост, и ни кто их не забанил.
И вообще странное это наказание за БУРНОЕ РАЗВИТИЕ сайта ! Разве развился бы так бурно интернет и многие мега сайты, если бы их наказывали !
И насчет OmittedSupplemental Results.
Насколько я уже понимаю по собственному опыту туда попадают похожие на другие страницы. А так как большинство автоматически генерируемых страниц похожи друг на друга, поэтому люди относят их к OmittedSupplemental Results.
Посмотрите на wikipedia.com
Все страницы сгенерированы автоматически, и мы своим человеческим взглядом видим, что они похожи. Но знаете, что сбивает с толку роботов ?
- Ссылки по тексту на другие страницы ! На всех страницах их количество и расположение разное, поэтому робот понимает их как разные !
Видимо в алгоритме 'похожести страниц' анализируется ссылочная структура страницы.
И вообще - наблюдайте сами, думайте сами, иметь или не иметь:)