- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
интересно как вообще dle в индексе живут, журналисты рассылают сотни копий своих новостей
HatakeR - я говорю про УНИКАЛЬНЫЙ контент, который пишется под сайт!
HatakeR - я говорю про УНИКАЛЬНЫЙ контент, который пишется под сайт!
извени, я понял это сразу, однако хотелось бы узнать как живут сайты в индексе на которых рассылается контент такой
Смотря какие :) Старые живут хорошо - новые не очень! На каком первый проиндексируется - тот и папкО :)
Открою страшную тайну: журналисты их не рассылают, а всякие добропорядочные юзеры их парсят. А чтобы сайт из одних новостей спокойно жил в выдаче, новости надо не только парсить, но и рерайтить качественно - тогда будет уник для ПС и все замечательно.
Народ, а по теме - для тех, кто в танке: получается, что дубли типа архивов, категорий (в ВП, скажем), страницы результатов поиска надо закрывать полностью? Но по идее-то - дубли создаются естественным путем - так цмс задумана, а Яша всюду естественность выдачи декларирует.
Кстати, заметил такую штуку: новый сайт в уже топе гугля по ВЧ (низкоконкурентным), при этом хавается Яшей на ура (страниц по 200 в ап - жрет все, что дают, в том числе и копипаст подпихиваю - не давится), но в выдаче этих же запросов нет и в 500.
Вот и мучает вопрос: АГСа нет точно (раз жрет и не давится), ссылок уж на первую сотню точно хватит. Другие фильтры? Легендарный "песок"?
Открою страшную тайну: журналисты их не рассылают, а всякие добропорядочные юзеры их парсят. А чтобы сайт из одних новостей спокойно жил в выдаче, новости надо не только парсить, но и рерайтить качественно - тогда будет уник для ПС и все замечательно.
Открою страшную тайну - их рассылают именно "журналисты" (кавычки)
Народ, а по теме - для тех, кто в танке: получается, что дубли типа архивов, категорий (в ВП, скажем), страницы результатов поиска надо закрывать полностью? Но по идее-то - дубли создаются естественным путем - так цмс задумана, а Яша всюду естественность выдачи декларирует.
Страницы архивов (в ВП, скажем) - риальные юзеры 100 лет закрывают в noindex. Давно с вордпрессом дело не имел, но то что там есть плагин или в стандартные настройки заложено это факт. Потому что ВП риально хороший двиг если его в сапу не совать. Вернее если не делать УГ на ВП :)
Кстати, заметил такую штуку: новый сайт в уже топе гугля по ВЧ (низкоконкурентным), при этом хавается Яшей на ура (страниц по 200 в ап - жрет все, что дают, в том числе и копипаст подпихиваю - не давится), но в выдаче этих же запросов нет и в 500.
Вот и мучает вопрос: АГСа нет точно (раз жрет и не давится), ссылок уж на первую сотню точно хватит. Другие фильтры? Легендарный "песок"?
Низкоконкурентный ВЧ это что? Земля, вода, огонь?
Ну если с кавычками - то да:). Я как-то серьезнее это слово воспринимаю.
То, что закрывают - знаю, но пытаюсь логику понять.
Собственно, вопрос о том и был: зачем их закрывать, если эта функция дублирования в стандартные настройки заложена, то бишь естественна?
Более того, сайты (как утверждает Яндекс;)), делаются для людей, а дублирование контента в данном случае сопряжено именно со стремлением сделать сайт удобнее для пользователя.
Использование же ноиндекса, напротив, выглядит в этом смысле действием неестественным, направленным исключительно на улучшение восприятия сайта поисковыми системами, а не людьми (большинству из которых про ноиндекс просто неизвестно).
Или взять те же анонсы статей на главной: анонсы - абсолютно естественный элемент юзабилити сайта, так почему это плохо с т. з. ПС?
Потому и возникают сомнения: а есть ли мальчик? То есть санкции от ПС за естественное дублирование контента на сайте?
Двиг действительно хороший - лепить из сайта можно, что угодно. А УГ надо делать только на Битриксе😂.
Почти:). Просмотров несколько тысяч в месяц, но запрос не коммерческий, потому и конкуренции нет. Однако траф дает... так сказать, "полуцелевой".
Надо не переборщить с дублированием контента (теги, архив), что-то убрать в ноуиндекс, а конкретно на DLE яндекс на ура клеит страницы, оставляет морду и site.ru/2009/, site.ru/2008/ и т.д.
Если есть теги, то они на автомате приписываются к тайтлу (на DLE), что очень хорошо для гугла, но когда поймаешь АГС и поклеит яша всё, оставив чуть больше 1% страниц в выдаче, придется очень нудно (особенно если страниц дофига) вытаскивать из под Fuc (написал АГС латинскими🚬), прятать в robots /2009/, /2008/ и вытаскивать страницы в выдачу...
Я уже этим позанимался вытаскиванием сайта на DLE из-под фильтра, больше не хочется на грабли...
Т.е. лучше убрать изначально теги, чтобы обезопасить себя от АГС 17???
ничего не будет, архив всё же желательно добавить в noindex .
Т.е. лучше убрать изначально теги, чтобы обезопасить себя от АГС 17???
Теги лучше в noindex добавлять ( для DLE ). Яндекс не учитывает их сдльность, и воспринимает как попытку увеличить кол-во страниц на продажу.