- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Да, тут спорить не буду. То ли этим сайтам просто повезло, то ли у них больше траста перед ПС. Так что идея насчёт дублированного контента очень правдоподобна.
Можно сказать, Платон Щукин не врёт, когда отсылает шаблон о том, что одной из причин может являться наличие автоматически сгенерированных страниц. Если так, то стоит нам их убрать, как робот вернёт сайты в выдачу. Естественно, это в идеале. Как будет на самом деле – неизвестно.
Чтобы запретить тэги надо прописать в robots.txt нечто подобное, верно?
#http://www.site.ru
User-agent: *
Disallow: /tag/
Есть плагин к ВП, All in One, он позволяет генерировать титлы и дескрипшены к страницам а так же закрывать метки и архивы от индексации. Я пробовал, результата не дало.
З.Ы. Возможно нужно было изначально это делать.
З.Ы.Ы. Идея с выкидыванием из индекса за дубли мне и самому кажется правдоподобной. Но опять же, только в сочетании с другими факторами
Выпала вся партия из 30 сателитов. На 20 еще код сапы установлен не был.
В то же время остались, как минимум, две других точно таких же партии. В т.ч. и те, которые уже не первый месяц в сапе. Контент набирался по похожему принципу. Они как были в индексе, так и остались.
Важная особенность - вылетевшие сайты все абсолютно находились на одном акаунте хостинга. Перелинковки не было. Уцелевшие находятся на других акаунтах этого же хостинга. IP у сайтов разный.
не могли бы уточнить про IP?
у 30 вылетевших сайтов он был один и тот же?
или тоже разные?
И ещё есть ли выкидывания из индекса не рушек (.ru)
я понимаю что в основном под ГС пользуют рушки,
но может кто делал и на других доменах?
Да, тут спорить не буду. То ли этим сайтам просто повезло, то ли у них больше траста перед ПС. Так что идея насчёт дублированного контента очень правдоподобна.
Можно сказать, Платон Щукин не врёт, когда отсылает шаблон о том, что одной из причин может являться наличие автоматически сгенерированных страниц. Если так, то стоит нам их убрать, как робот вернёт сайты в выдачу. Естественно, это в идеале. Как будет на самом деле – неизвестно.
Чтобы запретить тэги надо прописать в robots.txt нечто подобное, верно?
#http://www.site.ru
User-agent: *
Disallow: /tag/
Я сделал так:
User-agent: YandexBlog
Disallow:
User-agent: *
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content
Disallow: /tag/
Disallow: /page/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Allow: /wp-content/uploads/
Наступила осень и ГС полетели в дальние края.
Еще одной дополнительной причиной, которую здесь не упоминали, могут быть сходные тайтлы (ВП везде дублирует название сайта), что тоже уникальности страничкам не добавляет.
Решается просто.
Для того, чтобы не грузить сервер пользуюсь не плагинами а следующим хаком:
<title><?php if (is_home () ) {
bloginfo('name');
} elseif ( is_category() ) {
single_cat_title(); echo " - Категории";
} elseif (is_single() || is_page() ) {
single_post_title(); echo " ";
} elseif (is_search() ) {
echo wp_specialchars($s); echo " - Поиск";
} elseif (is_tag() ) {
echo wp_title($sep = '', $display = true); echo " - Тег";
} elseif (is_author() ) {
echo wp_title(); echo " - Автор";
} else { wp_title(); }
?></title>
Зайти в редактор / (header.php)/ и заменить стандартный <title> на предложенный.
На выходе получаем чистый тайтл по названию статьи
Мне кажется, дело в комплексе причин. Ну взять стандартную сеть ГС на WP, дизайн от артистир, стуктура схожая, дублирование страниц зверское (теги)... По-моему, так можно 100% определить, зачем сделаны эти сайты. Без одного IP и хостинга за 1 доллар для блога о недвижимости
Мне кажется, дело в комплексе причин. Ну взять стандартную сеть ГС на WP, дизайн от артистир, стуктура схожая, дублирование страниц зверское (теги)... По-моему, так можно 100% определить, зачем сделаны эти сайты. Без одного IP и хостинга за 1 доллар для блога о недвижимости
У меня к примеру вылетел один блог.
Недвижимость, 300 постов, контент уник(скан который чистился), все посты с имагами, раскиданы по датам, меток всего 50, шаблон от артистер, но такой что многие нефришные заткнёт за пояс.
Куча разных плюшек типа голосований, закладок и т.д.
Что именно в нём выдаёт ГС?
З.Ы. Никакой линковки.
З.Ы.Ы. Никакой сапы, сателлит делался под контекст.
У меня к примеру вылетел один блог.
Недвижимость, 300 постов, контент уник(скан который чистился), все посты с имагами, раскиданы по датам, меток всего 50, шаблон от артистер, но такой что многие нефришные заткнёт за пояс.
Куча разных плюшек типа голосований, закладок и т.д.
Что именно в нём выдаёт ГС?
З.Ы. Никакой линковки.
З.Ы.Ы. Никакой сапы, сателлит делался под контекст.
артистир и выдает
Я тоже думаю, что артистир. Слишком много на нем ГС развелось. Не было ли дублирования контента?