Тут нет ничего странного. Трафик в основном так и косит. Постепенно.
какая разница, цитатный или не цитатный поиск.
не понимаю, как гугл допускает в выдачу сотни одинаковых дорвеев - редиректов.
Сколько сайтов есть в интернете? И сколько добавляется каждый день?
Как алгоритму это все сортировать?
Это не человек расставляет, утром под кофе. Это очень серезная проблема.
Чтоб убрать эти сайты, надо пересмотреть некоторые факты ранжирования, которые отразятся на куче других сайтов. Потом эти сайты начнут кричать, а чего мы упали? Так мы же доры убирали, которые по странным длинным завпросам выдаются...Ох мать твою, сколько бизнесов покосили...Ну бывает О_о
Так нормальный сайт, нормально гуглится. Анимация слайдера только замените на более плавную, эти прыжки вырвиглаз :)
Да это наборы технических фраз. Какбудто часть стандартных фраз какого то движка знакомств гуглят. Типа еще один сайт на WP или Hello World какойнить.
Я понимаю, что это не реальный поисковый запрос. Просто одна из фраз с главной страницы сайта, я ее вбил в гугл просто для проверки, найдет или нет. А находит 100500 дорвеев на порносайты. И не понимаю, почему весь этот спам в гугле. Ладно бы 1-2-3 ссылки, но не сотни же.
Ну я тоже не понимаю. Но не то что бы это проблема. Попробуйте погуглить чего то нормального из сайта, такой проблемы же нет?
К гуглу на самом деле тысячи притензий, но эта такая себе. Цель гугла удовлетворить запрос пользователя, а обвинять его что он не удовлетворяет запросы, которые пользователи не ищут...ну, ок.
Это какой то машинный текст. Человек такое не напишет в поиске никогда.
Много всякого можно написать в гугле, что не пишут люди и поэтому гугл ничего там не находит, кроме машинного текста и доров.
Я щас не в защиту гугла играю, просто гуглить такое всетаки нет смысла. Пишите нормальные тексты и гуглите нормальные запросы.
Может лучше глянуть в ahrefs -исходящие ссылки - сайты акцепторы ? Блокнотик это просто жесть ))
Ну это не тема для спора конечно, кто как хочет так и делает.
Мне явно удобнее хранить точное количество, точных ссылок, структурировать их себе в блокнотике, подписывать, делать описания, чем смотреть на стороннем сайте, что он там мне найдет...Такое себе.
В вэбмастере Гугла, подтверждение владельцем сайта
Понял. У меня все хорошо. Попробуйте файл в корень засунуть, я метатегами никогда не делал это. Зачем лишний кусок кода на сайте?
А под фильтр загнать? Вон сколько вариантом = поведенческими, ссылками, аж два) Или это все бабушкины сказки? Я на полном серьезе спрашиваю. Кто-нибудь загонял сайт конкурента под фильтр?
Вменяемые люди не распространяют в местах, где ходят невменяемые и дети, рецепты взрывчатки из удобрений.