у меня что-то первый скрипт выдает ошибку (проверка)..
Страница недоступна Сайт пока не может обработать этот запрос.HTTP ERROR 500
все переменные заменил из панели на CF
в логе нашел: Parse error: syntax error, unexpected '[', expecting ')' in
Код какой-то не доработанный )
<?php$zoneId = ""; // Замените на ваш ID зоны$email = ""; // Замените на ваш Email$GLOBAL_API = ""; // Замените на ваш глобальный API ключecho file_get_contents("https://api.cloudflare.com/client/v4/zones/{$zoneId}/settings/ech", false, stream_context_create(array("http" => array("method" => "GET","header" => "X-Auth-Email: {$email}\r\n" ."X-Auth-Key: {$GLOBAL_API}\r\n" ."Content-Type: application/json\r\n"))));?>
Зайдите для начала в центр правил и посмотрите нет ли там каких-либо ограничений. Такой низкий cpm и кликабельность свойственный для "ограниченого режима показов", при таком варианте часто показывается обычная банерка нерелевантной рекламы, цена мизерная и естественно никто такое не кликает.
Спасибо за совет. Там все в порядке:
No current issuesYou don't have any current issues that stop or limit ad serving in your sites. Keep up the good work!
вы на барракуде апы гляньте или в гугл вебмастр блоге по датам и посмотрите когда вас покосило . Но и сквозняк 1 миллион точным анкором это для буржа жестковато - если другого соразмерного ссылочного нема
дисавов тут не поможет, он для ручника, но сменить его на безанкор можно смело раз под фильтром сайт.
Спасибо.
Да, в описании Disavow так и сказано. Только вот как ускорить, чтобы Гугл заметил, что ссылки уже нет?
На безанкор уже менял (была ссылка картинкой без альта) и выжидал где-то год. Но никак не помогло (может, конечно, год - это мало, чтобы индексатор успел обойти столько ссылающихся страниц; правда тогда их было ощутимо меньше). Потом вернул обратно анкорную ссылку. Теперь вот решил вообще убрать...
С сайтом 2 история была весьма мутная. В апреле 2020 года целый месяц кто-то из конкурентов на него лил бототрафик с переходами из Гугла, превышающий посещаемость сайта во много раз, чтобы испортить ПФ. Боты проводили на 1 странице сайта около 10 секунд (или даже меньше). Через три дня после начала стали отваливаться запросы, по которым сайт не был в топе. Через пару недель отвалились и те запросы, по которым сайт был в топе. Потом полгода трафика из Гугла вообще не было. В октябре 2020 трафик сам резко восстановился и позиции вернулись примерно на месяц.
Дальше в конце ноября 2020 у сайта 1 отклеился его старый домен (был дропнут старый домен: до этого несколько лет был 301 редирект после переезда). Соответственно, в этот момент сайт 1 потерял ощутимую часть траста (с дропом примерно отклеилось 20% - 30% ссылок). На трафике сайта 1 это никак не сказалось, позиции не просели, а вот сайт 2 улетел за 30 позиций от топа (об этом я написал в предыдущих постах), и с тех пор в топ ни в какую не хочет и наращивание ссылочной массы не помогает. Ощущение, что ссылки работают в 10 раз слабее (может даже больше), чем для других сайтов.
Вот и решил, совсем убрать этот сквозняк. Может, после частичной потери траста сайтом 1, сквозная ссылка с него уже не нравится Гуглу и фильтр сработал из-за нее. Тем более, что по мнению Гугла, сайт 2 уже был замечен в накрутке ПФ. Если не поможет, придется менять домен.
бурж или снг ?
три года назад было куча всего - апы, фильтры итд итп . Инфо, коммерц ?
Оба сайта на английском. Оба сайта в одной тематике. Инфо, не коммерц
Был ли сделан редирект? Со старого домена нужен 301 редирект. Все страницы старого должны ссылаться на такие же страницы нового домена. В гугле есть возможность указать домены с какого на какой переезжает сайт (по-моему в Search Console). Много перенес сайтов с домена на домен таким образом, но никогда с подобным сообщением в Google Chrome не сталкивался.
Еще может это был чей-то проблемный дроп. Историю нового домена смотрели (например, в archive.org или в www.domaintools.com/<имя домена>)?