Когда вы наконец почините ошибку с роботсом? Месяц назад писали, а воз и ныне там. Видимо уже забыли. Напоминаю - все прекрасно учитывает, пишет пара тысяч закрытых страниц и с десяток битых. Как только ставишь "пересканировать битые ссылки" - шиш вам с маслом - нет больше закрытых страниц, все сразу становятся открытыми
Какая-то минимальная цена клика есть? У меня уже по 22 копейки клики пошли. И это на сайтах про авто и финансы!
Конечно пробовала :) В первую очередь - удалить, создать, сканировать. Уже алгоритм проверен. По поводу сайта - у меня их десять, так что нет, о другом, до того еще руки не дошли
Починить-то починили, но только на половину. Теперь ситуация следующая - при первом проходе закрытые от индексации определяет корректно, но выдает некоторое количество ошибок, при этом пишет "ошибка 200 Ок" 😕 При пересканировании битых ссылок забивает на роботс и все закрытые от индексации отправляет в открытые. При таком чудном подходе понятно, что никакой нормальный вес страниц определить не получится.
P.S. Зато сканирует гораздо шустрее, это заметно
Вы бы сначала конкурентов что ли догнали. А то ведь только у вас невозможно посмотреть все ссылки, которые размещаются через систему. Тьфу 😡
И так сто раз 😂 Хотя меня больше достает глюк с закрытой индексацией, которая ни фига не закрытая по мнению программы
А, ну тогда все верно, предпоследний работает нормально, последний не работает. Извините, номера запоминать некогда.
Возможно кому-то поможет - если зависает сканирование, надо двигаться "короткими перебежками". Как зависло - останавливайте программу, обязательно выключайте ее полностью. Затем включайте снова и "да, досканировать". Идиотский способ, соглашусь, но работает
Не берет, я же вам баг описывала на последнем билде. Кстати ДО этого билда кое-где ошибки с роботсом были, но процент ничтожный - 0,5-1 от общего количества отсканированных ссылок. Теперь же процент ошибок достигает 100. Есть повод задуматься.
Да, ваше решение с фреймвоком тоже не работает. Занимаю очередь за шкурой програмиста. Попытка пересканировать зависший проект дает "не удалось открыть заданный узел"
Не вы один, я уже отправляла этот баг поддержке, она видит роботс выборочно и при пересканировании битых ссылок вообще на него забивает
А почему программа после последнего обновления роботс видит через раз? В смысле вроде как видит, но процентов 90 закрытых в роботсе ссылок почему-то считает незакрытыми от индексации. Причем параметры закрытых и якобы незакрытых абсолютно одинаковы - и там и там pechat.html. Раньше такого глюка не было