Nina

Рейтинг
250
Регистрация
01.11.2004

Когда вы наконец почините ошибку с роботсом? Месяц назад писали, а воз и ныне там. Видимо уже забыли. Напоминаю - все прекрасно учитывает, пишет пара тысяч закрытых страниц и с десяток битых. Как только ставишь "пересканировать битые ссылки" - шиш вам с маслом - нет больше закрытых страниц, все сразу становятся открытыми

Какая-то минимальная цена клика есть? У меня уже по 22 копейки клики пошли. И это на сайтах про авто и финансы!

Sterh:
А проект удалять не пробовали? Если речь все о том же сайте, то я его прогонял в 100 потоков с автодосканом. У меня нормально спарсилось.
В любом случае, со сканером разобрались, разберемся и с роботсом :)

Конечно пробовала :) В первую очередь - удалить, создать, сканировать. Уже алгоритм проверен. По поводу сайта - у меня их десять, так что нет, о другом, до того еще руки не дошли

Починить-то починили, но только на половину. Теперь ситуация следующая - при первом проходе закрытые от индексации определяет корректно, но выдает некоторое количество ошибок, при этом пишет "ошибка 200 Ок" 😕 При пересканировании битых ссылок забивает на роботс и все закрытые от индексации отправляет в открытые. При таком чудном подходе понятно, что никакой нормальный вес страниц определить не получится.

P.S. Зато сканирует гораздо шустрее, это заметно

Nat_SeoPult:

dsparill, в последнее время действительно стало сложнее продвигать сайты. Поисковые системы оценивают всё больше параметров, как внешних, так и внутренних. В целом можно сказать, что увеличились требования к сайтам. Со своей стороны мы постоянно совершенствуем наши технологии и Систему вообще.

Вы бы сначала конкурентов что ли догнали. А то ведь только у вас невозможно посмотреть все ссылки, которые размещаются через систему. Тьфу 😡

vagogrande:
Это решается. Нужно закрыть программу и запустить заново. :)

И так сто раз 😂 Хотя меня больше достает глюк с закрытой индексацией, которая ни фига не закрытая по мнению программы

Str256:
Последний билд 2.09. А я про 2.08. Я на 2.09 даже и не переходил, как почитал тут о глюках.

А, ну тогда все верно, предпоследний работает нормально, последний не работает. Извините, номера запоминать некогда.

Возможно кому-то поможет - если зависает сканирование, надо двигаться "короткими перебежками". Как зависло - останавливайте программу, обязательно выключайте ее полностью. Затем включайте снова и "да, досканировать". Идиотский способ, соглашусь, но работает

Str256:
Nina, 2.08 вроде роботс нормально берёт.

Не берет, я же вам баг описывала на последнем билде. Кстати ДО этого билда кое-где ошибки с роботсом были, но процент ничтожный - 0,5-1 от общего количества отсканированных ссылок. Теперь же процент ошибок достигает 100. Есть повод задуматься.

Да, ваше решение с фреймвоком тоже не работает. Занимаю очередь за шкурой програмиста. Попытка пересканировать зависший проект дает "не удалось открыть заданный узел"

vagogrande:
И все таки я вынужден настаивать !!! Закончил сканирование большого сайта (больше суток), а эта ..... директивы robots не взяла!!!!:
madd:
Когда ждать исправления?

Не вы один, я уже отправляла этот баг поддержке, она видит роботс выборочно и при пересканировании битых ссылок вообще на него забивает

А почему программа после последнего обновления роботс видит через раз? В смысле вроде как видит, но процентов 90 закрытых в роботсе ссылок почему-то считает незакрытыми от индексации. Причем параметры закрытых и якобы незакрытых абсолютно одинаковы - и там и там pechat.html. Раньше такого глюка не было

Всего: 2130