- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Sterh, это будет сделано? /ru/forum/comment/11277494
Думаю, что очень полезная штука получится.
Выложили обновление 2.1.0
Теперь на всех наших компьютерах программа сканит сайты без такого дикого количества 503-х ошибок как раньше.
Так же доработали обработчик robots.txt и сделали несколько мелких правок для увеличения стабильности и скорости работы.
Автоматическое обновление уже доступно, дистрибутивы с последней версией будут завтра утром.
Починить-то починили, но только на половину. Теперь ситуация следующая - при первом проходе закрытые от индексации определяет корректно, но выдает некоторое количество ошибок, при этом пишет "ошибка 200 Ок" 😕 При пересканировании битых ссылок забивает на роботс и все закрытые от индексации отправляет в открытые. При таком чудном подходе понятно, что никакой нормальный вес страниц определить не получится.
P.S. Зато сканирует гораздо шустрее, это заметно
А проект удалять не пробовали? Если речь все о том же сайте, то я его прогонял в 100 потоков с автодосканом. У меня нормально спарсилось.
В любом случае, со сканером разобрались, разберемся и с роботсом :)
А проект удалять не пробовали? Если речь все о том же сайте, то я его прогонял в 100 потоков с автодосканом. У меня нормально спарсилось.
В любом случае, со сканером разобрались, разберемся и с роботсом :)
Конечно пробовала :) В первую очередь - удалить, создать, сканировать. Уже алгоритм проверен. По поводу сайта - у меня их десять, так что нет, о другом, до того еще руки не дошли
Sterh, хорошо бы видеть анкоры с какими ссылаются на страничку, а то захожу я в раздел "Перелинковка" вижу ид донора, тайтл донора, урл донора, а где анкор ссылки донора?)
Это так и есть сейчас. В поле титл - пишется анкор ссылающейся страницы. Вот сканировал сейчас сайт, там с одной страницы на другую стоит ссылка с анкором 1, вот в поле титл - 1 и стоит. А другая страница вообще в анкоре е-майл - в поле титл этот е-майл и стоит. Правда и титлы тоже бывают, а бывает что-то непонятное...
Ещё странно. Если указываю считать www зеркалом, то прога начинает сканировать сайт без www и при этом полностью игнорирует все ссылки стоящие на www.site.ru будто их нету. в итоге пишет на морду входящих нету. Когда это вводили, имелось ввиду обратно, что должна сканировать оба варианта ссылок и считать по ним суммарный вес.
Это так и есть сейчас. В поле титл - пишется анкор ссылающейся страницы. Вот сканировал сейчас сайт, там с одной страницы на другую стоит ссылка с анкором 1, вот в поле титл - 1 и стоит. А другая страница вообще в анкоре е-майл - в поле титл этот е-майл и стоит. Правда и титлы тоже бывают, а бывает что-то непонятное...
Хм...может я не там смотрю. Запускаю парсинг, сайт парсится, после чего перехожу в Результат -> Страницы, нажимаю на кнопку Перелинковка сверху. И без разницы где смотреть, во входящих ссылках или исходящих, везде в столбиках Title донора и Title акцептора именно тайтл этой страницы, а не анкор ссылки.
Ещё неплохо было бы добавить глобальное сохранение настроек сканирования(потоки, таймауты, user agent и т.п.). А то при создании нового проекта приходится всё заново проставлять и это ужасно раздражает, если часто разные сайты сканируешь.
Купи программу еще в ноябре 2012 сразу после выхода новой версии.
Но сука пользоваться не могу, она тупо не работает на моем компе, появляются глюки с лиц. ключом.
Пишу уже три месяца в поддержку - в начале отвечали типа все ок, сбрасывали привязку к компу десять раз, потом сказали что это глюк программы, починим, ждите.
А сейчас вообще мои письма игнорируются.
Если у меня прога не заработает то везде где можно сообщу о такой "качественной" работе техподдержки программы Page Weight и такому "классному" отношению к покупателям в формате "Купил и иди ...", а то что не можешь пользоваться нам уже по фиг, деньги же заплатил.
Поддержка тут есть? Я прав?
Или сейчас отписываться будете что такого не было?
Был такой глюк. Связан бы с тем, что в программе не была прописана привязка к нахождению лиц ключа в директории программы. При загрузке проекта/файла из другой директории, прога начинала искать лиц ключ там и не находя его, требовала повторной авторизации - но это давно исправлено уже. Попробуйте переустановить прогу заново. И все проекты само по себе только новые использовать, старые удалить. Если всё равно нет, то это уже настройки вашей операционной системы виноваты, попробуйте на другой комп поставить.