- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Работает, если 100к+ страниц?
.
Я проверял на 50к -работает, но сканирует очень долго. Многое зависит от настроек сервера, может забанить. Приходится играться с количеством потоков. Я в конце концов ставил на локальный сервер и снимал все защиты и сканировал (ушла примерно ночь).
Sterh
А не рассматривали возможность прикрутить возможность импорта файла с внешними ссылками на сайт?
Например выгрзка из ЯВМ или гугловского? А пользователь сам расставит веса страниц в этом файле. Конечно можно ручками добавить веса на страницы сайта как это сейчас, но всегда хочется большего. :)
В архивах выгрузки там много старой информации, к примеру в гугловском попадались ссылки которые пару лет уже как сняты. Думаю специально так сделано, чтобы нельзя было сразу оценить результативность тех или иных ссылок.
Стерх, при попытке повторного сканирования, Desktop, пишет - Обнаружены данные предыдущего сканирования. Все данные предыдущего сканирования будут удалены.
А мне надо чтобы сохранялись данные предыдущего сканирования, по аналогии как с CS Yazzle, в программе, и чтобы можно было проанализировать и сравнить, а ещё замечательно, построить график (реализуйте это в следующих версиях программы, пожалуйста).
Как это сделать?
Накапливать кучу файлов экспорта Excel не хочется , да и неудобно когда > 100 сайтов.
Sterh
А не рассматривали возможность прикрутить возможность импорта файла с внешними ссылками на сайт?
Например выгрзка из ЯВМ или гугловского? А пользователь сам расставит веса страниц в этом файле. Конечно можно ручками добавить веса на страницы сайта как это сейчас, но всегда хочется большего. :)
Бродят мысли сделать это по уму и прикрутить ahrefs Но скоро обещать этого не буду.
Стерх, при попытке повторного сканирования, Desktop, пишет - Обнаружены данные предыдущего сканирования. Все данные предыдущего сканирования будут удалены.
А мне надо чтобы сохранялись данные предыдущего сканирования, по аналогии как с CS Yazzle, в программе, и чтобы можно было проанализировать и сравнить, а ещё замечательно, построить график (реализуйте это в следующих версиях программы, пожалуйста).
Как это сделать?
Накапливать кучу файлов экспорта Excel не хочется , да и неудобно когда > 100 сайтов.
Я понял, подумаем. Что бы не удалять старый проект нужно создать новый с другим именем. Но вот сравнивать будет не удобно. МыслЯ дельная, что нибудь сподобим.
МыслЯ дельная, что нибудь сподобим.
Спасибо! Станет ещё более супер-инструментов!
Что бы не удалять старый проект нужно создать новый с другим именем. Но вот сравнивать будет не удобно.
Разумеется:
Накапливать кучу файлов экспорта Excel не хочется , да и неудобно когда > 100 сайтов.
После каждой проверки по одному файлу на ~ 200 сайтов -
Через пару проверок накопиться ~ 600 файлов, а о сравнении и графиках уже можно не вспоминать
.. да и.. сервер ставится буквально за пару минут.
У меня ставился сервер ОЧЕНЬ долго. Больше часа. PW самая долго устанавливаемая программа из всех которые я в последний год ставил. Я уж и забыл как это.😂
У меня ставился сервер ОЧЕНЬ долго. Больше часа. PW самая долго устанавливаемая программа из всех которые я в последний год ставил. Я уж и забыл как это.😂
На БК-0010 устанавливали? 😂
Я может туплю, но все таки странная обработка robots. :)
Но сейчас не об этом, а куда пропал режим моделирования? Я им не часто пользуюсь, но все-таки.
PS В самом деле туплю... разобрался
Хорошо, что во всем разобрались :)
Заметил что прога не учитывает тег:
<meta name="robots" content="noindex,nofollow" />
Или я все же просмотрел эту настройку?