- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
А может все-таки наймете?
Версия 2.1.8
Включаем расширенный фильтр.
Открываем "страницы" отсканированного сайта.
Копируем любой url
Вставляем его в поле фильтра. И получаем:
"В позиции 0 строка отсутствует"
И это сообщение похоже в бесконечном цикле.... Я по крайней мере накликать до конца не смог...
:)
Хм.. то выскакивает, то не выскакивает.. ок, в ближайшее время исправим
exp131
Спасибо, пошел процесс.
И все таки ! Хочу шкуру тестера в кабинет !
Доступно обновление 2.1.5
...... добавлена защита от начала сканирования при установленом флажке "Использовать список страниц" но не загруженном списке ......
А куда она пропала в 2.1.8 ????? 😡
После внесения изменений в robots.txt и повторного сканирования сайта программа не учитывает обновленный robots. Страницы, закрытые от индексации, отображаются в списке "Страницы" и не переносятся в список "Закрытые от индексации". В чем может быть проблема?
После внесения изменений в robots.txt и повторного сканирования сайта программа не учитывает обновленный robots. Страницы, закрытые от индексации, отображаются в списке "Страницы" и не переносятся в список "Закрытые от индексации". В чем может быть проблема?
Может быть ваш сервер кэширует robots.txt и не отдает обновленный? А вообще телепатией заниматься дело неблагодарное. Напишите на support@page-weight.ru URL сайта, тогда сможем посмотреть.
---------- Добавлено 03.06.2013 в 17:09 ----------
И все таки ! Хочу шкуру тестера в кабинет !
А куда она пропала в 2.1.8 ????? 😡
Никуда. Она на месте.
Может быть ваш сервер кэширует robots.txt и не отдает обновленный? А вообще телепатией заниматься дело неблагодарное. Напишите на support@page-weight.ru URL сайта, тогда сможем посмотреть.
Да суппорт как-то неохотно отвечает. Уже несколько дней жду ответ на другой свой вопрос...
Да суппорт как-то неохотно отвечает. Уже несколько дней жду ответ на другой свой вопрос...
Вы не поверите, но в суппорте и тут отвечают одни и те же люди. Просто сейчас во всю идет разработка новой версии (3.0) и текущие вопросы и доработки немного отложены. Но на все вопросы дадим ответ и все баги будут исправлены.
.... а тем временем 3.0. на тестах так же показывает не плохую скорость сканирования: 600К страниц за 18 часов. И это на SQLite :)
Начинаем закрытое бэта-тестирование версии 3.0. Желающие погонять новую сборку - вэлкам в личку.
Активным тестерам, как всегда, лицензия в подарок :)
Ребята, в 3 версии надеюсь реализуете отображение анкоров ссылок на страницу?