- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
exp131,
ну а по поводу копировать когда нормально можно будет??
Добавили в список задач на следующее обновление.
У меня отсканировало 25 тыс страниц (хотя поставила использовать robots, где все ссылки с ? закрыты от индексации) и сдохло. Стоит уже полчаса, дальше обрабатывать не хочет. Что делать - хз
У меня отсканировало 25 тыс страниц (хотя поставила использовать robots, где все ссылки с ? закрыты от индексации) и сдохло. Стоит уже полчаса, дальше обрабатывать не хочет. Что делать - хз
Я так полагаю, что отсканировало не страницы, а ссылки на страницы, закрытые в роботс?
По поводу "сдохло". Что пишет? Что показывает? Скришот "сдохшего состояния" хотя бы можно?
Дамы и господа.
Прошу при сообщении об ошибке - указывайте сайт и обстоятельства к этой ошибке приведшие. Если не хотите это светить тут пишите в личку, на почту. Это существенно ускорит нахождение и исправление. А то каждый раз приходится клещами вытаскивать подробности. А штатный телепат уволился.
Я так полагаю, что отсканировало не страницы, а ссылки на страницы, закрытые в роботс?
Страницы вида http://www.site.ru/page-3.html?month=12&year=2012 закрытые в роботсе
По поводу "сдохло". Что пишет? Что показывает? Скришот "сдохшего состояния" хотя бы можно?
http://floomby.ru/s1/RDs34 - это я попыталась проект остановить. Уже полчаса любуюсь.
Nina, а как вы поставили запрет в роботсе? /*? Роботс локальный был?
И при скане вы выбрали тот юзерагент в котором этот запрет стоит?
Я б прогу закрыл, всё равно отсканено неправильно. У меня кстати с локальным роботсом нормально отсканировалось посл раз.
Nina, а как вы поставили запрет в роботсе? /*? Роботс локальный был?
И при скане вы выбрали тот юзерагент в котором этот запрет стоит?
User-agent: *
Disallow: */*?*
Disallow: /tags
- этот роботс прекрасно понимают все поисковики, но программа сканирует тем не менее
Юзерагент - pageweight. Локального роботса не было.
Страницы вида http://www.site.ru/page-3.html?month=12&year=2012 закрытые в роботсе
Я не это имею ввиду. Т.к. программа работу не закончила, то результаты не обработаны, и закрытые страницы Вы видите в списке очереди сканирования. Так?
http://floomby.ru/s1/RDs34 - это я попыталась проект остановить. Уже полчаса любуюсь.
Закройте программу и запустите скан снова. Начнет сканировать с момента последнего сохранения данных.
---------- Добавлено 27.11.2012 в 16:28 ----------
User-agent: *
Disallow: */*?*
Disallow: /tags
- этот роботс прекрасно понимают все поисковики, но программа сканирует тем не менее
Юзерагент - pageweight. Локального роботса не было.
ну и это.. Если у Вас юзер-агент в проге pageweight указан, а в роботсе дерективы для *, то естественно эти дерективы будут игнорироваться.
Юзерагент - pageweight.
Если вы в группе роботс использовали юзерагент pageweight - то программа будет искать правила конкретно для этого юзерагента, а если не найдёт будет сканировать всё подряд.
Закройте программу и запустите скан снова. Начнет сканировать с момента последнего сохранения данных.
Я вот так утром закрыл, не дождавшись остановки.Потому что сервер на профилактику ушёл. Сейчас открыл - пусто ни одной ссылки не просканировано оказалось, хотя было порядка 1200 проверенных.
ну и это.. Если у Вас юзер-агент в проге pageweight указан, а в роботсе дерективы для *, то естественно эти дерективы будут игнорироваться.
Спасибо, немного помогло, во всяком случае сканирование закончилось. Только я не пойму зачем мне программа показывает теперь в результатах сканирования ссылки, которые были закрыты для индексации - тэги, страницы с ?. Зачем мне нужен этот мусор?