- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Может я туплю, но:
1 Сайт на друпал в robots.txt
User-agent: *
Disallow: /user/login/
Использовать robots.txt -> использовать
Почему попадают эти страницы
ttp://*****.ru/user/login?destination=node/8%23comment-form
ttp://*****.ru/user/register?destination=node/9%23comment-form
ttp://*****.ru/user/register?destination=node/8%23comment-form
ttp://*****.ru/user/register?destination=node/21%23comment-form
ttp://*****.ru/user/login?destination=node/21%23comment-form
2. Сайт на Битрикс. "проактивная защита" отключена
Как нужно настроить сканер, чтобы сканировалось больше 40 страниц? Сайт большой 45000 страниц.
После 40 страницы "title не получен или отсутствует" - "время ожидания операции истекло"
У вас закрыта от индексации папка /login/, а путь у вас другой. Лучше напишите так:
/user/*
Или подобную конструкцию.
У вас закрыта от индексации папка /login/, а путь у вас другой. Лучше напишите так:
/user/*
Или подобную конструкцию.
User/login
И
User/register
Тоже, а они лезут.
Да, можно.
Спасибо, значит будем покупать.
ТС, владельцем первой древней версии ннада заново покупать или доплачивать сколько-то?
Sterh, с канониками что-то планируете делать? Данное внедрение было-бы совсем не лишним.
Планируем. Только давайте все таки разберемся как считать. Страницы, с ссылкой на каноническую считать отсутствующей, а ссылки на неё как внешние, или считать rel canonical как 301 редирект(имею ввиду по эффекту работы ссылок)?
Может я туплю, но:
1 Сайт на друпал в robots.txt
User-agent: *
Disallow: /user/login/
Использовать robots.txt -> использовать
..................
УРЛ в личку плиз.
ТС, владельцем первой древней версии ннада заново покупать или доплачивать сколько-то?
Да, владельцем первой версии предоставляется скидка в размере 600 руб. Т.е. по факту нужно только доплатить разницу. Что бы получить скидку, нужно при покупке в поле "код скидочного купона" ввести серийный (лицензионный) номер от первой версии проги.
УРЛ в личку плиз.
Отправил с комментариями по экспериментам
Отправил с комментариями по экспериментам
Ответил в личку.
Может я туплю, но:
1 Сайт на друпал в robots.txt
User-agent: *
Disallow: /user/login/
Использовать robots.txt -> использовать
Почему попадают эти страницы
ttp://*****.ru/user/login?destination=node/8%23comment-form
С роботс разобрался, сам тупил. :) Есть некоторая разница между / и ? :)
Все равно считаю, что протокол сканирования желателен. Пусть он будет по умолчанию выключен.
PS.
Кстати забавный глюк, если к проекту добавить sitemap от другого сайта, то проверка домена не производится и сканируется другой домен :)
А потом еще и удалил этот проект, сканирование не остановилось, остановка сканирования привела к аварийному завершению программы :)
Повторить такие идиотские действия будет сложно :D
Планируем. Только давайте все таки разберемся как считать. Страницы, с ссылкой на каноническую считать отсутствующей, а ссылки на неё как внешние, или считать rel canonical как 301 редирект(имею ввиду по эффекту работы ссылок)?
Хорошая новость :)
Думаю, есть смысл считать, как 301.
Для особ сомневающихся, можно сделать опциональный выбор.