- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
здравствуйте.
Подскажите, пожалуйста, корректно ли составлен robots.txt?
Просто валидатор в Яндекс Вебмастере показывает, что работают только строчки:
А остальные не показаны 😕
Всё правильно
А остальные не показаны
Яндекс показывает только те строки, которые учитывает он. Остальные не для него.
Почему вы закрываете отдельно для гугла, отдельно для яндекса, а потом для всех? не проще сделать просто
Disallow: /admin
Disallow: /form
Host: tehnostroyproject.ru
здравствуйте.
Подскажите, пожалуйста, корректно ли составлен robots.txt?
Просто валидатор в Яндекс Вебмастере показывает, что работают только строчки:
А остальные не показаны 😕
Стоп, а разве пустые строки в robots.txt допускаются спецификацией?
Правильнее так:
User-Agent: Yandex
Disallow: /admin
Disallow: /form
Host: tehnostroyproject.ru
User-Agent: Google
Disallow: /admin
Disallow: /form
User-Agent: *
Disallow: /admin
Disallow: /form
Вы забыли указать путь к файлу sitemap.xml
User-Agent: Yandex
Disallow: /admin
Disallow: /form
Host: tehnostroyproject.ru
Sitemap: http: //tehnostroyproject. ru/sitemap. xml
User-Agent: Google
Disallow: /admin
Disallow: /form
Sitemap: http: //tehnostroyproject. ru/sitemap. xml
User-Agent: *
Disallow: /admin
Disallow: /form
Sitemap: http: //tehnostroyproject. ru/sitemap. xml
P.S. Пробелы убрать не забудьте
Благодарю!
Подскажите, есть ли разница в деление файла на разных роботов и составление файла для всех? Я имею ввиду (пример):
User-Agent: Yandex
Disallow: /admin
Disallow: /form
Host: abc.ru
Sitemap: http://abc.ru/sitemap.xml
User-Agent: Google
Disallow: /admin
Disallow: /form
Sitemap: http://abc.ru/sitemap.xml
User-Agent: *
Disallow: /admin
Disallow: /form
Sitemap: http://abc.ru/sitemap.xml
или
User-Agent: *
Disallow: /admin
Disallow: /form
Host: abc.ru
Sitemap: http://abc.ru/sitemap.xml
Можете объяснить в каких случаях лучше использовать тот или иной вариант? Т.к. я разницы сейчас не вижу.
Привет всем!
Прошу помощи. Некоторые страницы закрыты для индексации в robots.txt. Нужно открыть 4 закрытых страницы. Делается это в FilleZilla.
У меня эта прога пока не может соединиться с сервером. Вопрос -
Если филязиля не работает (нет соединения с сервером), то может быть сработает другой вариант для того, что бы разрешить к индексации нужные страницы сайта в robots.txt:
1. Скачал с хостинга файл robots.txt
2. открыл его в notepad++
3. удалил строки тех страниц, которые нужно открыть для индексации
Например, Disallow: /nashi-preimushestva/otzyvy-i-blagodarnosti.html
4. удалить с хостинга файл robots.txt
5. загрузить на хостинг вместо удаленного robots.txt исправленный файл robots.txt
Это сработает? Страницы откроются для индексации?