- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Так в том-то и дело, что уже проиндексировали. А я хочу вытащить их из индекса, т.к. они копи-паст. Пока нет времени делать рерайт, потом сделаю. А пока чтобы хуже не было, хочу закрыть их и вытащиь из индекса.
А если не нужно ничего закрывать, можно вообще не создавать robots.txt? В смысле ничего от этого не теряешь?
та не нужно я думаю потому что например я прежде чем открыть эту тему столкнулся с проблемой вот такой:
прогнал сайт в 1пс и азлил на хостинг линкопомойку с 1пс links518944.php только я думал что я самый хитрый и самый умный и если типа ссылку с сайта не размещу на эту мусорку то ничего плохого мне за это не будет.
прошло полтора месяца начались проблемы с гуглосом и я ее удалил после чего все было пучком но потом вдруг выкинуло сайт из яндекса полностью и вот пишу я им письмо они ничего конкретного не отвечают только ссылок дали типа почитай. ну я почитал потом зашел на сервис для вебмастеров и смотрю там много страниц около 16 помоему ненайденных а было вообще 60. короче решил написать я robots.txt чтобы яни гоголак не индексировал и не заходил вообще на ту лажу.
ну буду ждать может че поможет
нужна ли строчка User-Agent: * если закрываеть для всех поисковиков
нужна ли строчка User-Agent: * если закрываеть для всех поисковиков
Она (*) и подразумевает все ботов (которые согласны) ...
а если не писать ? то что будет??
А если не нужно ничего закрывать, можно вообще не создавать robots.txt? В смысле ничего от этого не теряешь?
Нужно все равно, там есть еще команды.
а если не писать ? то что будет??
Будет считается, что доступ к сайту роботам не ограничен.