- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем здравствуйте.
Скажите, какие проблемы и негативные последствия могут быть от открытия сайта поисковым индексирующим роботам целиком и полностью? Ну то есть, если написать роботс.тхт в формате:
User-agent: *
Disallow:
или оставить его полностью пустым.
Важно! Сайт новый и до этого был полностью закрыт от индексации. И вот теперь его сливают роботам целиком. Что будет?
Я так понимаю: что
1) в индекс попадет админка. И что дальше? Какие из этого проблемы?
2) в индекс попадут всякие дубли и разный технический мусор. Соответственно сайт будет иметь низкие показатели уникальности и т.д. и будет понижен в выдаче. Так? А если потом исправить это написав нормальный роботс.тхт (с закрытием дублей, мусора и т.д.)? Ситуация исправиться? Будет тоже самое, как если бы сайт сразу открыли с нормальным роботс.тхт или от такого "полного открытия" что-то "сломается" бесповоротно?
Короче, насколько это страшно и опасно - открывать сайт роботам полностью для абсолютно нового сайта?
Почему не предотвратить все проблемы ДО выкидывания в индекс?
Почему не предотвратить все проблемы ДО выкидывания в индекс?
потому что не получается. Роботс, который должен по идее работать (по крайней мере яндекс-вэбмастер ошибок не нашел), не работает - яндекс не пускает сайт на индексацию. Поэтому подозреваю что проблема не в роботсе. И для проверки хочу попробовать убрать в роботсе все ограничения и посмотреть что будет? пройдет ли сайт в индекс или нет? Если пройдет - значит проблема в кривом роботсе сейчас. Если нет - значит проблема в другом месте.
Но страшно налететь на какие-нибудь проблемы которые не смогу устранить. Поэтому подстраховываюсь этим вопросом.
Как-то так. :)
А может быть вначале "причесать" сайт, убрав всё лишнее, и уже потом открыв для индексации?
Просканируйте его каким-нибудь сервисом типа сайтрепорт и узнаете, какие у вас на сайте есть дубли и мусор. Может его и нет вовсе.
Закройте сразу все служебные файлы админки, статистики и пр.
Потом постепенно ликвидируйте мусор. Кстати, мусор может появляться регулярно. Чистить надо.
Закройте сразу все служебные файлы админки, статистики и пр.
Потом постепенно ликвидируйте мусор. Кстати, мусор может появляться регулярно. Чистить надо.
Тут есть проблема - сайт я делал не сам, а другие люди по заказу. Плюс я вообще не знаю как пишутся сайты. Поэтому я не знаю, как он работает, где что лежит и т.д. А значит не смогу разобраться что надо закрывать, а что нет. Собственно отсюда и пришло решение - тупо закрыть всё, а открыть только то, что нужно.
Но почему-то так не получается... И никто не может толком сказать - почему не получается?
Тут есть проблема - сайт я делал не сам, а другие люди по заказу. Плюс я вообще не знаю как пишутся сайты. Поэтому я не знаю, как он работает, где что лежит и т.д.
..
Но почему-то так не получается... И никто не может толком сказать - почему не получается?
Все очень просто. Просто надо заниматься своим делом, которое знаете и в котором разбираетесь, а то в чем не разбираетесь оставьте специалистам.