- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Задача была такова: Составить robots.txt чтоб он индексировал только страницы вида: primer.html и главную страницу.
В итоге вот что получилось:
User-agent: *
Allow: /$
Allow: /*html$
Disallow: /
Host: site.ru
Sitemap: http://site.ru/sitemap.xml
Что скажите?
Проверить роботс.
Я знаю про такой сервис. Но всё же меня интересуют мои закарючки. Им можно доверять? Сайт будет быстрее индексироваться? 3-ю неделю после отправки в индекс Яша его не видит...
Закорючки в роботсе никак не влияют на скорость индексации.
Сайт будет быстрее индексироваться?
Сайт быстрее не индексируется от этого
Но почему же? Если убрать всё лишнее роботу будет проще индексировать. В данном роботсе я и хочу оставить для индексации лишь контент.
Если убрать всё лишнее роботу будет проще индексировать.
смотря сколько страниц на сайте, да и то под вопросом.
Но почему же? Если убрать всё лишнее роботу будет проще индексировать. В данном роботсе я и хочу оставить для индексации лишь контент.
Вы видимо не представляете себе какие мощностя у поисковых ботов. Ваша сотня страниц для них - чих. Они миллионами страниц ворочают, и ничего, справляются.
Идея интересная конечно, но бесполезная. С мощностями ПС ботов - бессмыслено.
Задача была такова: Составить robots.txt чтоб он индексировал только страницы вида: primer.html и главную страницу.
В итоге вот что получилось:
User-agent: *
Allow: /$
Allow: /*html$
Disallow: /
Host: site.ru
Sitemap: http://site.ru/sitemap.xml
Что скажите?
Роботс запрещает скачивать все, кроме html файлов.
User-agent: *
Allow: /*.html$
Disallow: /
Роботс запрещает скачивать все, кроме html файлов.
User-agent: *
Allow: /*.html$
Disallow: /
А главная? *недоумевающий смайл*