- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Дело в том что по некоторым запросам в Яндексе вылазят именно они, а не страницы сайта. Соответственно на них нет навигации и мы просто теряем посетителя.
Stromgard, если речь о сайте в подписи, можно попробовать добавить карту сайта (только doc-файлы в неё не вносите).
Stromgard, если речь о сайте в подписи, можно попробовать добавить карту сайта (только doc-файлы в неё не вносите).
Нет, не он, я ж указал впервом посте www.infodez.ru...
А вот так: Disallow .doc нельзя?
Нет, не он, я ж указал впервом посте www.infodez.ru...
Stromgard, а на www.infodez.ru почему не сделать карту и в ней прописать необходимые страницы или у Вас все 500 доков выше штмл-я?
П.С.
http://www.infodez.ru/prod_a.html - закройте ноиндексом пиктограммы, только вложенность соблюдайте.
пару ссылок вам помогут ;)
А вот так: Disallow .doc нельзя?
Нет.
Читать, например, здесь
Disallow: /*.doc$
Disallow: /*.pdf$
Мне так и не ответили... Будет ли ЭТО работать?
Доработаный скрипт для создания списка исключений для robots.txt по маске (добавить в начало "User-Agent: *" руками)
#/bin/sh
cd /путь/к/каталогу/www/
find . -name '*.doc' | sed 'e printf "Disallow: "' | sed -e 's:./:/:' > robots.txt
редакция в 15:43, так совсем правильно получается
Доработаный скрипт для создания списка исключений для robots.txt по маске (добавить в начало "User-Agent: *" руками)
#/bin/sh
find /путь/к/каталогу/www/ -name '*.doc' | sed 'e printf "Disallow: "' > robots.txt
Это для shell?