- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
ничем, кроме ПОЛНОЙ индексации всего сайта
ничем, кроме ПОЛНОЙ индексации всего сайта
я так понимаю все что находиться на сайте будет все индексировано?😮 и все папки что находятся на сайте? а вопрос рне по теме, как можно закрыть папки на сайте чтобы люди не могли просматреть все находится на сайте...
я так понимаю все что находиться на сайте будет все индексировано?
Всё, до чего робот дотянется. Как правило, он дотягивается до того, на что стоят ссылки. Или ориентируется на подсказки с соответствующих форм. Но бывали случаи, когда индексировались и вовсе чистые страницы, на которые никто не ссылается.
а вопрос рне по теме, как можно закрыть папки на сайте чтобы люди не могли просматреть все находится на сайте...
По разному можно закрыть - смотря для чего.
В самом простейшем случае, что кроме прочего является ещё и хорошим тоном при создании сайтов, в каждом каталоге (папке) долен находиться файл index.html с указанием того, что отображать при обращенни к этой папке по url-адресу.
----------------------------
а как вам такой robots.txt?
User-agent: Yandex
Disallow:
Host: www.site.ru
User-agent: *
Disallow:
Никаких изысков:
"User-agent: *
Host: урл без www."
Обязательно свой? Мне вот этот нравится :)
http://www.webmasterworld.com/robots.txt
Безусловно, этот файл составляла банда идиотов. Сколько байды вбили для того, чтобы бот обработал
User-agent: *
Disallow: /
uncle Buddah, есть хорошее правило: не считай другого идиотом лишь из-за того, что он делает что-то непонятное тебе. Лучше попытайся разобраться, зачем и что он делает.
http://www.google.com/search?&q=allinurl:www.webmasterworld.com/+site:www.webmasterworld.com
Безусловно, этот файл составляла банда идиотов.
Как в том анекдоте: дура, не дура, а страничка ПР4 имеет :)
ЗЫ Правда, когда сделано для людей, можно от роботов и закрыться!