Гугл индексирует
По поводу удалили или нет файл, а как может быть два файла robots.txt?
В вебмастере (серч консоль) есть возможность обновить файл robots.txt---------- Добавлено 21.11.2015 в 18:48 ----------
вот так правильно:
User-agent: *
Disallow: /
Обновили бетку..
Роботс.тхт не используется для данных целей, используйте аддурилки вебмастеров, или нагонщики роботов, быстророботов.---------- Добавлено 13.10.2015 в 21:29 ----------
какую страницу хотите оставить как основную?---------- Добавлено 13.10.2015 в 21:32 ----------
Данный файл не закрывает полностью содержимое сайта. Либо скиньте урлы для проверки.
Вероятнее всего проблема в Метатеге robots.
Disallow: *replytocom
Хеш-теги через роботс не закроете, используйте каноникал или метатеги-роботс.---------- Добавлено 03.10.2015 в 14:04 ----------
Аккуратнее: данный пример закроет весь сайт.
1) если я использую disallow и allow, есть разница где ставить эти директивы?
Директивы Allow и Disallow из соответствующего User-agent блока сортируются по длине префикса URL (от меньшего к большему) и применяются последовательно. Если для данной страницы сайта подходит несколько директив, то робот выбирает последнюю в порядке появления в сортированном списке. Таким образом, порядок следования директив в файле robots.txt не влияет на использование их роботом.
При конфликте между двумя директивами с префиксами одинаковой длины приоритет отдается директиве Allow.
2) / - закрывается урл
если нет закрытия / или конца строки $, то поисковик автоматом поставит* - все что идет после будет так же закрыто.---------- Добавлено 01.10.2015 в 13:03 ----------
Если папка открыта для индексации, зачем её повторно открывать?
у вас своя сетка доноров?
Теперь ждем докладов о математической дешифровке алгоритма =)
1. Тут вопрос больше к аудитору, и в зависимости от того какую он цель преследует. Роботс - служит для закрытия определенных страниц и разделов, возможно что-то лишнее, смотрите в вебмастерах яндекса и гугла.
2. Через .htaccess
3. Тоже что и в пунк 2.
а что конкретно пофиксить, напишите лучше в виде нужно закрыть от Я и G, а что должно быть открыто.---------- Добавлено 02.09.2015 в 11:57 ----------
1) host: xn--d1acpjx3f.xn--p1ai
перекодировать в пуникод http://wwhois.ru/punycode.php
2) у каждого домена есть своя папка, в нее и кидайте. Если это зеркало, тогда будет один роботс в нем и указваете главный домен хостом.
Это для Яндекса, для гугла в search console.---------- Добавлено 02.09.2015 в 11:57 ----------
Это для Яндекса, для гугла в search console.---------- Добавлено 02.09.2015 в 12:02 ----------
User-agent: *Disallow: /?Disallow: /printDisallow: /articles/Disallow: /404.htmlHost: https://www.site.ruSitemap: https://www.site.ru/sitemap.xml
Указание на протокол HTTPS, если зеркало доступно только по защищенному каналу (Host: https://myhost.ru)
Disallow: /articles/
учитывайте:
закроет: www.site.ru/articles/ и откроет оставит открытым www.site.ru/articles
в бете пока не показывается кол-во внешних ссылок.