Если разрешить индексацию всего сайта пароли хостинга могут попасть в поиск?

Sly32
На сайте с 29.03.2012
Offline
303
#11
LEOnidUKG #:
Попробуйте открыть файл с паролями через браузер. Если при открытии белая страница или какая-то ошибка т.е. вы явно не видите содержимое файла, то не надо беспокоится.

Даже интересно - как ты это предлагаешь сделать?

ИТ
На сайте с 27.02.2024
Offline
13
#12
bobolab #:

у тебя на файлах там же стоит запрет (наверное) на чтение их из внешнего мира.... ты их на хостинге только можешь смотреть... ты же их не можешь открыть в браузере? так и поисковик не откроет.... 

в роботсе прописывают допустим папки ибо на их 755 разрешение стоит.... а на файлы в папках  или в корне не нужно ибо там уже все запрещено для чтения поисковиками....

Наверное есть запрет. Не знаю. Спасибо, то есть при любом раскладе содержание файла конфиг не попадёт в поиск.

webinfo #:
Ну если у тебя конфиг в формате .txt, .xml и т.п. - то могут и попасть.

пхп вроде.

webinfo #:
И вообще роботс написан неправильно.

Почему? Пусть всё попадает в индекс. Чем это плохо?

Amigo_9876 #:
Php файлы недоступны для чтения или индексирования.

Спасибо.

Snake800 #:
ТСу: файл конфигов должен быть либо запрещен на скачивание, либо интерпретироваться на сервере (.php) и не отображать своё содержимое у клиента. Откройте напрямую в браузере файл настроек, загляните в исходный код. Если файл не открывается или не показываются настройки, то можно не переживать. Иначе никакой robots не поможет.

Спасибо.

ИТ
На сайте с 27.02.2024
Offline
13
#13
Sly32 #:
Даже интересно - как ты это предлагаешь сделать?

Как как? Пишется в адресной строке "домен папка папка папка и сам файл вот так файл.пхп".

angel57
На сайте с 01.04.2014
Offline
155
#14
Перед Allow уберите звёздочку и пробел 
W1
На сайте с 22.01.2021
Offline
285
#15
Иван Т #:
Почему?

Патамушта. Неужели так сложно загуглить самый простой robots.txt?

Юзерагента нет, в строке с правилом - какой-то мусор.

Мой форум - https://webinfo.guru –Там я всегда на связи
ИТ
На сайте с 27.02.2024
Offline
13
#16
webinfo #:
в строке с правилом - какой-то мусор.

Мусор не может давать трафик?

angel57 #:
Перед Allow уберите звёздочку и пробел 

Я неправильно скопировал. Вот правильно:

User-agent: *
Allow: /

Там так.

W1
На сайте с 22.01.2021
Offline
285
#17
Иван Т #:
Мусор не может давать трафик?

При чём тут вообще трафик?

Иван Т #:
Там так.

Естественно, так. Аккуратнее надо писать сообщения, чтобы не создавать информационный шум.

ИТ
На сайте с 27.02.2024
Offline
13
#18
webinfo #:
Естественно, так. Аккуратнее надо писать сообщения, чтобы не создавать информационный шум.

Виноват, каюсь.

webinfo #:
При чём тут вообще трафик?

Я больше переживаю за дубли. У меня каждая статья доступна по 2-м урлам. Структура сайта такая.

Вообще дело было так. В 2021 году я всё и вся изучил и сделал хороший, правильный роботс. Яндексу он очень понравился. Гуглу вроде тоже. 200 статей в Гугле попали в индекс. Их столько и было. С тех пор я в Гугл вебмастер не заходил и траф с гугла не отслеживал. Вчера захожу в вебмастер гугла и там в индексе 78 страниц. И все эти страницы не статьи. То есть в индексе гугла не было ни одной статьи. Посмотрел ошибки. И там их 6 штук, в том числе парочка "проиндексировано несмотря на запрет в файле роботс тхт". Почему при тоже самом роботсе Гугл сначала проиндексировал все статьи, а потом стал нос воротить? В итоге психанул и сделал роботс, чтобы индексировал всё и вся. Ну и отправил все 6 ошибок на перепроверку.

Sly32
На сайте с 29.03.2012
Offline
303
#19
Иван Т #:

Как как? Пишется в адресной строке "домен папка папка папка и сам файл вот так файл.пхп".

Ну попробуй )))

ИТ
На сайте с 27.02.2024
Offline
13
#20
Sly32 #:
Ну попробуй

Картинки я так открывал. Вообщем история такая с этим сайтом. Движок был изначально форумный. Потом я нанял программиста и он из него сделал сайт. Я настоял, чтобы форма ссылок была сохранена. В итоге он так и сделал. Ссылки статей такие https://site.ru/viewtopic.php?id=197 В файле роботс (старая версия) директивы не были прописаны отдельно для яндекса и гугла. Была одна и всё. И в самом низу вот это 

Clean-param: amp&pid&action&print&cid

Гугл мог из за этого не индексировать статьи? И правильно ли написан клин парам для Яндекса? И для гугла? И вообще оно надо для Гугла?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий