- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Попробуйте открыть файл с паролями через браузер. Если при открытии белая страница или какая-то ошибка т.е. вы явно не видите содержимое файла, то не надо беспокоится.
Даже интересно - как ты это предлагаешь сделать?
у тебя на файлах там же стоит запрет (наверное) на чтение их из внешнего мира.... ты их на хостинге только можешь смотреть... ты же их не можешь открыть в браузере? так и поисковик не откроет....
в роботсе прописывают допустим папки ибо на их 755 разрешение стоит.... а на файлы в папках или в корне не нужно ибо там уже все запрещено для чтения поисковиками....
Наверное есть запрет. Не знаю. Спасибо, то есть при любом раскладе содержание файла конфиг не попадёт в поиск.
Ну если у тебя конфиг в формате .txt, .xml и т.п. - то могут и попасть.
пхп вроде.
И вообще роботс написан неправильно.
Почему? Пусть всё попадает в индекс. Чем это плохо?
Php файлы недоступны для чтения или индексирования.
Спасибо.
ТСу: файл конфигов должен быть либо запрещен на скачивание, либо интерпретироваться на сервере (.php) и не отображать своё содержимое у клиента. Откройте напрямую в браузере файл настроек, загляните в исходный код. Если файл не открывается или не показываются настройки, то можно не переживать. Иначе никакой robots не поможет.
Спасибо.
Даже интересно - как ты это предлагаешь сделать?
Как как? Пишется в адресной строке "домен папка папка папка и сам файл вот так файл.пхп".
Почему?
Патамушта. Неужели так сложно загуглить самый простой robots.txt?
Юзерагента нет, в строке с правилом - какой-то мусор.
в строке с правилом - какой-то мусор.
Мусор не может давать трафик?
Перед Allow уберите звёздочку и пробел
Я неправильно скопировал. Вот правильно:
Там так.
Мусор не может давать трафик?
При чём тут вообще трафик?
Там так.
Естественно, так. Аккуратнее надо писать сообщения, чтобы не создавать информационный шум.
Естественно, так. Аккуратнее надо писать сообщения, чтобы не создавать информационный шум.
Виноват, каюсь.
При чём тут вообще трафик?
Я больше переживаю за дубли. У меня каждая статья доступна по 2-м урлам. Структура сайта такая.
Вообще дело было так. В 2021 году я всё и вся изучил и сделал хороший, правильный роботс. Яндексу он очень понравился. Гуглу вроде тоже. 200 статей в Гугле попали в индекс. Их столько и было. С тех пор я в Гугл вебмастер не заходил и траф с гугла не отслеживал. Вчера захожу в вебмастер гугла и там в индексе 78 страниц. И все эти страницы не статьи. То есть в индексе гугла не было ни одной статьи. Посмотрел ошибки. И там их 6 штук, в том числе парочка "проиндексировано несмотря на запрет в файле роботс тхт". Почему при тоже самом роботсе Гугл сначала проиндексировал все статьи, а потом стал нос воротить? В итоге психанул и сделал роботс, чтобы индексировал всё и вся. Ну и отправил все 6 ошибок на перепроверку.
Как как? Пишется в адресной строке "домен папка папка папка и сам файл вот так файл.пхп".
Ну попробуй )))
Ну попробуй
Картинки я так открывал. Вообщем история такая с этим сайтом. Движок был изначально форумный. Потом я нанял программиста и он из него сделал сайт. Я настоял, чтобы форма ссылок была сохранена. В итоге он так и сделал. Ссылки статей такие https://site.ru/viewtopic.php?id=197 В файле роботс (старая версия) директивы не были прописаны отдельно для яндекса и гугла. Была одна и всё. И в самом низу вот это
Гугл мог из за этого не индексировать статьи? И правильно ли написан клин парам для Яндекса? И для гугла? И вообще оно надо для Гугла?