- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Простите за, наверное, глупый вопрос, я тут новичок.
Хочется знать, какой робот приходил на сайт и когда. В форуме не нашел.
Если не сложно, расскажите, пожалуйста.
Смотрите в лог-файлах сервера, через панель управления сайтом
Artich, у меня доступ по фтп к сайту.
смотрел логи, но ничего похожего не нашел.
там есть записи типа этих:
84.204.114.206 - - [04/Nov/2004:07:07:15 +0300] "GET /admin HTTP/1.1" 401 473
84.204.114.206 - admin [04/Nov/2004:07:07:23 +0300] "GET /admin HTTP/1.1" 301 301
Присоединяюсь к просьбе ТАМАТ, на самом деле очень интересно и непонятно, что там и как...
Ищите строки, содержащие
Yandex/
StackRambler
Aport
Googlebot
и т.д.
Оказалось, что логи были не полные и нужно было что то в настройках Апачи поправить... теперь все ок.
IMHO проще и эффективнее в файле .htaccess для mod_rewrite:
#отлавливаем поисковые роботы
RewriteRule ^robots.txt$ /robots.php?%{REQUEST_URI}
роботы смотрят файл robots.txt
RewriteRule ^robots.txt$ /robots.php?%{REQUEST_URI}
делает перенаправление на robots.php,
а там все HTTP-загловки можно получить (в т.ч. и HTTP_USER_AGENT). Соответственно, robots.php
должен вывести файл в формате файла robots.txt (ну или пусто)