- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Все утро ломаю голову - и не понял ничего.. Трудности перевода? )
Например, при проверке ссылки на наличие robots.txt я могу видеть эту страницу http://www.site.ru/products_pictures/picture_1.jpg/robots.txt
Для того, чтобы решить эту проблему, пожалуйста, разрешите доступ к файлу робота всем картинкам, которые есть на Вашем сайте.
Может кто подсказать что они имеют ввиду?
Запретов на индексирование картинок, или каталога картинок в robots нет
может шутка
Скорей всего они имеют ввиду
Может у вас скрипт стоит для открытия картинки в полный размер, а сам скрипт закрыт. Может папка(где картинки) закрыта, но точно, куда то robots не пускает.
Может у вас скрипт стоит для открытия картинки в полный размер, а сам скрипт закрыт. Может папка(где картинки) закрыта, но точно, куда то robots не пускает.
Папка открыта.. проверяю webmaster tools "Инструмент проверки файла robots.txt" - все норм
*.js закрыты, но причем здесь они 😮
Папка открыта.. проверяю webmaster tools "Инструмент проверки файла robots.txt" - все норм
*.js закрыты, но причем здесь они 😮
Возможно, проверяют их боты, которые выполняют всё, что написано в роботсе. Попробуйте указать, что исполнять директивы роботса нужно только поисковому боту.
Не только *.js но и закрытие CSS может создавать проблемы для бота. Єта тема уже поднималась на тут. Стоит или не стоит давать доступ - это другой вопрос.
А картинки есть в индексе гугла?
А картинки есть в индексе гугла?
В поиске по картинкам - да.
Попробую убрать запрет на индексацию js - может поможет
Добавил в robots
Disallow:
что то новое..
То есть Вам нужно разрешить всем ссылкам на Вашем сайте доступ к поисковому сканированию, так как это главная проблем из-за которой Вы видите уведомление "Google не удалось получить доступ к странице по URL в вашем фиде данных."
что они там курят? ))
что то новое )))
А вы уверены, что переписываетесь с сотрудником поддержки? Это действительно наркоман какой-то. Попробуйте им в чат написать, чтобы другой сотрудник прочитал, или на почту создать новый тикет, на форуме поддержки создайте тему, сотрудники поддержки там тоже иногда пробегают.
Может кто подсказать что они имеют ввиду?
возможно это в роботсе прописать:
User-agent: Mediapartners-Google*
Disallow: