- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Для решения проблемы сделал редиректы, как тут
Arsty, большое спасибо и вам! Правда, у меня Джумла 3, а не 2.5. Не знаю, подойдёт ли этот способ для неё.
Не ругайте за наивность и неподготовленность, но есть ещё и такой вопрос. А как заблокировать джумловский адрес в robots.txt? К примеру, для блокировки /index.php/web-moshenniki/1025-gobongo
нужно писать:
Disallow: /web-moshenniki/1025-gobongo
или
Disallow: /index.php/web-moshenniki/1025-gobongo
начальный /index.php/ надо включать, или нет? И расширение файла не указывается, как и есть в реальном адресе Джумлы? Или всё же .php в конце дописывать?
Эти ссылки запрещены в вашем робот.тхт, проверте его что у вас там.
Нет. Это страница, к которой бот имеет доступ, в противном случае эти страницы не всплыли бы как 403 ошибка. А вот сейчас их нужно закрыть от бота, либо поставить редирект.
ну так что кто знает что это такое ? И как решить эту проблему?
Как вариант Disallow: /*?
Только нужно удостовериться, что в индексируемых страницах нет знака вопроса, иначе бот их из индекса выкинет. И вообще надо аккуратней с роботсом и редиректами.
а причем тут знак вопроса вообще?
а причем тут знак вопроса вообще?
съев страницу робот перед добавлением ее в индекс смотрит правила робот.тхт если запрещены страницы начинающиеся с ? то в индекс они не попадут
Не ругайте за наивность и неподготовленность, но есть ещё и такой вопрос. А как заблокировать джумловский адрес в robots.txt? К примеру, для блокировки /index.php/web-moshenniki/1025-gobongo
Если не уверен зайди в вебмастер яндекса->настройка индексирования->анализ robots.txt и проверь закрыт твой url от индексирования или нет, заодно и правильный, а то можешь все позакрывать
я понял ну у меня вроде таких страниц нету мне вообще сказали что в робот.тхт должно быть прописано
Disallow: /abnl/
Disallow: /?ssid=
Disallow: /*&*
чего у меня нету, я допишу наверно сейчас надеюсь поможет
Ещё глупые боты часто ищут /pagead2.googlesyndication.com/pagead/js/adsbygoogle.js 😂 Как правило юзер агент у них незамысловатый типа "Mozilla/4.0" (или 5.0) + китайский айпишник. Забаниваю сразу таких в iptables.
Ребят, тема очень уж большая. Кто вывел сайт из под фильтра Яши?
Есть какая панацея, или пока что плакал наш доход?