- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Gooogle находит ошибки которых нет, то есть берет урл и убирает с конца пару букв, а вместо них делает троеточие считая это за ошибку! В чем проблема?
Типа так http://сайт.ru/mail/mail-miss-34...
Скриншот с панели гугл!
Это на Вас где-то поставили криво ссылку (где-то криво сократил движок, например - форум).
Dimka добавил 08-12-2011 в 23:50
Зачем прятали УРЛ enego? :)
Это на Вас где-то поставили криво ссылку.
Вероятнее всего - на форуме.
Dimka добавил 08-12-2011 в 23:50
Зачем прятали УРЛ enego? :)
Это получается что можно где угодно наставить сколько угодно ошибочных ссылок, а считаться будет что это на самом сайте куча ошибок (со всеми вытекающими последствиями)?
Если это так, то у Гугла конкретно крыша поехала.
Это на Вас где-то поставили криво ссылку (где-то криво сократил движок, например - форум).
Dimka добавил 08-12-2011 в 23:50
Зачем прятали УРЛ enego? :)
всегда знал что найдется тот, которой проверит ;)
Если это так, то действительно это очень странно!
Возможно проблема в сайте? только не пойму где!
а в чем проблема то? прогоняете свой сайт через любой софт для внутренней оптимизации (PageWeight, Linkoscope3, ну, или бесплатный вариант - Link Exam), находите все ведущие на данные страницы ссылки, убираете их. После - сносите через гугл вебмастерс. Profit!)
а в чем проблема то? прогоняете свой сайт через любой софт для внутренней оптимизации (PageWeight, Linkoscope3, ну, или бесплатный вариант - Link Exam), находите все ведущие на данные страницы ссылки, убираете их. После - сносите через гугл вебмастерс. Profit!)
Как их сносить через гугл?
Проверил, ничего плохого на этих страницах не находит! мда(
Забудь, там по одной линке... Если у тебя их не 20-50 штук конечно же.
Лучше закрой в роботс и подожди пока сами отпадут. То, что GWT показало ссылки на эти страницы - это ничего ещё не значит. У меня 40к таких ублюдочных комбинаций какой-то падла-бот намутил ещё год назад.
Забудь, там по одной линке... Если у тебя их не 20-50 штук конечно же.
Лучше закрой в роботс и подожди пока сами отпадут. То, что GWT показало ссылки на эти страницы - это ничего ещё не значит. У меня 40к таких ублюдочных комбинаций какой-то падла-бот намутил ещё год назад.
и как прописывать в роботс.тхт правильно?
Если закрою страницу её же в поиске не будет!
Я так понял время есть? Вот идеальный вариант: поставить "с этих страниц" (.htaccess) 301 редирект на правильные.
Последние версии роботс очень гибкие. Порддерживают регулярные выражения. Извернуться можно как угодно.
Например,
Allow: /dir/$
Disallow: /dir/*
Разрешить к индексации урл http://site.org/dir/, но запретить при этом http://site.org/dir/index.php
Чисто намёк, но думаю понятно! ;)
И не вздумай править robots до того, как от и до прочтёшь всю последнюю (желательно оффициальную) документацию!
Если уж закрывать в роботс - в данном случае регуляркой на две точки.