- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
недельки две назад скормил гугле роботс.тхт где закрыл uдето 200 линков.
но потом через трое суток убрал, оставил только 8 линков (были алертами в диагностикс в админке)
ну гугля обращаецца к этому файлу каждые сутки и наступили новые сутки и все было ок.
где-то через полторы недели после сих действий (первого мая) в админке у меня показывает что в роботсах нашло 44 линка (Web crawl - URLs restricted by robots.txt). хотя естественно в разделе тулс показывает все как надо. Тех рестриктов, которые нужны нету в этом разделе.
как ткое может быть? и список очень странный получился - где-то 30 линков которые были самыми последними в файле, и дальше идут в перемешку линки, которые были в начале без всякой логической связки.
п.с. полуофф - на залинкованных картинках стоит добавлять нофолло?
Сведения в панели для веб-мастеров, видимо, несколько отстают от жизни.
Надо смотреть роботс. Одна запись может запретить кучу урлов.
Надо смотреть роботс. Одна запись может запретить кучу урлов.
Ну вроде все ок. Чтобы перестраховаться - выложу здесь:
User-Agent: *
Disallow: /young-hentai-porn-movies/4-sexy-hentai-girls/babe/
Disallow: /young-hentai-porn-movies/4-sexy-hentai-girls/babes/
Disallow: /young-hentai-porn-movies/4-sexy-hentai-girls/horny/
Disallow: /young-hentai-porn-movies/4-sexy-hentai-girls/hot/
Disallow: /young-hentai-porn-movies/4-sexy-hentai-girls/pussies/
Disallow: /young-hentai-porn-movies/4-sexy-hentai-girls/pussy/
Disallow: /young-hentai-porn-movies/4-sexy-hentai-girls/sex/
Disallow: /young-hentai-porn-movies/4-sexy-hentai-girls/wet/
Disallow: /young-hentai-porn-movies/4-sexy-hentai-girls/xxx/
Allow: /
а то что заблокировано - вообще не вписывается ни в какую логику - как уже писал, список который оно видит генерировался очерь произвольно.
Ух, ты, какая красота. :) А в запрещенных папках - что, только по одному корневому урлу? Кстати, директива Allow: / - бессмысленна в Вашем случае.
Ух, ты, какая красота. :) А в запрещенных папках - что, только по одному корневому урлу? Кстати, директива Allow: / - бессмысленна в Вашем случае.
да, в запрещенных папках только индекс с которого идут ссылки на предыдущую директорию (обычный адалтовский фрих)
в админке Diagnostics-Content analysis написало траблу - дублирование тайтлов и вроде контента. после того как закрыл - где-то через недельку обработало и сняло клаймы. домен свежый еще.
п.с. ну красота, не красота, а занимаюсь только белым адалтом - только адверт и фсе ))
blackpioneer добавил 07.05.2008 в 15:12
сегодня непонятно почему стало 28 урлов
Home page crawl: Googlebot last successfully accessed your home page on May 3, 2008.
Index status: Pages from your site are included in Google's index. See Index stats.
Pages in your Sitemap(s) are included in Google's index. See Sitemaps overview.
URLs restricted by robots.txt 28 Details »