- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Индексирует то, что закрыто в роботс, но имеет траф, а что не закрыто и не имеет - не хочет. не всегда хочет. логика - другим страница не нужна и я брать не буду)
Это что-то новенькое. С тех пор как Гугел начал динамить нас с индексацией быстророботом стали отправлять каждую новую статью в серч консоль и запрашивать для нее принудительную индексацию. Но сегодня после одной добавленной новости вот такая картина.
Это что-то новенькое. С тех пор как Гугел начал динамить нас с индексацией быстророботом стали отправлять каждую новую статью в серч консоль и запрашивать для нее принудительную индексацию. Но сегодня после одной добавленной новости вот такая картина.
Квота в когда была - 10 запросов в сутки
Это не баг - а новый алго - если страница посещаемая - то она должна быть в индексе, не смотря на "рекомендацию не сканировать"
идиотский алго... т.к. рекомендации, а я бы их назвал не рекомендациями, а директивами строго приказывающими делать то что хочет сайт.. я о роботс тхт обязан быть превыше всего...
потому что тупость получается.... я делаю закрытую зону сайта.. административную... Гугл Хром фиксирует посещение этого раздела.. стучит в Гугл Поиск.. что страница посещаемая.. и как дятел Гугл Индексатор будет долбиться в страницу , чтобы ее проиндексировать.. а раздел запаролен..
идиотизм от Гугла.. увы... настоящих умов даже и в Гугле уже нет... видимо все ушли в программирование ИИ.. принципы на которых они основаны ведущие в Тупик...
Разум устроен по другому.. не так как ЧатДжиПиТи...
а директивами строго приказывающими делать то что хочет сайт.. я о роботс тхт обязан быть превыше всего...
роботс тхт это РЕКОМЕНДАЦИЯ к сканированию, а строгая директива это тег noindex, не нужно путать базовые вещи.
роботс тхт это РЕКОМЕНДАЦИЯ к сканированию
можно ссылки на официальные документы ПС, что роботс тхт - это РЕКОМЕНДАЦИЯ?
строгая директива это тег noindex
сомневаюсь что Индексаторы тех или иных ПС не смотрят.. что там в noindex завернуто.. хотя бы для того, чтобы а сколько пикселей по Ш и Г занимает блок и понять Индексатору.. а че делать с этим дерьмом в ноуиндекс... вырезать, заливать область белым цветом или цветом фона... много вопросов.. так называющие себя и превознесшие себя на Олимп из ПС... Богами ... не расскажут что они делают с тем что в ноуиндекс.. а то что об этом расскажут может оказаться ЛОЖЬЮ...
можно ссылки на официальные документы ПС, что роботс тхт - это РЕКОМЕНДАЦИЯ?
как же сложно найти простую справку https://developers.google.com/search/docs/crawling-indexing/robots/intro?hl=ru;
где тыщу раз написано что роботс тхт не для запрета индекса.
и фраза "Правила в файлах robots.txt необязательны для исполнения"
и вообще надо отличать сканирование от индексации.
сомневаюсь что Индексаторы тех или иных ПС не смотрят.. что там в noindex завернуто.. хотя бы для того, чтобы а сколько пикселей по Ш и Г занимает блок и понять Индексатору.. а че делать с этим дерьмом в ноуиндекс... вырезать, заливать область белым цветом или цветом фона... много вопросов.. так называющие себя и превознесшие себя на Олимп из ПС... Богами ... не расскажут что они делают с тем что в ноуиндекс.. а то что об этом расскажут может оказаться ЛОЖЬЮ...
как же сложно найти простую справку https://developers.google.com/search/docs/crawling-indexing/robots/intro?hl=ru
ясно..
ну значит я как неисправимый идеалист.. выдавал желаемое, за недействительное...
хотя справку пора уже обновить этому ПС Гугл... никаких директив которые управляют скоростью обхода сайта краулером уже нет.. ПС Гугл отказалась от этого инструмента...
а эвристика этого алгоритма в Гугл парашная.. задолбал гугл перегружать VDS своими повышенными частотами доступа в секунду... ну нет возможности у людей распределять нагрузку на сотни VDS .. одного сайта как это делают гиганты ИТ отрасли..
эти "умники" "Богоподобные".. лучше пусть посмотрят.. а попку они так же вытирают как простые смертные? золотые унитазы не в счет...