Так они сказали, что можете закрывать индексацию от их бота. В чем проблема? Ах да, тогда же и в поиске сайта не будет ))
Что вы ему доказываете - у него другая цель в этом топике ))
Ну а чё, с севера на юг и с юга на север отличается всего лишь в 2 раза. А так, норм.
Если бы Гугл еще рядом с запросом отображал шкалу дебильности запросов, то было бы хорошо.
А может нужно запросы свои конкретизировать чтобы получать правильные ответы?
Не факт, что эти платные материалы не попадут в открытый доступ, где их будут читать пользователи и ии.
Ну и в дополнение, что ии негде будет брать контент:
"Компании, разрабатывающие искусственный интеллект, заключают лицензионные соглашения с медиа для использования их контента в обучении моделей. Это помогает улучшать качество ответов ИИ, обеспечивать точность данных и избегать юридических проблем, связанных с нарушением авторских прав.
Лицензирование новостного контента позволяет ИИ-компаниям получать доступ к проверенным источникам, что повышает точность и надежность ответов, снижает риск судебных тяжб и укрепляет доверие пользователей благодаря интеграции авторитетного контента, например, материалов The New York Times.
OpenAI заключила сделки с такими изданиями, как The Washington Post, The Atlantic, The Guardian, NewsCorp и Axel Springer."
Все, что нужно знать (и не тратить свое время на переубеждение староверов), - шавки лают, а караван идет.
Все чаще открываю чат гпт - уже как-то лень ходить по разным сайтам и искать разную информацию. Интересно наблюдать за "думающей" моделью. Вчера искал данные по пищевой ценность группы продуктов. Так он заходит на сайты (указывал искать на англоязычных), выбирает нужные продукты, выбирает нужный вес, сравнивает данные разных сайтов и выдает результат в удобном виде, при этом экономит много времени.
Получает что и некоторые сайты сервисов, а не только инфо, может использовать. Но правда проверил на своем сайте сервисов, то написал "К сожалению, в текущем окружении JavaScript отключён, и онлайн‑калькулятор на .....net не сможет автоматически сгенерировать для нас отчет"
Раньше плач был что поисковики не могут определять первоисточник и контент растаскивают. Но контент не исчез тогда.
А те кто копипастил уникальный контент сидели молча и зарабатывали деньги. Теперь ноют те, кто копипастил, потому что им обвалили траффик.
Контент будет создаваться. Возможно в меньшем объеме, возможно он будет платным.
Да какой год. Для серьезного проекта это должно быть на первом месте в стратегии развития. Просто зачем было напрягаться, если шел бесплатный или почти бесплатный траффик с поиска. Вот кто наработал постоянную аудиторию и узнаваемость, тот еще продержится на плаву. Хотя, еще не известно что они завтра придумают ))
Вылетели страницы с индекса. В марте сделал поддомен Блог и перенес туда статьи (переадресация настроена в .htaccess). Статьи не генеренка, но перевод на несколько языков. С апреля начали выпадать с индекса.
Как думаете, может попробовать обратно статьи вернуть на основной сайт?
А зачем? Можно же просто с регулярной периодичностью просто наполнять бюджет штрафами.