Бывает...
Видно невооруженным взглядом.
Видно и гугл такое любит
Вообще ни сколько. При обходе ботом - дополнительный алгоритм. Тут пользователи уже на глаз определяют генерку, а Вы считаете, что алгоритм систематизированный не сможет? Сколько ресурсов? Сколько и краулер. Действие одно. Ради чего? Ради подкормки для своего ИИ. Если текст генерка, значит не оригинал. Если на основе его выдать ответ, то вероятность ошибки увеличивается. Да и зачем Гуглу переработанный текст если он имеет доступ к оригиналу?
П.С. Я свой сайт не добавлял в поиск, не индексировал и нигде не светил. По итогу в Гугл поиске через пол дня вылез. Единственное, после размещения заходил на него через Хром. Если хром сливает инфу, то ваши ИИ ответы через хром тоже могут быть слиты, в процессе генерки. Даже не надо применять алгоритмы) Но, уверен, что при индексации, заодно и проверяют текст на генерку.
не ИИ ли ваши статьи писал? Чтобы за это вам снизить позиции?
Это даже не смешно.
Эмм, алгоритм, не? В момент сканирования для индексации использует алгоритмы для обнаружения ИИ генерки. Гуглу это в плюс, т.к. генерка на его выдачу генерки (для поисковика) это совсем кринжово звучит. Вот и фильтрует такие сайты. А органику себе в ИИ выдачу. Одна работа, два результата - индексация и выдача в ИИ ответов с человекописаных статей
Так с этого и надо было начинать)) мы все любим за вечер и за много. И через пару лет. Ну а для себя лучше написать без лишней логики и если писали сами, то разобраться в проекте труда не составит. У каждого кодера есть свой почерк в написании;)
Прочитал про коллекции.
Вот пример из тутора
$collection = collect(['taylor', 'abigail', null])->map(function (?string $name) {
return strtoupper($name);
})->reject(function (string $name) {
return empty($name);
});
Нормально, что в одной коллекции стринги и були?
Чувак, репо с библиотеками. Через композер загрузил нужные - роутинг, работу с формами, работу с изображениями и всё, т.к. к примеру для текущего проекта большего не надо. Если вы в программировании хотя бы лет 5, то явно есть любимые репозитории с нужным функционалом. Через неймспейсы конфликтов точно не будет. Всё, юзаете. Зачем тащить нечто магическое и огромное по типу лари с её всем внутренним барахлом, которое вероятнее всего вам в текущем к примеру проекте не понадобится?
Я не менял хостинг, ничего не делал со страницами. Сейчас пошли в индекс страницы из раздела, страница просканирована, но пока не проиндексирована.
В статье отображает по 500 показов в день, хотя ни одной страницы по ключевикам не могу найти. Какой-то дикий бред. Но, как скинули с топ 10 по ключевым запросам, так и не могу восстановить. Ранее в гугл до 15000 показов было и 500 переходов. Сейчас 500 и 5 переходов. 1 к100, ранее 1 к 30
Так дело в том, что условная ларя избыточна для небольшого проекта и слишком магична для большого. Когда начнёшь внедрять микросервисы, начнёшь плеваться. В целом есть же репо, зачем фреймворки, непонятно. Подтянул нужные репозитории, подключил и работай без лишнего кода. Всё равно в процессе своим обрастешь)
Так если вы занимаетесь разработкой, то скорее всего обзавелись нужными ракетами. У меня есть с одного репо удобный Роулинг, с другого шаблонизатор, с третьего валидация. Если не нужен шаблонизатор, то просто не подтягиваю пакет.
В мае аналогичное произошло. В одночасье рухнул по топовым ключевикам и до сих пор не восстановился
Т.е. подаваться, как оператор персданных?
Вообще практика странная. Если мыло содержит имя фамилию, то персданные - если нет, то нет. В одном решении суда написано, что если пользователь написал в форме персданные, хотя полей для этого нет, то уже оператор персданных владелец ресурса. Так любой может прислать имя, к примеру, и уже форма становится местом сбора персданных. Глупо очень. На улице к тебе подойдёт мужик, скажет, что его зовут Василий Петрович и всё, беги регайся как оператор персданных))