99.9% местных вебмастеров занимаются тем, что создают сайты на копипащеном/ворованном/генеренном контенте, единственная цель которых - нарубить бабла на рекламе. Местные сеошники изо всех сил пытаются обмануть поисковые сиситемы, чтобы пропихнуть сайты сових клиентов, которые зотят продавать свой мусор, но жлобятся на инормальную рекламу.Но при этом у них говнопоиск... А так вы сами его таким упорно делаете! Чего ждете-то?
Промежуточные итоги за неделю пользования.
- Технические вопросы. То есть поиск информации по каким-то настройкам, простому коду, где не нужна мощь ChatGPT / Github Copilot - полностью заменил обычный поиск. С первого раза выдает нужную инфу, 9-10 раз не приходится искать что-то дополнительно.
- Серфинг по новостям, развлечениям - примерно 50 на 50. Часто попадает в точку, но и на сайты перехожу для какой-то более детальной инфы.- Поиск товаров услуг - Как быстрая плашка, но потом практически всегда переход в интернет-магазин.По-моему мнению коммерц пока вне опасности, а вот информационники, причем не только всякая копипаста - под угрозой реальной.
Ну где уж нам, так, погулять вышел, настоящие пишут на WP. Хочешь тыкнуть - тыкаю:
Что по твоему есть клиент???
Во втором случае, Astro создает статические страницы ( HTML файлы) и записывает на сервер. Все страницы сайта. Чтобы изменить -необходимо пересобрать все статические страницы сайта
Так понятно?А если без кэширования и без Astro, то WP PHP при запросе создает и выдает HTML страницу динамически.Динамика или статика.
Набор слов без понимания работы. Не имеет значения способ формирования страниц, в данном случае все это SSR. Рендеринг на стороне сервера. В случае СПА серверу отдается JS- код, который формирует страницу используя мощности клиента + возможность общения с бэкендом по АПИ.
Хороший фреймворк это умеет. Не обязательно с использованием JS-фреймворков. По факту любая старниуа состоит из блоков , которые кэшируются и не перегружаются заново каждый раз. Меняется только динамический контент.
Твой вывод о чем? Браузер не знает ни про какой WP/PHP/Python и прочее - он не умеет ничего кроме JS/HTML. Речь идет о фреймворках типа Vue, которые отдают в браузер JS код, который потом рендерится мощностями клиента, а не сервера. Вот и SSR предлагает концепцию отдачи HTML в браузер.
По сути Дмитрий прав - то же самое что делает любой PHP фреймворк.
Но вот вы сами как думаете про шансы у сайта, который был сделан на коленке, взломан через месяц после релиза, не содержит оригинального контента, попасть в такие каталоги?
Лично я думаю, что даже ниже 0 в любой перспективе,,,
Гугл может учитывать ссылки со спонсоред как ему захочется и передавать тот вес который установили в алгоритме. И не факт что вес ссылки со спонсоред идентично дуфоллоу.
Ну вот открыл CNN - ссылка в статье дуфоллоу - можно наверное на 100% сказать что она покупная. Я думаю гугл может такие ссылки определять, если захочет.
Поговорил с ребятами с гугловских проектов на эту тему - посмеялись, посоветовали не тратить время на доказательства очевидного. Гугл отслеживает десятки параметров сайта, чтобы принять решение о ссылке и там фоллоу/нофоллоу не самый важный в оценке.
Примерно так же, как графовая модель связей позволяет сейчас написать бота, который определит с большой достоверностью - звонок на телефон от моженника или нет.
У нас видимо тоже, а вот в беларуси аналогичного года можно взять еще и Ионика и Бид Юань. Это если не рассматривать всякие табуретки на колесиках типа Рено Зои
Я же сказал - давай ссылки, проверим.
И анекдот в тему:Около трети россиян боятся потерять работу из-за искусственного интеллекта. Зря боятся, никакой интеллект за 45 тысяч работать не будет.
Вот я как программист и понимаю, что это далеко не просто база данных
так он и будет ставить в топ)
Вот тут ты довольно сильно заблуждаешься. Кстати можно провести эксперимент. Натренировать модель и скормить ей пару страниц с заведомо купленными ссылками - посмотрм, определит или нет? Готов предоставить пачку купленных ссылок и такую же естественных?