Кстати первый вроде для фронтэнда, второй - для бэкэнда.
Это вроде как сравнивать джангу с ангулой. Когда по факту их используют в связке.
Это не так. Любой фреймворк позволяет реализовывать комплексные решения. Да, сейчас популярно на фронт натягивать JS-фреймворки, но это должно быть оправдано - например если нужно сложное динамическое взаимодействие, обработка данных на лету, красивые формы... Иначе поддерживать написанное на 2-х ФВ станет очень сложно. А в свете вопроса топика - для небольших сайтов - вообще не имеет смысла.
Нет он не написан на симфони ))) и фреймворк пишется по другому, даже сокращают обычно как sf а не sp =))
Использует модули от sf)) сорри, ошибся в названии
Потому что он написан на Symphony
В каком месте я хоронил PHP?
Ввязываться в написание сайта на самописе - ну это нужно быть очень отчаяным. Из пхпэшных признаю только Symphony.
Если не упираться в язык - выбор огромный - React, Vue, Django, DjangoCMS, Fastapi даже вполне себе для фронта неплох оказался.
А если я хочу в закладках сохранить поиск с фильтром сразу? Я например постоянно так делаю, зачем мне каждый раз их ставить? А вы сейчас заботитесь не о пользователях а о поисковиках. Это в корне неверный подход
А ты вообще понимаешь как у тебя работает это все? ткбк уже дали совеи выше - не хочешь заморачиваться - используй POST. А если еще и с Ajax - будет совсем красота
Да, после настройки. На автомате не получится. Мне нужно забрать Dom, посмотреть где какие CSS селекторы и уже по ним могу заполнять поля. Selenium/Scrapy это неплохо умеют. такая настройка занимает от силы час под твой сайт. Как ни странно тут поможет неправильное формирование страницы - например одинаковые айдишники для элементов. Это затруднит парсинг но не спасет - я например тогда использую XPATH
Да, я при необходимости работаю с сессиями.
Как я уже говорил - я такое не делаю. Но подключить апишку, которая будет отсылать капчу на сервис распознавания несложно, потом делается скрипт. который имитируег действия по ккординатам на экране - не так уже и сложно. Сколько занимает разгадывание - не знаю, думаю секунды.
Теоретически да. Но я соменваюсь, что с этим имеет смысл заморачиваться.
По большому счету. можно заморочится и написать формирование страницы используя динамическое формирование классов для CSS селекторов, а обрабатывать их каким gulp/grunt. Тогда будет очень сложно зацепиться за жедметы на странице, даже XPATH может не помочь. Вообще чтобы бороться - нужно понимать как тебя могут парсить. Почитай что такое Selenium/Scrapy и как они работают. Тогда будет проще придумывать решение)
Я по другую сторону баррикад - зачем я вам буду рассказывать, как защититься от моих парсеров? ))) я за последние 3 месяца написал порядка 30 парсеров разных сайтов. Правда я не ломаю сайты и не использую закрытые данные, так что вашему сойту с моей стороны ничего не угрожает. Но из тог что я умею - ав никак не защититесь, если я поставлю целью заьрать все с вашего сайта. Регистрация, скрытые поля, JS-scripts - все это семечки))) Мой бот маскируется под пользователя, использует все нужные куки и заголовки, чтобы любой ваш детектор распознал его как обычного посетителя. Умеет входить как авторизированный пользователь. Умеет кликать на нужные кнопки - принять куки, подтвердить что не бот))) С капчей сложнее но и она обходится через сервисы. Даже и не знаю что реально поможет))) Некоторые советуют прятать инфу в shadowDome, но и это обходится, хотя если стандартный бот не предусматривает обход - не спарсит. Ну пока разрабы не поймут в чем дело)