Для заказчика, который лишь обзорно интересуется технологиями - да, исходная точка ТЗ, но для вебмастера/разработчика, который 6 лет практикует и планирует перевести сайт на ИМ - здесь, на мой взгляд, важнее личный опыт.
Если работали с WP, то пробуйте WooCommerce. По мере погружения в тему начнете искать решения и, возможно, в сравнении с текущим выберите то, что вам больше подходит.
Всё весьма индивидуально и по части функционала, и по части освоения рабочего опыта. Отталкивайтесь от конкретных задач и старайтесь их реализовать.
Опытным путём вы найдете для себя лучшее решение. За Вас для Вас этого никто не сделает.
Верно. Хотя и необязательно десктопная. Я, например, хорошо знаю полезную аудиторию рабочего сайта и имею возможность уверенно банить вредоносные IP-шники.
В моём случае IP-шники часто повторяются и рабочий журнал, фиксирующий баны для ботов, в реальном времени выглядит вот так,
p.s. За несколько дней я сформировал свой black-list IP-шников, кому интересно, могу поделиться. Бесплатно.
Видите ли, если бот имитирует работу браузера и выполняет простейшие действия скроллинга, то его крайне сложно отличить от реального пользователя, который выполняет те же действия.
Вышеуказанные сервисы определяют ботов по типовым признакам и в основном заточены под нейтрализацию бот атак. Так что реальное отличие ботов от человеческого трафика сильно притянуто за уши.
Если речь идёт о xml карте сайте, то лучше /sitemap.xml
HTML карты для сайта уже неактуальны и являются анахронизмом.
Это зависит от способа создания XML карты. По-хорошему, XML карту сайта должен генерировать движок. В принципе все современные CMS системы поддерживают генерацию XML карты.
Другой способ - ручная генерация XML карты с помощью онлайн сервисов и/или отдельных десктопных программ. В этом случае карта формируется при сканировании сайта по ссылкам. На момент генерации создаются ссылки на все доступные страницы сайта. В этом случае при внесении изменений, XML карту созданную вручную рекомендуется обновлять и перезаписывать.
Да, может. Может из-за того, что карта создавалась вручную и была создана раньше (при этом как правило можно посмотреть дату генерации, если она там указана), а может и из-за того, что XML карта может некорректно формироваться самим движок. Например, довольно распространены такие случаи. В CMS использован сторонний модуль, а плагин генерирующий XML карту по рабочим источникам может не поддерживать сторонний модуль и тогда страницы, созданные доп. модулем могут не попадать в рабочее поле XML карты.
Но в целом, если CMS правильно настроена и оптимизирована, то адреса из XML карты выпадать не должны, при обращении к адресу /sitemap.xml движок нередко сразу генерирует актуальную карту и поисковые системы (при запросе данного файла) получают актуальные данные.
Продолжаю обзор рабочих эпизодов по проведенным аудитам. В последнее время достаточно обращений с просьбой разобраться в ситуации, определить проблемы и предстоящие задачи для активного роста сайта в поисковых системах. Помогаю определить проблемы, консультирую, определяю актуальные точки роста и фиксирую общие направления рабочих задач.
Отзыв от Андрея, оригинальные данные заказчика сохранены, кроме тех, которые представляют конфиденциальную информацию, затрагивающие коммерческие интересы заказчика.
Всегда приятно, когда заказчики благодарно отзываются о моей работе и рассказывают о своих достижениях.
Готов принять на рассмотрение новые задачи.
Обращайтесь!
Расценки демократические
~~~~~~~~~~~~~~~~~~~~~~~~~
Уверенно и трезво :) Для интернет серфинга современные браузеры поддерживают всё что в большинстве случаев необходимо.
Хочу открыть веб-студию по разработке сайтов в Новосибирске. Скажите какие у вас обороты? сколько клиентов в месяц? какая прибыль? сколько стоит 1 клиент для вас? и т.д.
Конкретные цифры вам ничего не скажут, потому что разброс будет очень большим. Студия - это может быть и два универсала, где они с помощью доп. фрилансеров могут тащить весь процесс, студией может быть компания с несколькими офисами в различных городах.
Студию надо открывать тогда, когда у вас есть прочная и проверенная команда, свой актив клиентов и острая необходимость в расширении, потому что спрос на ваши услуги активно растёт - вот тогда можно пробовать, но и тогда у вас должен быть запас денег (как минимум на пол года выплаты аренды/зарплаты/налогов/накладных расходов). С учётом того, что сейчас оборотных денег у людей весьма мало (в связи с известной ситуацией), то запас финансовой прочности у вас должен быть уверенный.
Из вашего объяснения я понял, но я как раз предлагаю вариант применительно к конкретным проблемам сайта, а не к статистическим вероятностям на больших объемах трафика отдельной подсети.
К сожалению, эффективных и доступных для простых пользователей программных способов правильно отличить один профиль поведения от другого и выявить - кто робот, а кто реальный пользователь, увы, нет.
Конкретные рабочие вводные - это массовые отказы из-за паразитного трафика и именно с этим признаком нам приходится бороться.
Не давать ему пагубно влиять на рабочие показатели в Метрике.
Ну, послушайте, выше уже говорилось и не только мной - либо вы смотрите как паразитный траф валит сайт, позиции проваливаются и бизнес несёт серьёзные убытки, либо вы фильтруете эти вредоносные IP-шники и трафик от них уводите "на прокладки". Выше изложен вариант с поддоменом - здесь вообще можно не использовать капч и большая часть отказного трафика будет генерировать отказы на поддомене, тогда как в Метрику основного сайта они попадать не будут.
А вы попробуйте самостоятельно. Возьмите контрольный период до наплыва ботов. Отфильтруйте полезный трафик с сотовых IP. Дальше отсортируйте контрольную выборку так, чтобы отдельный IP был сначала с одним профилем, а потом с другим т.е. новый пользователь под тем же IP. Вот и посмотрите, сколько у вас будет новых пользователей перезашедших под ранее использованным IP. Сколько у вас таких будет? Суммируйте их. Вот и рассчитайте этот процент по отношению к общему трафику.