- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В рассуждениях про ajax... что #страница не перегружается и это типа хорошо... не хватает упоминания того обстоятельства, что первая загрузка из-за всех этих скриптов... получается заметно дольше, чем у страницы.html
- это зависит от того, насколько качественно написан скрипт, насколько сайт загружен скриптами, и т.д. Допустим в моем случае вес скриптов составляет ~ 150 кб., включая все необходимые библиотеки (jQuery), лайтбоксы, + мои скрипты. И это без использования сжатия gzip, которое используют все бразуеры (и web-сервера) с незапамятных времен. Допустим вес запакованного jQuery имеет 92 кб., а если использовать gzip - 32 кб. То есть, в моем случае страница .html от страницы с скриптами будет отличатся примерно на 60 кб. Я считаю это совсем немного.
А что-то там экономится — если просматриваются 15 страниц, что трудно ожидать от искателей.
А если искатель посмотрит и не захочет кликать?
позволю не согласиться, экономится чуть ли не при первых запросах, а не 15. Так как не будет много запросов на загрузку новой .html страницы, которая повлечет за собой много других запросов к серверу (css, jpg, и т.д.), а будет всего лишь один. Тем более, я у себя сделал систему кэширования. Например если пользователь на AJAX и он уже был на странице контакты, то вновь она загрузится мгновенно, не делая запросу к серверу. А еще это будет и-нет магазин, с фильтрами. При клике на фильтр (в категории с товарами), он будет применяться мгновенно, чего не сделаешь не используя js (ну и AJAX).
Может уж первую страницу пусть посмотрит как и ПС?
А после клика ... вылечите проблему:
- я тоже так думал, но зачем, если пользователя можно сразу перевести на AJAX? Единственная проблема, это в том, как редиректы воспримут поисковики?
Ну так вокруг этой проблемы и вся эта тема.
экономится чуть ли не при первых запросах
Первая загрузка только растягивается от множества прилинкованных файлов. См исходный код морды Гугля и Яндекса.
А с поиска — загрузка всегда первая.
в моем случае страница .html от страницы с скриптами будет отличатся примерно на 60 кб
На маленьких по объёму страничках скорость определяется не объёмом, а количеством HTTP обращений... и сторонники новых технологиев очень любят делать 5 файлов.js вместо одного.
Ничего не мешает показать первую страницу.html с прилинкованным CSS и ... JS, помещёнными перед </body>, но не использованным в этой странице site.com/contacts , а ... только после клика. И первая загрузка получится быстрее (и нарисуется страница без типичных ajax-дрыганий).
скорость определяется не объёмом, а количеством HTTP обращений
это я знаю, уменьшил количество запросов до минимума. Но вклеивать css в html файл не буду ни при каком раскладе (как это делает google ил yandex).
сторонники новых технологий очень любят делать 5 файлов.js вместо одного.
В общем сайт хорошо прооптимизирован, даже cookie не передаются при запросе к картинкам. Сайт грузится быстро, очень быстро, так что об этом мне переживать точно не стоит. Скоро сайт будет дописан, а c robots.txt сняты все ограничения - об этом переживать уже стоит. В общем если не найду другого варианта, возможно буду делать таки после клика переход на главную, подключать ajax, и т.д.
Мне было б гораздо удобнее и приятнее, оставить все как есть, но это слишком большой риск, как мне кажется.
богоносец, подскажите пожалуйста, как можно было б надежно спрятать редирект от поисковиков? Причем не после document.ready, а мгновенно. Я уже думал сделать на событие движения мыши, но это было б тупо: кто то клацнул мышкой в поисковике, попал на сайт, только пошевелил мышей, и тут сразу страница перегружается. Может как-то определять по размерам экрана? Хотя в статистике видел как-то bing bot замаскирован под safari с разрешением экрана (1280 x...) ...
В общем подскажите плиз.
как можно было б надежно спрятать редирект от поисковиков?
В долговременном плане никак:
против этого то же есть средства, когда например, в карте кликов - клики есть, а в карте ссылок их нет
Пример яндексоидов — забавная шутка... но им же не хочется терять клиентов Директа. А какие именно признаки используют ПС для борьбы с дорами... они не признаются.
У меня до 10 сек не-первый раз грузится пример гуглоидов, хотя большинство ответов 304. Но он же перекидывает на #!CwCheckBox ... когда на морду примера заходишь, хотя там всё морда.
Придумали ребята способ появления в индексе всякого #!говна. Яндекс повторил.
Придумали ребята способ появления в индексе всякого #!говна. Яндекс повторил.
супер 😂!
богоносец, как Вы считаете, оставив все как есть (открытую переадресацию js на каждой странице), мне грозит пессимизация?
И еще вопрос, если переадресация изначально будет (и им это не понравится), а потом я ее уберу, мне возобновят рейтинг или потеря доверия от поисковиков это уже необратимый процесс?
Для поисковиков и пользователей с отключенными JavaScript сайт также полноценно работает,
а зачем?
статистика по таким пользователям есть, а вот данных о том что они стали клиентами - нет! :)
забейте на пользователей с отключённым js и ни чего не потеряете! :)
забейте на пользователей с отключённым js и ни чего не потеряете!
- да хрен с ними, c пользователями у которых отключен js, это в большей степени делалось для поисковиков, а этим пользователям просто повезет))
оставив все как есть (открытую переадресацию js на каждой странице), мне грозит пессимизация?
У меня нет мнения на эту тему, хотите — покопайтесь в #!явно аяксовых (по Гуглу) сайтах.
Но признаки, по которым ПС чего-то банят — они не особо человечны. У меня был пример, когда после полугода необновления сайтика... решил напихать удобств... добавилось много onClick и id="якорь" ... всё на эту же страницу, навигация по портянке.
Потом объяснял ТП, что я не спамер...
писец, посмотрел я по этим аяксовым сайтам, ну ничего нормального нет. Половину не рабочее, в другой половине вообще не понятно зачем там ajax. Миллион js скриптов, меню со ссылками вообще нет, все div-ами (как об этих страницах узнали поисковики, понятия не имею). Блин все программировать разучились чтоли?
Кароче, пока запущу сайт с переадресацией, пофиг. Если будет совсем плохо, что-то буду думать.
Потом отпишусь о результатах, возможно даже со ссылками.