- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Маленький вопрос.
Главная страница сайта весит 2,2 мб.
Это нормально? Может влиять как-то негативно на выдачу?
Это нормально?
не очень. Хотя все зависит от целевой аудитории и конкурентности запросов.
Может влиять как-то негативно на выдачу?
пока конкурентов нет - будет все гуд. Появятся конкуренты со страницами в 50-70кб - Гугл предпочтет их.
Маленький вопрос.
Главная страница сайта весит 2,2 мб.
Это нормально? Может влиять как-то негативно на выдачу?
Да, будет.
А как же хорошая графика?
До скольких тогда стоит уменьшить?
раз в 10 ее уменьшить надо.
раз в 10 ее уменьшить надо.
Это плохо! К примеру у ботов есть предпочтения по поводу размера страниц:
MSN Search требует, чтобы размер страниц не превышал 150К иначе “паук” либо просто прекратит сканирование, либо в худшем случае может, определив размер страницы еще до сканирования, проигнорировать весь сайт.
источник (/ru/news/466)
Это плохо! К примеру у ботов есть предпочтения по поводу размера страниц:
MSN Search требует, чтобы размер страниц не превышал 150К иначе “паук” либо просто прекратит сканирование, либо в худшем случае может, определив размер страницы еще до сканирования, проигнорировать весь сайт.
источник (/ru/news/466)
нужно стараться делать так, что бы робот гугла кушал страницу менее чем за секунду...
А как же хорошая графика?
А кому с пользователей интерестно ждать пока загрузятся 2,2 мб? Не думаю что многим.
Сделайте графику на странице в виде превю, кликнув на которые можно загрузить весь файл (качественный), если пользователю это будет необходимо (интерестно).
Также можно обозначить снизу-вверху картинки что она кликабельна. Думаю пользователи будут вам в таком случае благодарны. И роботы не будут обходить стороной. :-)
Kartinka2008 добавил 23.02.2011 в 01:48
До скольких тогда стоит уменьшить?
Я много работаю с картиночными сайтами, по моему опыту - размещать на страницах графические файлы тяжелее - 40 кб (это максимум) просто бессмысленно, достигается это двумя параметрами - разрешение и сжатие jpg-файла.
Так понимаю, это не дизайнер, а верстальщик должен переделать?
Вот страница. На ней вот эта полоса в шапке с логотипами крутится - там порядка 50 логотипов...
http://xmages.net/storage/10/1/0/4/b/upload/c6c18c62.jpg
Retrigo, ну явно не на 2.2 метра.
графику сжать, css, js оптимизировать, верстку поправить... внешних изменений не будет, а как минимум метр-полтора слетит. уже что-то.
Ну и да, само собой. Зачем высоко ранжировать сайт, который секунд 15 у пользователя загружаться будет.
Интересно, какое время загрузки страницы в вебмастере гугла?