- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня за январь роботы поисковиков съели 15 гигобайт трафика, посмотрел по статистике это в основном рамблер и яндекс, как с этим бороться подскажите, запретить их посещение нельзя и так уже ограничел чтобы они неходили в некоторые папки на сайтах, думал можно <META content="10 days" name=REVISIT-AFTER>, вот этим но почитал на форуме и понял что роботы это игнорируют, может можно всетаки снизить частоту их индексации
у вас скорей всего все ( много чего ) подгружается с других сайтов, у меня таже фигня, бот яшки седает по 500 метров за заход
Да есть такие сайты и как с этим боротся
Но разницы между теми сайтами что подгружаются и теми что не подгружаются, по расходу трафа нет, едят одинаково и у тех и у других, вчера в robots.txt на всех сайтах прописал запрет для рамблера, расход трафика снизился в два раза, но сегодня пришлось это убрать так как это стало помехой для индексации в другой системе
У меня за январь роботы поисковиков съели 15 гигобайт трафика,
Удивительно как еще не 15 терабайт...
Запретите сайт к индексации - и всего делов; на фиг он нужен, только траф жрет.😕
ты везде со своими карявыми советами лезиш, выпей яду может попустит,
я к умным обращался
Можно несколько улчшить ситуацию: определится какие поисковики нужны и выложить, к примеру, robots вида:
Облегчить код страниц: вынести css, js во внешние файлы, подключить gzip (не все поисковики поддерживают)
Вобщем надо смотреть по ситуации
Сменить хостинг ...
у вас скорей всего все ( много чего ) подгружается с других сайтов, у меня таже фигня, бот яшки седает по 500 метров за заход
тоже склоняюсь к такой мысли.
в эпоху начала линкаторов поставил 2-3 штучки себе на сайт.
безобидные скриптики которые тянут инфу для страничек с сайта линкатора.
Яндекс сжирал по 1.5 гига в мес и то держал в индексе не все страницы...
15 Гб /мес явно перебор, если там не 10 разных линкаторов..
:)
Целиком и полностью согласен с lastadm. Это будет лучший вариант - если Вы подберете для себя хостинг с безлимитным тарифом!!! Но 10-15 Гб трафика это , на мой взгляд, более чем странно. ИМХО, меняйте хостинг!!! и будет вам счастье:)
У меня за январь роботы поисковиков съели 15 гигобайт трафика, посмотрел по статистике это в основном рамблер и яндекс, как с этим бороться подскажите, запретить их посещение нельзя и так уже ограничел чтобы они неходили в некоторые папки на сайтах, думал можно <META content="10 days" name=REVISIT-AFTER>, вот этим но почитал на форуме и понял что роботы это игнорируют, может можно всетаки снизить частоту их индексации
А сколько страниц на сайте?