- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
4 Svan
Сайт вернулся, но сегодня был пессимизирован. Опять письмо Платону. Из рекомендаций... сайт веду более полу года. Как передали, заказчик сказал, что приоритет другие запросы, нежели чем опытного прежнего сеошника. После того как задачи были выведены, заказчик захотел все обратно, и только на 1-е места. Опять переписывание, переоптимизация, тут и начал сайт все чаще и чаще выпадать. С условием того что сайт был static html, одели его на быструю цмс, для удобства его обслуживания. Во время переноса/создания нового сайта, был закрыт роботсом, и при открытии нового сайта открыт роботсом, дабы яша не поймал кучу битых линков. Но все равно, траст сайта на лезвии бритвы. Думаю, тут стоит повышать траст сайта.
Вопрос по поводу АГС. Есть сайт, под фильтром, у него 200 страниц. Посещалка около 50 хостов с гугла. Хочу сделать так, в роботсе для яндекса запретить категории:
User-agent: Yandex
Disallow: /films/
и так дальше.
Далее начну добавлять новый контент, но уже на новые категории. Получится вывести таким образом из под фильтра без удаления старого контента?