- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вроде бы все нашел ошибку вот и не получалось, гугл ОК пишет (будем ждать что получится).
Теперь вот в ЯШУ бы достучаться чтото не хочет уже вторую неделю индексировать, ни у кого проблем последнее время не было, а то у меня сайтов пять в индекс не попадают.
попробуйте этот сервис http://www.xml-sitemaps.com/
да, отличный сервис и удобный в приминении; единственный минус - выдаёт не больше 500 страниц сайта, но для начала и этого хватит.
Писал класс на PHP для генерации Sitemap XML
http://www.codeisart.ru/sitemap-xml-generation-using-domdocument-php/ Можете его попробовать
Сайтмап вроде бы сделал на основе чего уже писал. Вгугл отправил но как индексил каталог сайтов так его и кушает было в индексе 22 страницы в гугле когда начиналась эта тема, все стреницы с этого каталога, теперь в гугле более 300 страниц и опять же все с этого каталога. В сайтмап ссылку на каталог удалил, отправленных 118 - вроде на обработке. Сегодня проверил в ЯШЕ наконец добавились страницы, но вот опять же с каталога ни одной нужной. Нафиг убрать его чтоли надо. Пока не буду беки кучей добавляются пока подожду. Вот вопрос никогда не пользовался РОБОТ ТХТ подскажите как его написать правильно надо всего одну ссылку запретить и если боты в каталог залезли они теперь и вдальнейшем будут в него лезти даже если им туда дорогу запретить?????
/ru/news/373 Там понятно написано
Меня тож интересует Sitemap, залил его вчера на гугл и вот, что сегодня вижу:
Свойство Статус
Тип файла Sitemap. Веб
Формат –
Отправлено 15 ч. назад
Дата последней загрузки, выполненной Google. 15 ч. назад
Статус OK
Всего отсканированных URL-адресов в файле Sitemap 0
Проиндексированные URL-адреса в файле Sitemap. –
Ошибки и предупреждения в файле Sitemap
Ошибок и предупреждений не найдено.
Нули и прочерки - это нормально? Сайт я зарегил в гугле уже как месяц.
Ещё вопрос: в шапке сайтмэпа пишется
"<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.google.com/schemas/sitemap/0.9">"
это ничего, что там гугл, другие ПС тоже будут лазить по этому сайтмэпу?
И ещё, некоторые делают сайтмэп с расширением .php и выводят ссылку на морду+прописывают в main.tpl, с расширением .xml не надо ничего никуда выводить, просто создать этот файл и кинуть в корень?
Может .php - файл создавать надёжнее? Есть какой-то способ поплнять новые страницы в сайтмэп не вручную?
Воспользуйтесь сервисами
1. Создание sitemap
2. Регистрация sitemap
Если пользоваться сервисом http://www.xml-sitemaps.com/, стоит ли обновлять сайтмэп каждый месяц (к примеру), из-за того, что этот сервис добавляет только 500 стр., а они же каждый день появляются новые?
kolbas добавил 14.10.2008 в 14:02
Сохранять нужно в формат: sitemap.xml.gz
Это стоит делать если сайтмэп большой и его вес стоит уменьшить, лёгкие сайтмэпы можно отправлять и так: sitemap.xml
Что то вообще сижу и думаю нафиг за этими пузомерками погнался сайт изначально создавался с целью получения трафа,а не ТИЦ и ПР
makclit добавил 14.10.2008 в 14:31
Это получается что если прописать
User-agent: *
Disallow: /directtory/*
то директория directtory будет запрешена для индексации?
Проиндексированные URL-адреса в файле Sitemap. –
У меня отсканировано 118 а проиндексировано - до сих пор отправил пару дней назад
я уже создал сайтмэп с помощью http://www.xml-sitemaps.com/ и перенаправил на гугл. Этот сервис кидает в сайтмэп что видит, т.ч. придётся убрать оттудава разную ненужную в индексе дребедень типа "регистрации", "обратной связи" и т.п.
а эти данные у тебя от гугла?