- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Как знать об изменении быстрых ссылок
Сам недавно задавал такой вопрос
Сегодня узнал что можно в настройках Яндекс.Вебмастера
https://webmaster.yandex.ru/settings/
можно включить уведомления при обновлении быстрых ссылок
https://yadi.sk/i/up-f9EjL3L4WHS
В Яндекс.Вебмастере есть инструмент Удалить URL. Мне нужно удалить несколько сотен URL. Но в интерфейсе есть только одно поле для ввода 1 адреса страницы. Получается что мне нужно каждый урл вводить отдельно, после чего нажимать кнопку "Удалить", и совершить это действие очень много раз. В инете решения никакого не нашла по этому поводу. Как можно решить эту проблему?
Спасибо
Вопрос интересный.
у меня несколько сотен тысяч с 404 ошибкой, которые нужно удалить
Сам робот без захода на страницу может перевести такую страницу в качественную или некачественную.
Как их удалить не понятно. Платон Говорит говорит это нормально. Это фича.
Десятки миллионов если не сотни страниц не существующих обрабатывает и ничего. Электроэнергии не жалко:))
Еще добавлю что в robots.txt тоже важно прописать сайт через https, то есть должна быть строчка
Host: https://Ваш-сайт
Яндекс вебмастер пишет, что Файлы Sitemap, найденные в robots.txt не проиндексированы.
Как проиндексировать файлы Sitemap?
Яндекс вебмастер пишет, что Файлы Sitemap, найденные в robots.txt не проиндексированы.
Как проиндексировать файлы Sitemap?
Может нужно распечатать на бумаге, прошить и опломбировать печатью лица владельца ресурсом, после чего отнести в офис яндекса (на Льва Толстого).
А если серьезно, то там есть страница в яндекс.вебмастере
https://webmaster.yandex.ru ->Индексирование ->Файлы Sitemap->Добавить файл Sitemap
в разделе Индексирование - Переезд сайта поставить галочку "Добавить HTTPS"
Добрый вечер. Подскажите пожалуйста: у меня вебмастер выявил аж 297 ошибок в сайтмапе. Проблема в чем: 1. сайтмапу уже полее полугода и все было ок. 2. ошибки он пишет в строках под номером более 1000. У меня в сайтмап длиной менее 1000 строк.
Прошу помощи.
Всем доброго дня!
Вчера пришло письмо от Я.Вебмастера о том, что мой сайт попал в эксперимент «Рекомендованные запросы».
Новый подраздел содержит информацию о рекомендованных поисковых запросах с учётом региональности и указанием страниц.
Почитав справку, все стало ясно. Запросы рекомендуются для наилучшей настройки Яндекс Директа.
Что примечательно, из всех моих сайтов один находится под фильтром "Малополезный контент, спам, избыток рекламы", над исправлением которого я бьюсь уже 4-й месяц. И именно этот сайт и попал в эксперимент. Я так понимаю, Яндекс стал намекать, что не нужно исправлять сайт, просто начинайте рекламироваться в директе.
У кого какие соображения по этому поводу?
Факт есть факт. Я также получил подобное письмо. Правда, особо для себя полезного из нового сервиса пока не вынес. Не совсем понятно как можно использовать представленную информацию (разумеется, кроме Директа :))
Добрый вечер. Подскажите пожалуйста: у меня вебмастер выявил аж 297 ошибок в сайтмапе. Проблема в чем: 1. сайтмапу уже полее полугода и все было ок. 2. ошибки он пишет в строках под номером более 1000. У меня в сайтмап длиной менее 1000 строк.
Прошу помощи.
Сегодня прилитело письмо с похожей ситуацией. Якобы у меня 7 неверных url в sitemap. На указанных позициях совершенно другие адреса, а сам URL прописан без окончания .ru.
Пишу в поддержку. Ни у кого не было?