- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет,
Сделал несколько обновлений, в том числе и по ссылкам...
Но в Поисковых системах, остались до сих пор старые,
1. Вопрос, как их (старые) от туда выкинуть?
2. Когда проидексируют новые, выкинет ли писковик старые, если на них нет не одной ссылки в приделах сайта?
3. Про Гугл кеш, на некоторых ссылках, остались только ссылки Без Тайтла и крадкого описания... Это как понимать? Они готовы к "выбрасу", или глюк?
Заранее спасибо.
Если при обращении к несуществующим страницам 404, то ничего не нужно, поисковик сам дойдёт, найдёт и удалит, что не удалит, то обновит.
Если непременно хочется приложить свою руку, в Яндекс, можно поудялать несуществующие страницы:
http://webmaster.yandex.ru/delurl.xml
А новые добавить:
http://webmaster.yandex.ru/
Если непременно хочется приложить свою руку, в Яндекс, можно поудялать несуществующие страницы:
http://webmaster.yandex.ru/delurl.xml
только предварительно в robots.txt прописать их нужно будет.
Vladimir_Rublin,
Спасибо, но проект нацелен на запад, интересует Google, Yahoo, Msn. Хотелось бы узнать время обновления("Выброса"), хотябы приблизительное.
Что Вы думаете по поводу пункта 3 ?
matik,
По подробнее можно? Что именно прописать в robots.txt?
Disallow?
По подробнее можно? Что именно прописать в robots.txt?
Disallow?
User-agent: *
Disallow: /news/
Вопрос : а не получится, что бот не пойдет на страницу, закрытую роботсом, не получит 404 и не поймет, что страницы больше нету?
(Уже месяц в гугле страницы не разиндексируются никак, побаиваюсь, не слепились бы они с новым сайтом)
matik,
Disallow: /news/
Или я не пойму ход ваших мыслей, или у меня не хватает знания в данной облости, в этой папке "/news/" уже давно нет файлов, нет - физически, но В поисковых системах ссылки на именно "/news/" остались.... Нужно именно удалить их(ссылки на файлы) из поисковиков.
Насколько я знаю, Disallow - закрывает роботам страницы(папки) от индексирования, Но в этом случаи зачем закрывать то, что вообще нет??
поясните пожалуйста...
matik,
поясните пожалуйста...
:) это для примера было
matik,
Или я не пойму ход ваших мыслей, или у меня не хватает знания в данной облости, в этой папке "/news/" уже давно нет файлов, нет - физически, но В поисковых системах ссылки на именно "/news/" остались.... Нужно именно удалить их(ссылки на файлы) из поисковиков.
Насколько я знаю, Disallow - закрывает роботам страницы(папки) от индексирования, Но в этом случаи зачем закрывать то, что вообще нет??
поясните пожалуйста...
Об этом есть пояснение на странице удаления URL из базы Яндекса
Sitepromo,
спасибо за ответ, но будьте внимательны, это НЕ подходит, прочитайте посты #3 и #4, буду признателен если подскажите по теме..